Дата публикации
ai_products

OpenAI превратила Responses API в агента с собственным компьютером

Что появилось / что изменилось

OpenAI добавила к Responses API полноценную компьютерную среду. Теперь это не просто вызов GPT‑5.2 по HTTP, а связка из модели, оболочки shell и изолированного контейнера.

Главные новшества:

  • Shell‑инструмент внутри Responses API. GPT‑5.2 и более новые модели умеют сами предлагать shell‑команды, а платформа их реально выполняет.
  • Хостинговый контейнер с файловой системой. У агента есть своё изолированное рабочее окружение: можно создавать файлы, читать их, хранить промежуточные результаты.
  • Доступ к типичным Unix‑утилитам. Внутри доступны grep, curl, awk и другие стандартные инструменты командной строки.
  • Поддержка разных языков и сервисов. Shell позволяет запускать Go, Java, NodeJS‑сервера и любые бинарники, а не только Python‑скрипты, как в старом Code Interpreter.
  • Оркестрация цикла «модель → команда → результат → следующая команда». Responses API сам управляет этим циклом и передаёт вывод команд обратно в модель.
  • Стриминг вывода shell в почти реальном времени. Как только команда что‑то печатает, Responses API тут же отдаёт это в модель и клиенту.
  • Параллельные сессии. Модель может предложить несколько команд за один шаг, а Responses API выполнит их в отдельных сессиях контейнера.
  • Ограниченный сетевой доступ и опциональное хранилище вроде SQLite. Это нужно для безопасности и более сложных рабочих процессов.

Цифр по скорости, контексту и цене OpenAI не приводит. Фокус — не на параметрах модели, а на том, что вокруг неё появился «компьютер».

Как это работает

Базовая идея: GPT‑5.2 больше не просто отвечает текстом, а планирует шаги и вызывает инструменты.

  1. Клиент отправляет запрос в Responses API. В запросе — пользовательский промпт, история диалога и инструкция, что можно использовать shell.
  2. Responses API собирает контекст. Он включает текст пользователя, предыдущие сообщения и описание доступных инструментов.
  3. GPT‑5.2 решает, что делать дальше. Модель может:
    • сразу вернуть финальный ответ,
    • или предложить один или несколько вызовов shell.
  4. Если выбрана shell‑команда, Responses API передаёт её в контейнерный рантайм. Там крутится изолированный Linux‑контейнер с файловой системой, сетевыми ограничениями и, при необходимости, структурированным хранилищем вроде SQLite.
  5. Контейнер выполняет команду, а Responses API поддерживает стриминговое соединение: вывод команды идёт по мере появления.
  6. Responses API добавляет этот вывод в следующий запрос к модели. GPT‑5.2 «читает» результат, может запустить ещё команды или закончить работу и вернуть ответ пользователю.
  7. Цикл повторяется, пока модель не вернёт ответ без новых shell‑команд.

Под капотом это оркестратор, который сам управляет: когда звать модель, когда запускать shell, как хранить промежуточные файлы и как не потерять состояние между шагами.

Что это значит для вас

Если вы просто просите GPT‑5.2 написать письмо, ничего не меняется. Но если вы строите агентов и автоматизацию, картина другая.

Где это полезно:

  • Сложные пайплайны данных. Агент может сам скачать данные через curl, распарсить их утилитами, сохранить в файлы, собрать отчёт и вернуть вам PDF или таблицу.
  • Интеграции с API. Вместо ручного кода под каждый сервис модель формирует HTTP‑запросы в shell, получает JSON, обрабатывает и двигается дальше.
  • Прототипирование сервисов. GPT‑5.2 может поднять NodeJS‑ или Go‑сервер в контейнере, протестировать его, изменить код и перезапустить.
  • Долгие, многошаговые задачи. Всё, где раньше приходилось городить свой workflow‑движок: тайм‑ауты, ретраи, временные файлы, разбор логов.

Где осторожнее:

  • Безопасность. Shell — мощный инструмент. OpenAI ограничивает сеть и окружение, но вам всё равно нужно аккуратно давать моделям доступ к внутренним сервисам и данным.
  • Детерминизм. Агенты, которые сами придумывают шаги, могут вести себя нестабильно. Для критичных систем нужен строгий мониторинг и ограничения на команды.
  • Юрисдикция. Сервисы OpenAI официально недоступны в России. Для работы Responses API и этого окружения обычно используют VPN или зарубежную инфраструктуру.

Если вы — разработчик, который раньше писал свой «обёртки» вокруг LLM, теперь часть этой работы берёт на себя OpenAI. Можно сосредоточиться на логике продукта, а не на том, куда складывать временные файлы и как правильно перезапускать задачи.

Если вы — продакт или тимлид, это инструмент для автоматизации рутинного бэкенд‑чёрного ящика: отчёты, интеграции, регулярные проверки, миграции данных.

Место на рынке

OpenAI напрямую сравнивает новый подход с собственным же Code Interpreter. Разница простая:

  • Code Interpreter запускает только Python и заточен под аналитику и генерацию артефактов внутри чата.
  • Shell‑инструмент в Responses API может запускать Go, Java, NodeJS и любые программы, которые вы положите в контейнер.

Это переводит GPT‑5.2 из «калькулятора с Python» в полноценного агента, который работает почти как разработчик в терминале.

С прямыми конкурентами вроде Claude или других LLM‑платформ OpenAI здесь не сравнивает ни скорость, ни цену. Акцент на другом: Responses API теперь не просто даёт текстовый ответ, а управляет изолированным компьютером и сам крутит агентный цикл. Для тех, кто строит продакшн‑сервисы поверх LLM, это снимает часть инфраструктурной головной боли и делает агента ближе к реальному исполнителю задач, а не только советчику.


Читайте также

OpenAI превратила Responses API в агента с собственным компьютером — VogueTech | VogueTech