- Дата публикации
OpenAI превратила Responses API в агента с собственным компьютером
Что появилось / что изменилось
OpenAI добавила к Responses API полноценную компьютерную среду. Теперь это не просто вызов GPT‑5.2 по HTTP, а связка из модели, оболочки shell и изолированного контейнера.
Главные новшества:
- Shell‑инструмент внутри Responses API. GPT‑5.2 и более новые модели умеют сами предлагать shell‑команды, а платформа их реально выполняет.
- Хостинговый контейнер с файловой системой. У агента есть своё изолированное рабочее окружение: можно создавать файлы, читать их, хранить промежуточные результаты.
- Доступ к типичным Unix‑утилитам. Внутри доступны
grep,curl,awkи другие стандартные инструменты командной строки. - Поддержка разных языков и сервисов. Shell позволяет запускать Go, Java, NodeJS‑сервера и любые бинарники, а не только Python‑скрипты, как в старом Code Interpreter.
- Оркестрация цикла «модель → команда → результат → следующая команда». Responses API сам управляет этим циклом и передаёт вывод команд обратно в модель.
- Стриминг вывода shell в почти реальном времени. Как только команда что‑то печатает, Responses API тут же отдаёт это в модель и клиенту.
- Параллельные сессии. Модель может предложить несколько команд за один шаг, а Responses API выполнит их в отдельных сессиях контейнера.
- Ограниченный сетевой доступ и опциональное хранилище вроде SQLite. Это нужно для безопасности и более сложных рабочих процессов.
Цифр по скорости, контексту и цене OpenAI не приводит. Фокус — не на параметрах модели, а на том, что вокруг неё появился «компьютер».
Как это работает
Базовая идея: GPT‑5.2 больше не просто отвечает текстом, а планирует шаги и вызывает инструменты.
- Клиент отправляет запрос в Responses API. В запросе — пользовательский промпт, история диалога и инструкция, что можно использовать shell.
- Responses API собирает контекст. Он включает текст пользователя, предыдущие сообщения и описание доступных инструментов.
- GPT‑5.2 решает, что делать дальше. Модель может:
- сразу вернуть финальный ответ,
- или предложить один или несколько вызовов shell.
- Если выбрана shell‑команда, Responses API передаёт её в контейнерный рантайм. Там крутится изолированный Linux‑контейнер с файловой системой, сетевыми ограничениями и, при необходимости, структурированным хранилищем вроде SQLite.
- Контейнер выполняет команду, а Responses API поддерживает стриминговое соединение: вывод команды идёт по мере появления.
- Responses API добавляет этот вывод в следующий запрос к модели. GPT‑5.2 «читает» результат, может запустить ещё команды или закончить работу и вернуть ответ пользователю.
- Цикл повторяется, пока модель не вернёт ответ без новых shell‑команд.
Под капотом это оркестратор, который сам управляет: когда звать модель, когда запускать shell, как хранить промежуточные файлы и как не потерять состояние между шагами.
Что это значит для вас
Если вы просто просите GPT‑5.2 написать письмо, ничего не меняется. Но если вы строите агентов и автоматизацию, картина другая.
Где это полезно:
- Сложные пайплайны данных. Агент может сам скачать данные через
curl, распарсить их утилитами, сохранить в файлы, собрать отчёт и вернуть вам PDF или таблицу. - Интеграции с API. Вместо ручного кода под каждый сервис модель формирует HTTP‑запросы в shell, получает JSON, обрабатывает и двигается дальше.
- Прототипирование сервисов. GPT‑5.2 может поднять NodeJS‑ или Go‑сервер в контейнере, протестировать его, изменить код и перезапустить.
- Долгие, многошаговые задачи. Всё, где раньше приходилось городить свой workflow‑движок: тайм‑ауты, ретраи, временные файлы, разбор логов.
Где осторожнее:
- Безопасность. Shell — мощный инструмент. OpenAI ограничивает сеть и окружение, но вам всё равно нужно аккуратно давать моделям доступ к внутренним сервисам и данным.
- Детерминизм. Агенты, которые сами придумывают шаги, могут вести себя нестабильно. Для критичных систем нужен строгий мониторинг и ограничения на команды.
- Юрисдикция. Сервисы OpenAI официально недоступны в России. Для работы Responses API и этого окружения обычно используют VPN или зарубежную инфраструктуру.
Если вы — разработчик, который раньше писал свой «обёртки» вокруг LLM, теперь часть этой работы берёт на себя OpenAI. Можно сосредоточиться на логике продукта, а не на том, куда складывать временные файлы и как правильно перезапускать задачи.
Если вы — продакт или тимлид, это инструмент для автоматизации рутинного бэкенд‑чёрного ящика: отчёты, интеграции, регулярные проверки, миграции данных.
Место на рынке
OpenAI напрямую сравнивает новый подход с собственным же Code Interpreter. Разница простая:
- Code Interpreter запускает только Python и заточен под аналитику и генерацию артефактов внутри чата.
- Shell‑инструмент в Responses API может запускать Go, Java, NodeJS и любые программы, которые вы положите в контейнер.
Это переводит GPT‑5.2 из «калькулятора с Python» в полноценного агента, который работает почти как разработчик в терминале.
С прямыми конкурентами вроде Claude или других LLM‑платформ OpenAI здесь не сравнивает ни скорость, ни цену. Акцент на другом: Responses API теперь не просто даёт текстовый ответ, а управляет изолированным компьютером и сам крутит агентный цикл. Для тех, кто строит продакшн‑сервисы поверх LLM, это снимает часть инфраструктурной головной боли и делает агента ближе к реальному исполнителю задач, а не только советчику.