- Дата публикации
OpenAI Codex переходит на почасовую оплату по токенам: что это меняет для разработчиков
Что появилось / что изменилось
OpenAI полностью перестраивает тарификацию Codex: вместо примерных цен «за сообщение» теперь действует точный расчёт по токенам, как в API.
Новый прайс действует для ChatGPT Business и новых клиентов ChatGPT Enterprise/Edu. Переход для остальных планов (Plus, Pro, существующие Enterprise/Edu) идёт поэтапно, для них пока сохраняется «наследный» прайс по сообщениям.
Новая ставка считается по миллиону токенов и делится на три типа:
- входные токены;
- кэшированные входные токены;
- выходные токены.
Тарифы по токенам для Codex:
-
GPT-5.4
— вход: 62,5 кредита за 1M токенов
— кэш: 6,25 кредита за 1M токенов
— выход: 375 кредитов за 1M токенов -
GPT-5.4-Mini
— вход: 18,75 кредита
— кэш: 1,875 кредита
— выход: 113 кредитов -
GPT-5.3-Codex
— вход: 43,75 кредита
— кэш: 4,375 кредита
— выход: 350 кредитов -
GPT-5.2-Codex
— вход: 43,75 кредита
— кэш: 4,375 кредита
— выход: 350 кредитов -
GPT-5.2
— вход: 43,75 кредита
— кэш: 4,375 кредита
— выход: 350 кредитов -
GPT-5.1-Codex-Max
— вход: 31,25 кредита
— кэш: 3,125 кредита
— выход: 250 кредитов -
GPT-5.1-Codex-mini
— вход: 6,25 кредита
— кэш: 0,625 кредита
— выход: 50 кредитов
Дополнительно:
- Fast mode тратит в 2 раза больше кредитов на те же токены.
- Code Review в Codex всегда использует GPT-5.3-Codex.
- GPT-5.3-Codex-Spark может появиться как research preview, его ставки ещё не финальные.
По оценке OpenAI, средний чек по Codex — $100–200 в месяц на одного разработчика, но разброс большой: влияют выбранная модель, число параллельных инстансов, объём автоматизаций и частота использования Fast mode.
Для клиентов на старых условиях пока действует «наследный» прайс по сообщениям и pull request:
-
GPT-5.4
— локальная задача: ~7 кредитов за сообщение
— облачная задача: ~34 кредита за сообщение
— code review: ~34 кредита за pull request -
GPT-5.3-Codex
— локальная задача: ~5 кредитов
— облачная задача: ~25 кредитов
— code review: ~25 кредитов -
GPT-5.1-Codex-mini
— локальная задача: ~1 кредит
— облачные задачи и code review недоступны
Эти средние значения также применяются к GPT-5.2, GPT-5.2-Codex, GPT-5.1, GPT-5.1-Codex-Max, GPT-5, GPT-5-Codex и GPT-5-Codex-Mini.
Как это работает
OpenAI переводит Codex на ту же логику, что и API: вы платите за реально использованные токены, а не за абстрактное «сообщение».
Счёт делится на три части:
- Input tokens — весь текст, который вы отправляете в Codex: промпт, контекст, фрагменты кода.
- Cached input tokens — повторно используемые токены, которые Codex берёт из кэша. Они стоят дешевле, чем обычный вход.
- Output tokens — всё, что Codex сгенерировал: код, комментарии, объяснения.
Каждый тип токенов умножается на свою ставку в кредитах за миллион токенов. Fast mode просто умножает итоговое число кредитов на 2.
В итоге стоимость одной задачи зависит от:
- длины промпта и контекста;
- объёма кода, который Codex перечитывает из кэша;
- длины ответа;
- выбранной модели (от GPT-5.1-Codex-mini до GPT-5.4);
- включён ли Fast mode.
OpenAI предлагает смотреть статистику в Codex: Settings → Usage, там видно, сколько токенов и кредитов съедают разные сценарии.
Что это значит для вас
Если вы уже используете Codex в ChatGPT Business или новом Enterprise/Edu, ваши расходы теперь сильнее зависят от структуры задач.
Практические выводы:
-
Короткие локальные задачи (рефакторинг функции, генерация небольших фрагментов) выгоднее запускать на более дешёвых моделях вроде GPT-5.1-Codex-mini или GPT-5.4-Mini. Там низкая цена за вход и выход.
-
Тяжёлые облачные задачи и code review по умолчанию идут через GPT-5.3-Codex. Если вы активно ревьюите большие pull request, именно выходные токены и Fast mode будут раздувать счёт.
-
Экономьте на контексте. Чем длиннее промпт и прикреплённый код, тем дороже вход. Имеет смысл выносить повторяющиеся части в кэшируемый контекст и не слать лишний текст каждый раз.
-
Следите за Fast mode. Он вдвое увеличивает расход кредитов. Логично включать его только там, где задержка действительно критична, например, в интерактивных ассистентах внутри IDE.
-
Планируйте бюджет. При оценке стоимости команды ориентируйтесь на диапазон OpenAI: $100–200 в месяц на одного активного разработчика. Если вы строите автоматизации, которые генерируют большие объёмы кода, закладывайте верхнюю часть диапазона и выше.
Codex официально недоступен в России. Для доступа к ChatGPT Business или Enterprise обычно используют иностранные юрлица и инфраструктуру за пределами страны, часто с VPN. Это отдельный юридический и операционный риск, который нужно учитывать.
Если вы пока на Plus/Pro или старом Enterprise/Edu, OpenAI продолжит считать кредиты по старой схеме «за сообщение» и «за pull request», пока ваш workspace не переведут на токены. Админам Enterprise обещают отдельные письма с таймлайном миграции.
Место на рынке
OpenAI фактически подгоняет Codex под свою же модель API-прайсинга: кредиты теперь напрямую отражают токены, как в обычных GPT-5.x через API.
Внутри экосистемы OpenAI это делает Codex более предсказуемым: можно сравнивать стоимость Codex с чистым GPT-5.4 или GPT-5.2 по тем же категориям токенов — вход, кэш, выход. Разработчикам проще считать, где дешевле держать конкретные сценарии: в Codex с его интеграциями или в «голом» API.
Прямых численных сравнений с конкурентами OpenAI не приводит. Но сам факт перехода на токены показывает: Codex теперь считают не как «чёрный ящик в IDE», а как ещё один API-инструмент с понятной поминутной оплатой.
Для компаний, которые уже живут в экосистеме OpenAI и строят вокруг неё пайплайны разработки, это удобный шаг: один тип метрик, одни и те же единицы измерения затрат, единая логика оптимизации промптов и контекста.