- Дата публикации
AutoCog: GPT‑4 сам готовит ML‑репозиторий к запуску в Docker
Что появилось / что изменилось
Replicate представила AutoCog — надстройку над Cog, которая почти полностью автоматизирует упаковку ML‑репозитория в Docker‑образ.
Cog и раньше умел собирать образ по минимальному количеству кода‑обвязки. AutoCog снимает и этот слой: GPT‑4 сам пишет нужные файлы, запускает их и пытается исправлять ошибки.
Что конкретно умеет AutoCog:
- Берёт на вход репозиторий с машинным обучением.
- Анализирует файлы и README.
- Генерирует два ключевых файла для Cog:
cog.yamlиpredict.py. - Формирует команду
cog predictдля запуска инференса. - Запускает эту команду и при падении сам пытается исправить:
cog.yaml,predict.py,- или саму команду.
- Повторяет цикл диагностики и исправлений до 5 раз.
AutoCog работает поверх GPT‑4, который сейчас принимает до 8096 токенов в контекст. Из‑за этого AutoCog заранее сортирует файлы по важности и обрезает «хвост», который не помещается в окно контекста.
Установить AutoCog можно из PyPI, а подробная документация лежит в репозитории GitHub andreasjansson/AutoCog.
Как это работает
Под капотом AutoCog — цепочка промптов к GPT‑4 и вспомогательный код, который разбирает ответы модели и запускает их в бою.
Схема работы:
- AutoCog получает путь к ML‑репозиторию.
- Сканирует структуру файлов, читает README.
- Отправляет в GPT‑4 промпт: нужно упорядочить файлы по релевантности для инференса и сборки предсказательной модели в Cog.
- Пример формата ответа:
most_relevant.py second_most_relevant.py ... least_relevant.py
- Пример формата ответа:
- Берёт верхнюю часть списка, пока суммарный объём текста не укладывается в ~8096 токенов.
- Скормливает эти файлы GPT‑4 с задачей: сгенерировать
cog.yamlиpredict.py. - На основе сгенерированных файлов формирует и запускает команду
cog predict. - Если запуск падает, AutoCog анализирует ошибку и снова обращается к GPT‑4 с запросом на правку конфигурации, кода или команды.
- Повторяет шаги диагностики и исправления до пяти итераций.
Автор AutoCog описывает процесс разработки как «микроменеджмент программиста с отличными скиллами кода, но слабым здравым смыслом». Задача — нарезать большую цель на мелкие подзадачи, где GPT‑4 реально справляется.
Что это значит для вас
AutoCog полезен, если вы:
- Регулярно оборачиваете ML‑модели в продакшн через Docker.
- Используете Cog или планируете его внедрить.
- Не хотите тратить время на ручное написание
cog.yamlи обвязки для инференса.
Где AutoCog помогает:
- Быстрый прототипинг: можно взять чужой GitHub‑репозиторий с моделью и за несколько итераций получить рабочий
cog predict. - Онбординг в Cog: вместо чтения всей документации сначала даёте поработать AutoCog, а потом допиливаете конфиг руками.
- Рутинные задачи: обновили код модели — AutoCog снова собирает конфиг и проверяет, что всё запускается.
Где могут быть проблемы:
- GPT‑4 не всегда угадывает точные версии Python‑пакетов. Иногда AutoCog уходит в «дурную ветку» правок, которая только ломает окружение.
- Ограничение в 8096 токенов: большие репозитории с кучей Python‑файлов попадают в контекст не полностью, важные детали могут потеряться.
- Автоматические попытки ограничены пятью циклами. Если за это время конфиг не взлетел, придётся вмешиваться.
Для таких случаев есть режим человека в контуре: вы можете прервать AutoCog (Ctrl‑C), поправить код или cog.yaml вручную и запустить AutoCog с флагом --continue. Инструмент попробует продолжить с учётом ваших правок.
AutoCog не завязан на российские сервисы. Доступ к GPT‑4 в России официально ограничен, поэтому для реальной работы могут понадобиться VPN и зарубежный аккаунт, либо прокси‑доступ к GPT‑4 через сторонних провайдеров.
Место на рынке
AutoCog живёт в довольно узкой нише: автоматизация упаковки ML‑моделей в Docker через Cog. Прямых аналогов с тем же фокусом почти нет.
Если сравнивать по типу задач:
- Auto‑GPT и BabyAGI — это общие «агенты», которые могут писать код и запускать его, но не заточены под специфику Cog и формат
cog.yaml. - AutoCog — специализированный инструмент, который знает, какие файлы нужны Cog, как должен выглядеть
predict.py, и сразу формирует командуcog predict.
По «скорости» или стоимости запросов к GPT‑4 AutoCog ничем не отличается от любого другого инструмента на GPT‑4: он просто делает больше последовательных вызовов. Конкретных цифр по времени сборки или расходу токенов автор не приводит.
Если вы уже используете Cog, альтернативы уровня «поставил пакет из PyPI и он сам пишет cog.yaml» сейчас по сути нет. Если же вы работаете с другими пайплайнами деплоя (например, собственные Dockerfile или BentoML), AutoCog напрямую не поможет: он жёстко привязан к экосистеме Cog и логике Replicate.