- Дата публикации
OpenClaw уместили в один Go-бинарник на 35 МБ. Что это меняет для запуска ИИ-агентов
Что появилось / что изменилось
Разработчики OpenClaw переписали серверную часть на Go и собрали всё приложение в один статически слинкованный бинарник размером около 35 МБ. В него теперь входят:
- бэкенд на Go;
- встроенный веб‑интерфейс (UI вшит в бинарь);
- HTTP API для интеграций;
- поддержка нескольких каналов, включая WhatsApp через библиотеку whatsmeow;
- режим managed‑развёртывания с PostgreSQL по умолчанию.
Главный практический эффект — развёртывание через один файл и минимальный набор зависимостей. Для базового запуска достаточно:
- самого бинарника;
- настроек окружения из
.env; - PostgreSQL (поддержка вынесена в отдельные docker‑компоуз файлы, но сам сервер может работать и вне Docker).
Docker‑сборка тоже упростилась: вместо нескольких вариантов теперь один основной образ, потому что веб‑UI уже встроен в бэкенд. Дополнительные конфигурации (sandbox, Redis, browser, otel) включаются через отдельные docker-compose.*.yml.
Размер проекта в рабочем виде — один бинарник ~35 МБ плюс внешняя база. Для сравнения: прежняя архитектура на Python + Node.js тянула за собой десятки мегабайт зависимостей и несколько сервисов.
Как это работает
OpenClaw теперь — это Go‑сервис, который при сборке:
- компилирует бэкенд в один статический бинарник;
- пакует статические файлы веб‑интерфейса из каталогов
_readmes,_statics,uiвнутрь бинарника через go:embed; - отдаёт UI по HTTP тем же процессом, который обрабатывает API‑запросы.
В репозитории видно, как это организовано:
- папки
cmd,internal,pkg— код серверной логики, маршрутизация, права доступа, интеграции с внешними сервисами; skills— отдельные модули‑“скиллы” для агентов (например, работа с XML переведена наdefusedxmlради безопасности);migrations— миграции для PostgreSQL;dockerи несколькоdocker-compose.*.yml— сценарии контейнерного развёртывания, включая sandbox‑окружение и Redis‑кэш по build‑тегу.
Go даёт предсказуемое потребление памяти и времени старта. Процесс поднимается за доли секунды, не требует интерпретатора или JVM. Для продакшена это минус один слой сложности: меньше точек отказа, меньше версий зависимостей, которые нужно синхронизировать.
Дополнительно команда подтянула безопасность:
- sandbox‑окружение с жёсткими deny‑паттернами для shell;
- отдельные права для cron‑задач и per‑agent grants через
secure-cli; - CC BY‑NC 4.0 лицензия: коммерческое использование ограничено, нужно внимательно читать условия.
Что это значит для вас
Если вы:
- строите внутренний портал с ИИ‑агентами;
- поднимаете шлюз к GPT‑5, Claude 4 и другим моделям внутри корпоративной сети;
- хотите единый интерфейс для нескольких каналов (включая WhatsApp),
то новый OpenClaw проще развернуть и сопровождать.
Что даёт один бинарник на практике:
- Быстрый старт на сервере. Скопировали файл, настроили
.env, подключили PostgreSQL — и у вас уже есть веб‑панель, API и маршрутизация запросов к агентам. - Меньше DevOps‑нагрузки. Не нужно держать рядом Python, Node.js, npm, pip и следить за конфликтами версий. Обновление — это замена одного файла.
- Удобный self‑hosted формат. Для тех, кто не может выносить данные в облако и хочет полный контроль над логами и доступами.
Где OpenClaw особенно полезен:
- внутренние ассистенты для поддержки, IT‑службы, документооборота;
- единая точка входа к нескольким LLM с разными правами и тарифами;
- сценарии, где нужны строгие права доступа и аудит действий агентов (cron‑задачи, пер‑агентные разрешения).
Где лучше поискать другие решения:
- если вам нужен только чат с одной моделью без сложных прав — проще взять готовый SaaS‑интерфейс от провайдера модели;
- если команда не готова администрировать PostgreSQL и Docker, а нужен «завёл и забыл» сервис;
- если вы планируете коммерческий продукт поверх OpenClaw — лицензия CC BY‑NC 4.0 потребует отдельного юридического разбора.
Сетевые ограничения: OpenClaw — self‑hosted‑проект из GitHub. Доступ к репозиторию в России может потребовать VPN, особенно в корпоративных сетях с жёсткой фильтрацией. После скачивания бинарника запуск внутри периметра уже не зависит от внешних сервисов, кроме тех LLM‑провайдеров, к которым вы сами подключаетесь.
Место на рынке
OpenClaw в свежем виде — это скорее «шлюз и оркестратор» для ИИ‑агентов, чем ещё один чат‑клиент к GPT‑5. По позиционированию он ближе к open‑source‑решениям вроде локальных AI‑хабов, но с упором на:
- один компактный бинарник (~35 МБ) вместо набора сервисов;
- встроенный веб‑UI без отдельного фронтенд‑сервера;
- развитую систему прав и sandbox‑окружение.
Прямых числовых сравнений по скорости с другими стеками разработчики не приводят. Но переход на Go и статическую сборку логично уменьшает время старта и снижает накладные расходы по сравнению с Python+Node‑архитектурой с несколькими процессами и пакетными менеджерами.
По удобству развёртывания OpenClaw теперь ближе к классическим Go‑сервисам: один бинарь, конфиг, внешняя база. На фоне тяжёлых AI‑платформ с десятками контейнеров это заметное упрощение инфраструктуры, особенно для небольших команд, которые хотят управлять своими ИИ‑агентами локально, а не собирать собственный зоопарк из микросервисов.