- Дата публикации
Зачем вам свой AI‑«шлейф»: как не отдать память агента в чужие руки
Что нового
LangChain продвигает идею: главное в AI‑агентах сейчас — не только модель вроде Claude 3.7 или GPT‑4o, а так называемый agent harness (по‑русски логично называть это «шлейф» или «обвязка агента»). Именно он управляет тем, как агент:
- вызывает инструменты и API;
- работает с контекстом и памятью (и краткосрочной, и долгосрочной);
- хранит состояние между сессиями.
Ключевые тезисы:
- Агентские шлейфы уже стали стандартным способом собирать сложных ассистентов и никуда не исчезают.
- Память агента тесно связана со шлейфом. Если вы используете закрытый шлейф за проприетарным API, вы фактически отдаёте память своего продукта внешнему провайдеру.
- Крупные игроки (OpenAI, Anthropic и другие) уже двигаются к тому, чтобы прятать всё больше логики памяти за своими API — это усиливает привязку к их платформам.
- LangChain отвечает на это релизом Deep Agents — открытого шлейфа для агентов, который:
- распространяется как open source;
- не привязан к конкретной модели;
- использует открытые форматы вроде
agents.mdиskills; - умеет работать с MongoDB, Postgres, Redis и другими хранилищами для памяти;
- разворачивается через LangSmith Deployment, может работать на любом облаке и с любой вашей БД.
Цифры из практики:
- Утечка исходников Claude Code показала масштаб: около 512 000 строк кода — это и есть шлейф вокруг модели, а не сама модель.
- Codex (open source‑агент от OpenAI) генерирует зашифрованное резюме компакции контекста, которое нельзя использовать вне экосистемы OpenAI.
Как это работает
Что такое agent harness
Агентский шлейф — это слой вокруг большой языковой модели (LLM), который:
- принимает запрос пользователя;
- решает, какие инструменты и API вызвать (поиск, код, базы данных, файловая система);
- управляет контекстом: какие сообщения, файлы, результаты запросов отдать модели сейчас;
- сохраняет и читает память между сессиями.
По определению, агент — это LLM, которая взаимодействует с внешними инструментами и источниками данных. Чтобы это работало, всегда нужен код вокруг модели. Примеры таких шлейфов:
- Claude Code;
- Deep Agents;
- Pi (на нём работает OpenClaw);
- OpenCode;
- Codex;
- Letta Code и другие.
Когда вы видите «встроенный веб‑поиск» в API OpenAI или Anthropic, это не «часть модели». Это тонкий шлейф позади API, который вызывает модель и API поиска через tool calling, а затем склеивает ответы.
Почему память — это не плагин, а часть шлейфа
Исследовательница Sarah Wooders сформулировала идею: память агента — это не отдельный сервис, который можно «подключить», а ядро шлейфа. Шлейф отвечает за управление контекстом, а память — это просто разные формы контекста.
Что именно делает шлейф с памятью:
-
Краткосрочная память:
- ведёт историю диалога;
- хранит большие результаты вызовов инструментов (например, длинный SQL‑ответ или файл);
- решает, что из этого попадёт в следующий запрос к модели.
-
Долгосрочная память (между сессиями):
- записывает важные факты о пользователе и проекте;
- решает, когда и как подгружать это в контекст;
- управляет метаданными памяти (теги, типы, источники).
Типичные вопросы, которые полностью зависят от шлейфа:
- Как подгружается
AGENTS.mdилиCLAUDE.mdв контекст модели? - Как агент видит метаданные о навыках: в системном промпте, отдельными системными сообщениями, ещё как‑то?
- Может ли агент менять свои собственные системные инструкции?
- Что сохраняется при компакции контекста, а что безвозвратно теряется?
- Сохраняются ли взаимодействия так, чтобы по ним можно было делать поиск?
- Как шлейф показывает агенту метаданные памяти?
- Как представлена текущая рабочая директория и сколько информации о файловой системе видит агент?
Пока индустрия только ищет лучшие практики работы с памятью. Часто долгосрочная память даже не попадает в первую версию продукта: сначала делают работающего агента, потом добавляют персонализацию. Из‑за этого нет общепринятых стандартов, и память фактически «врастает» в конкретный шлейф.
Что это значит для вас
Если вы строите продукт на закрытых шлейфах и API
Вы рискуете не владеть памятью своего продукта.
Варианты проблем:
-
Мягкий сценарий: вы используете stateful‑API вроде OpenAI Responses API или серверной компакции от Anthropic.
- Состояние диалога живёт на серверах провайдера.
- Если вы захотите сменить модель или платформу и при этом продолжить старые диалоги, сделать это будет сложно или невозможно.
-
Хуже: вы используете закрытый шлейф, например Claude Agent SDK, который внутри опирается на Claude Code.
- Исходники Claude Code не открыты.
- Вы не знаете, как он хранит и структурирует память.
- Даже если часть артефактов лежит у вас на клиенте, их форма не задокументирована и не переносится в другой шлейф.
-
Самый жёсткий сценарий: весь шлейф и долгая память спрятаны за API.
- У вас нет доступа к механике работы с памятью.
- Вы не контролируете, какие части памяти можно извлечь, а какие нет.
- При миграции вы теряете историю и накопленный поведенческий слой.
Если вы строите ассистента для почты, CRM или внутренних процессов, это прямое бизнес‑ограничение: смена поставщика превращается в потерю обученного на пользователях слоя интеллекта.
Автор приводит личный пример: внутренний email‑ассистент на базе Fleet (no‑code‑платформа для Enterprise‑агентов OpenClaw) с поддержкой памяти. За несколько месяцев агент «узнал» стиль переписки и предпочтения. Когда агента случайно удалили, восстановление по тому же шаблону дало гораздо более слабый опыт — всё пришлось обучать заново.
Вывод: память — это главный источник «липкости» продукта. Потеря памяти ощущается сильнее, чем смена самой модели.
Когда вам нужен открытый шлейф
Открытый шлейф и открытая память особенно важны, если:
- вы строите продукт, где персонализация и история критичны: ассистенты для почты, продаж, поддержки, аналитики;
- вы хотите иметь возможность тестировать разные модели (Claude, GPT‑семейство, локальные LLM) без потери накопленной памяти;
- вы работаете в корпоративной среде, где требования к владению данными и аудитам жёсткие;
- вы не хотите, чтобы ключевой актив — поведенческий датасет пользователей — жил только у внешнего провайдера.
Когда можно жить с закрытым шлейфом или stateful‑API:
- вы делаете прототип или MVP для внутреннего использования и готовы мириться с привязкой;
- у вас одноразовые сценарии без долгосрочной памяти: генерация текста, разовые код‑ревью, быстрые Q&A;
- вы осознанно выбираете удобство и скорость интеграции вместо контроля над данными.
Важно: если продукт или API недоступны из России или требуют VPN, об этом нужно говорить пользователям прямо. В исходном материале нет информации о геоблокировках Deep Agents или LangSmith, поэтому перед внедрением придётся самостоятельно проверить доступность из вашей инфраструктуры.
Место на рынке
Почему шлейфы никуда не исчезнут
Есть популярная идея: «через пару лет модели станут настолько умными, что им не нужен будет сложный шлейф». Практика показывает другое:
- Да, часть обвязки из 2023 года уже не нужна — модели стали лучше в планировании и разборе инструкций.
- Но вместо старой обвязки появилась новая: управление инструментами, сложная память, сложные пайплайны.
- Утечка исходников Claude Code с 512 000 строк кода показывает: даже у создателей одних из самых сильных моделей шлейф — это огромный и критичный кусок системы.
Когда OpenAI или Anthropic добавляют веб‑поиск, это не «магическая новая способность модели». Это аккуратный шлейф, который сидит за API и оркестрирует вызовы модели и внешних сервисов.
Как провайдеры усиливают lock‑in через память
Модели вроде GPT‑4o или Claude 3.7 можно относительно безболезненно менять: API похожи, промпты можно адаптировать. Это возможно, пока взаимодействие статично.
Как только появляется состояние и память:
- вы накапливаете проприетарный датасет взаимодействий и предпочтений;
- этот слой становится главным источником ценности и дифференциации;
- потеря этого слоя при миграции делает продукт ощутимо хуже.
Провайдеры это понимают и уже двигаются в сторону более «закрытой» памяти:
- Anthropic запустила Claude Managed Agents — весь шлейф и память живут за их API, полностью завязывая вас на их платформу.
- OpenAI в Codex использует зашифрованное резюме компакции, которое нельзя использовать вне экосистемы OpenAI.
Причина проста: сама по себе модель не даёт такой силы удержания, как память. Память превращает вашу историю работы с пользователями в актив, который сложно унести к другому поставщику.
Где тут Deep Agents
Deep Agents от LangChain предлагают альтернативу этому сценарию:
- Open source: вы можете читать код шлейфа, форкать, дорабатывать под свои процессы.
- Модельная независимость: шлейф не привязан к одной модели, вы можете подставлять те, что лучше подходят под ваш кейс.
- Открытые стандарты: используются форматы
agents.mdиskills, которые можно переносить между проектами. - Гибкое хранение памяти: есть плагины к MongoDB, Postgres, Redis и другим базам. Вы выбираете, где и как хранить память.
- Развёртывание: через LangSmith Deployment, на любом облаке, с вашей базой данных как хранилищем памяти, за любым стандартным веб‑фреймворком.
Это не «ещё один ассистент», а попытка зафиксировать: память и шлейф должны принадлежать разработчику продукта, а не провайдеру модели.
Как это использовать на практике
Если вы:
- собираете корпоративного ассистента (почта, документы, код, аналитика);
- строите B2C‑продукт с сильной персонализацией;
- хотите тестировать разные модели без потери накопленной истории;
— имеет смысл сразу проектировать архитектуру так, чтобы:
- Шлейф был под вашим контролем (open source или собственный код).
- Память хранилась в вашей БД (Mongo, Postgres, Redis и т.п.), а не в чёрном ящике API.
- Модель была сменным компонентом, а не местом, где живёт память.
Deep Agents как раз закрывает эти три пункта: даёт готовый открытый шлейф, плагины к БД и независимость от конкретной модели.
Если же вы делаете быстрый эксперимент и не планируете долгую жизнь продукта, можно начать с Managed Agents или stateful‑API. Но важно отдавать себе отчёт: как только вы начнёте накапливать ценную память, выйти из этой экосистемы станет намного сложнее.