Дата публикации
ai_products

Зачем вам свой AI‑«шлейф»: как не отдать память агента в чужие руки

Что нового

LangChain продвигает идею: главное в AI‑агентах сейчас — не только модель вроде Claude 3.7 или GPT‑4o, а так называемый agent harness (по‑русски логично называть это «шлейф» или «обвязка агента»). Именно он управляет тем, как агент:

  • вызывает инструменты и API;
  • работает с контекстом и памятью (и краткосрочной, и долгосрочной);
  • хранит состояние между сессиями.

Ключевые тезисы:

  • Агентские шлейфы уже стали стандартным способом собирать сложных ассистентов и никуда не исчезают.
  • Память агента тесно связана со шлейфом. Если вы используете закрытый шлейф за проприетарным API, вы фактически отдаёте память своего продукта внешнему провайдеру.
  • Крупные игроки (OpenAI, Anthropic и другие) уже двигаются к тому, чтобы прятать всё больше логики памяти за своими API — это усиливает привязку к их платформам.
  • LangChain отвечает на это релизом Deep Agents — открытого шлейфа для агентов, который:
    • распространяется как open source;
    • не привязан к конкретной модели;
    • использует открытые форматы вроде agents.md и skills;
    • умеет работать с MongoDB, Postgres, Redis и другими хранилищами для памяти;
    • разворачивается через LangSmith Deployment, может работать на любом облаке и с любой вашей БД.

Цифры из практики:

  • Утечка исходников Claude Code показала масштаб: около 512 000 строк кода — это и есть шлейф вокруг модели, а не сама модель.
  • Codex (open source‑агент от OpenAI) генерирует зашифрованное резюме компакции контекста, которое нельзя использовать вне экосистемы OpenAI.

Как это работает

Что такое agent harness

Агентский шлейф — это слой вокруг большой языковой модели (LLM), который:

  • принимает запрос пользователя;
  • решает, какие инструменты и API вызвать (поиск, код, базы данных, файловая система);
  • управляет контекстом: какие сообщения, файлы, результаты запросов отдать модели сейчас;
  • сохраняет и читает память между сессиями.

По определению, агент — это LLM, которая взаимодействует с внешними инструментами и источниками данных. Чтобы это работало, всегда нужен код вокруг модели. Примеры таких шлейфов:

  • Claude Code;
  • Deep Agents;
  • Pi (на нём работает OpenClaw);
  • OpenCode;
  • Codex;
  • Letta Code и другие.

Когда вы видите «встроенный веб‑поиск» в API OpenAI или Anthropic, это не «часть модели». Это тонкий шлейф позади API, который вызывает модель и API поиска через tool calling, а затем склеивает ответы.

Почему память — это не плагин, а часть шлейфа

Исследовательница Sarah Wooders сформулировала идею: память агента — это не отдельный сервис, который можно «подключить», а ядро шлейфа. Шлейф отвечает за управление контекстом, а память — это просто разные формы контекста.

Что именно делает шлейф с памятью:

  • Краткосрочная память:

    • ведёт историю диалога;
    • хранит большие результаты вызовов инструментов (например, длинный SQL‑ответ или файл);
    • решает, что из этого попадёт в следующий запрос к модели.
  • Долгосрочная память (между сессиями):

    • записывает важные факты о пользователе и проекте;
    • решает, когда и как подгружать это в контекст;
    • управляет метаданными памяти (теги, типы, источники).

Типичные вопросы, которые полностью зависят от шлейфа:

  • Как подгружается AGENTS.md или CLAUDE.md в контекст модели?
  • Как агент видит метаданные о навыках: в системном промпте, отдельными системными сообщениями, ещё как‑то?
  • Может ли агент менять свои собственные системные инструкции?
  • Что сохраняется при компакции контекста, а что безвозвратно теряется?
  • Сохраняются ли взаимодействия так, чтобы по ним можно было делать поиск?
  • Как шлейф показывает агенту метаданные памяти?
  • Как представлена текущая рабочая директория и сколько информации о файловой системе видит агент?

Пока индустрия только ищет лучшие практики работы с памятью. Часто долгосрочная память даже не попадает в первую версию продукта: сначала делают работающего агента, потом добавляют персонализацию. Из‑за этого нет общепринятых стандартов, и память фактически «врастает» в конкретный шлейф.

Что это значит для вас

Если вы строите продукт на закрытых шлейфах и API

Вы рискуете не владеть памятью своего продукта.

Варианты проблем:

  1. Мягкий сценарий: вы используете stateful‑API вроде OpenAI Responses API или серверной компакции от Anthropic.

    • Состояние диалога живёт на серверах провайдера.
    • Если вы захотите сменить модель или платформу и при этом продолжить старые диалоги, сделать это будет сложно или невозможно.
  2. Хуже: вы используете закрытый шлейф, например Claude Agent SDK, который внутри опирается на Claude Code.

    • Исходники Claude Code не открыты.
    • Вы не знаете, как он хранит и структурирует память.
    • Даже если часть артефактов лежит у вас на клиенте, их форма не задокументирована и не переносится в другой шлейф.
  3. Самый жёсткий сценарий: весь шлейф и долгая память спрятаны за API.

    • У вас нет доступа к механике работы с памятью.
    • Вы не контролируете, какие части памяти можно извлечь, а какие нет.
    • При миграции вы теряете историю и накопленный поведенческий слой.

Если вы строите ассистента для почты, CRM или внутренних процессов, это прямое бизнес‑ограничение: смена поставщика превращается в потерю обученного на пользователях слоя интеллекта.

Автор приводит личный пример: внутренний email‑ассистент на базе Fleet (no‑code‑платформа для Enterprise‑агентов OpenClaw) с поддержкой памяти. За несколько месяцев агент «узнал» стиль переписки и предпочтения. Когда агента случайно удалили, восстановление по тому же шаблону дало гораздо более слабый опыт — всё пришлось обучать заново.

Вывод: память — это главный источник «липкости» продукта. Потеря памяти ощущается сильнее, чем смена самой модели.

Когда вам нужен открытый шлейф

Открытый шлейф и открытая память особенно важны, если:

  • вы строите продукт, где персонализация и история критичны: ассистенты для почты, продаж, поддержки, аналитики;
  • вы хотите иметь возможность тестировать разные модели (Claude, GPT‑семейство, локальные LLM) без потери накопленной памяти;
  • вы работаете в корпоративной среде, где требования к владению данными и аудитам жёсткие;
  • вы не хотите, чтобы ключевой актив — поведенческий датасет пользователей — жил только у внешнего провайдера.

Когда можно жить с закрытым шлейфом или stateful‑API:

  • вы делаете прототип или MVP для внутреннего использования и готовы мириться с привязкой;
  • у вас одноразовые сценарии без долгосрочной памяти: генерация текста, разовые код‑ревью, быстрые Q&A;
  • вы осознанно выбираете удобство и скорость интеграции вместо контроля над данными.

Важно: если продукт или API недоступны из России или требуют VPN, об этом нужно говорить пользователям прямо. В исходном материале нет информации о геоблокировках Deep Agents или LangSmith, поэтому перед внедрением придётся самостоятельно проверить доступность из вашей инфраструктуры.

Место на рынке

Почему шлейфы никуда не исчезнут

Есть популярная идея: «через пару лет модели станут настолько умными, что им не нужен будет сложный шлейф». Практика показывает другое:

  • Да, часть обвязки из 2023 года уже не нужна — модели стали лучше в планировании и разборе инструкций.
  • Но вместо старой обвязки появилась новая: управление инструментами, сложная память, сложные пайплайны.
  • Утечка исходников Claude Code с 512 000 строк кода показывает: даже у создателей одних из самых сильных моделей шлейф — это огромный и критичный кусок системы.

Когда OpenAI или Anthropic добавляют веб‑поиск, это не «магическая новая способность модели». Это аккуратный шлейф, который сидит за API и оркестрирует вызовы модели и внешних сервисов.

Как провайдеры усиливают lock‑in через память

Модели вроде GPT‑4o или Claude 3.7 можно относительно безболезненно менять: API похожи, промпты можно адаптировать. Это возможно, пока взаимодействие статично.

Как только появляется состояние и память:

  • вы накапливаете проприетарный датасет взаимодействий и предпочтений;
  • этот слой становится главным источником ценности и дифференциации;
  • потеря этого слоя при миграции делает продукт ощутимо хуже.

Провайдеры это понимают и уже двигаются в сторону более «закрытой» памяти:

  • Anthropic запустила Claude Managed Agents — весь шлейф и память живут за их API, полностью завязывая вас на их платформу.
  • OpenAI в Codex использует зашифрованное резюме компакции, которое нельзя использовать вне экосистемы OpenAI.

Причина проста: сама по себе модель не даёт такой силы удержания, как память. Память превращает вашу историю работы с пользователями в актив, который сложно унести к другому поставщику.

Где тут Deep Agents

Deep Agents от LangChain предлагают альтернативу этому сценарию:

  • Open source: вы можете читать код шлейфа, форкать, дорабатывать под свои процессы.
  • Модельная независимость: шлейф не привязан к одной модели, вы можете подставлять те, что лучше подходят под ваш кейс.
  • Открытые стандарты: используются форматы agents.md и skills, которые можно переносить между проектами.
  • Гибкое хранение памяти: есть плагины к MongoDB, Postgres, Redis и другим базам. Вы выбираете, где и как хранить память.
  • Развёртывание: через LangSmith Deployment, на любом облаке, с вашей базой данных как хранилищем памяти, за любым стандартным веб‑фреймворком.

Это не «ещё один ассистент», а попытка зафиксировать: память и шлейф должны принадлежать разработчику продукта, а не провайдеру модели.

Как это использовать на практике

Если вы:

  • собираете корпоративного ассистента (почта, документы, код, аналитика);
  • строите B2C‑продукт с сильной персонализацией;
  • хотите тестировать разные модели без потери накопленной истории;

— имеет смысл сразу проектировать архитектуру так, чтобы:

  1. Шлейф был под вашим контролем (open source или собственный код).
  2. Память хранилась в вашей БД (Mongo, Postgres, Redis и т.п.), а не в чёрном ящике API.
  3. Модель была сменным компонентом, а не местом, где живёт память.

Deep Agents как раз закрывает эти три пункта: даёт готовый открытый шлейф, плагины к БД и независимость от конкретной модели.

Если же вы делаете быстрый эксперимент и не планируете долгую жизнь продукта, можно начать с Managed Agents или stateful‑API. Но важно отдавать себе отчёт: как только вы начнёте накапливать ценную память, выйти из этой экосистемы станет намного сложнее.


Читайте также