Дата публикации
ai_products

LangChain и MongoDB собрали полный стек для AI-агентов прямо в базе данных

Что появилось / что изменилось

LangChain и MongoDB официально скрестили свои продукты и собрали общий стек для AI-агентов поверх MongoDB Atlas и MongoDB Enterprise Advanced. Ключевая идея простая: не поднимать отдельные векторные базы, стораджи состояний и аналитические сервисы, а запускать агентов на той же MongoDB, где уже лежат продовые данные.

Что конкретно добавили:

  • Atlas Vector Search как ретривер в LangChain. Встроенная интеграция в Python и JavaScript SDK: можно сразу использовать Atlas как источник векторного поиска в RAG-пайплайнах.
  • Гибкий поиск из одной базы: семантический поиск, гибридный вариант BM25 + вектор, GraphRAG и запросы с предфильтрацией — всё на одном Atlas-кластере.
  • Векторные данные рядом с операционными: не нужны джобы синхронизации, нет лагов между системами, единые права доступа.
  • Checkpointer на MongoDB в LangSmith / LangGraph. Состояние агента сохраняется прямо в MongoDB: многоходовая память, возобновление после падений, audit trail, можно «отмотать время» и перепройти любой шаг.
  • Text-to-MQL: конвертация запросов на естественном языке в MongoDB Query Language. Агент сам строит MQL-пайплайны агрегации по боевым и аналитическим данным.
  • Полная трассировка в LangSmith: виден каждый шаг агента — обращения к MongoDB, вызов инструментов, решения роутера, записи чекпойнтера.
  • Единый стек без привязки к провайдеру LLM: работает с любыми моделями и на любом облаке — AWS, Azure, GCP. Поддерживаются Atlas и self-managed MongoDB Enterprise Advanced.
  • Масштаб в проде: по данным MongoDB, более 65 000 клиентов уже запускают критичные для бизнеса приложения на Atlas, теперь к этому стеку можно подвесить агентов.

Как это работает

Векторный поиск и RAG в Atlas

Atlas Vector Search интегрировали в LangChain как обычный ретривер. Разработчик подключает существующий Atlas-кластер, загружает эмбеддинги в коллекцию и получает:

  • семантический поиск по документам;
  • гибридный поиск: BM25 + векторный скоринг;
  • GraphRAG-сценарии, где графовая структура и векторный поиск живут в одной MongoDB;
  • поиск с предфильтрацией по полям документа (например, по клиенту или региону).

Всё это работает внутри одного деплоймента Atlas, без отдельной векторной БД.

Постоянная память агентов через MongoDB Checkpointer

LangSmith и LangGraph научились сохранять состояние агента прямо в MongoDB. Checkpointer хранит:

  • историю диалога для многоходовых сессий;
  • шаги сложных workflow для аудита;
  • промежуточные состояния для «time-travel debugging» — можно воспроизвести любой прошлый шаг.

Чтобы задействовать MongoDB как бекенд состояния в LangSmith Deployments, достаточно задать LS_DEFAULT_CHECKPOINTER_BACKEND и указать Atlas-кластер. Та же схема работает и для self-hosted-развёртываний LangGraph.

Text-to-MQL: естественный язык → запрос к данным

Интеграция Text-to-MQL позволяет агенту принимать вопрос на естественном языке и превращать его в MongoDB Query Language. Пример задачи: «покажи все заказы за последние 30 дней с задержкой доставки». Агент строит правильный MQL-агрегационный пайплайн и выполняет его по операционным данным, без ручной разработки API под каждый тип запроса.

Разработчик при этом получает полную видимость: можно увидеть, какой MQL сгенерировала модель, как она планировала запрос и какими инструментами пользовалась.

Наблюдаемость через LangSmith

LangSmith снимает трассы всех запусков агента:

  • вызовы MongoDB (векторный поиск, обычные запросы, запись состояния);
  • использование инструментов и внешних API;
  • решения роутера и переходы по графу состояний;
  • записи и чтения чекпойнтера.

Если агент даёт странный ответ, можно разобрать: он не достал нужные документы, неправильно «подумал» над данными или сломался на управлении состоянием. Поверх этого LangSmith позволяет запускать оценку качества через LLM-as-judge, ручные ревью и попарное сравнение версий агента.

Что это значит для вас

Когда это полезно

  • У вас уже есть MongoDB Atlas или Enterprise Advanced. Теперь не нужно строить отдельную AI-инфраструктуру: векторный поиск, память агентов и аналитические запросы работают в той же базе.
  • Вы делаете RAG поверх корпоративных данных. Atlas Vector Search как ретривер в LangChain — понятный способ быстро собрать прототип, а потом довести его до продакшена без миграций.
  • Нужны агенты с долгой памятью и восстановлением после сбоев. Клиентский саппорт, инцидент-менеджмент, сложные ассистенты для сотрудников — везде, где нельзя терять контекст и историю действий.
  • Хотите дать бизнес-пользователям диалоговый доступ к данным. Text-to-MQL позволяет BI- и аналитическим агентам ходить в реальные коллекции MongoDB, не заставляя команду бэкэнда клепать кастомные endpoints.
  • Нужна репродуцируемость и контроль. LangSmith с чекпойнтером помогает разобраться, почему агент принял то или иное решение, и улучшать его по метрикам.

Когда лучше поискать другое решение

  • У вас нет MongoDB и нет планов её использовать. Интеграция завязана на Atlas и Enterprise Advanced; если всё уже построено на другой базе, придётся тянуть ещё один серьёзный компонент.
  • Нужен только простейший чат-бот без доступа к данным. Для FAQ-бота на одной LLM весь этот стек из LangSmith, LangGraph и MongoDB — лишний.
  • Вы жёстко ограничены в инфраструктуре. Придётся поднимать Atlas или управляемую MongoDB Enterprise Advanced, настраивать доступы, мониторинг и безопасность.

Продукты MongoDB Atlas, LangChain, LangSmith и LangGraph доступны из России с оговорками: могут потребоваться VPN и аккаунты в зарубежных облаках, а также юридическая проверка условий использования.

Место на рынке

Сейчас многие AI-стеки строят вокруг отдельной векторной БД плюс классический SQL/NoSQL для остального. Подход LangChain + MongoDB другой: всё — и векторный поиск, и состояние агентов, и операционные данные — лежит в одном MongoDB-кластере.

На уровне архитектуры это конкурирует не с одной конкретной системой, а сразу с набором: специализированные vector store, state store, observability-платформы и кастомные text-to-SQL/Text-to-API прослойки. Здесь же связку «ретривер + память + наблюдаемость + доступ к данным» собирают из MongoDB Atlas, LangChain, LangGraph и LangSmith.

Жёстких цифр по скорости или стоимости по сравнению с другими решениями LangChain и MongoDB не приводят. Ставка делается на то, что уже более 65 000 клиентов доверяют Atlas миссион-критичные нагрузки и могут подвесить к существующей инфраструктуре AI-агентов без отдельного зоопарка баз и сервисов.

Для команд, которые уже живут в экосистеме MongoDB и LangChain, новый стек выглядит логичным апгрейдом: он убирает лишние компоненты между LLM и продовыми данными и делает агентов частью обычного приложения, а не отдельным экспериментом сбоку.


Читайте также

LangChain и MongoDB собрали полный стек для AI-агентов прямо в базе данных — VogueTech | VogueTech