- Дата публикации
LangChain и MongoDB собрали полный стек для AI-агентов прямо в базе данных
Что появилось / что изменилось
LangChain и MongoDB официально скрестили свои продукты и собрали общий стек для AI-агентов поверх MongoDB Atlas и MongoDB Enterprise Advanced. Ключевая идея простая: не поднимать отдельные векторные базы, стораджи состояний и аналитические сервисы, а запускать агентов на той же MongoDB, где уже лежат продовые данные.
Что конкретно добавили:
- Atlas Vector Search как ретривер в LangChain. Встроенная интеграция в Python и JavaScript SDK: можно сразу использовать Atlas как источник векторного поиска в RAG-пайплайнах.
- Гибкий поиск из одной базы: семантический поиск, гибридный вариант BM25 + вектор, GraphRAG и запросы с предфильтрацией — всё на одном Atlas-кластере.
- Векторные данные рядом с операционными: не нужны джобы синхронизации, нет лагов между системами, единые права доступа.
- Checkpointer на MongoDB в LangSmith / LangGraph. Состояние агента сохраняется прямо в MongoDB: многоходовая память, возобновление после падений, audit trail, можно «отмотать время» и перепройти любой шаг.
- Text-to-MQL: конвертация запросов на естественном языке в MongoDB Query Language. Агент сам строит MQL-пайплайны агрегации по боевым и аналитическим данным.
- Полная трассировка в LangSmith: виден каждый шаг агента — обращения к MongoDB, вызов инструментов, решения роутера, записи чекпойнтера.
- Единый стек без привязки к провайдеру LLM: работает с любыми моделями и на любом облаке — AWS, Azure, GCP. Поддерживаются Atlas и self-managed MongoDB Enterprise Advanced.
- Масштаб в проде: по данным MongoDB, более 65 000 клиентов уже запускают критичные для бизнеса приложения на Atlas, теперь к этому стеку можно подвесить агентов.
Как это работает
Векторный поиск и RAG в Atlas
Atlas Vector Search интегрировали в LangChain как обычный ретривер. Разработчик подключает существующий Atlas-кластер, загружает эмбеддинги в коллекцию и получает:
- семантический поиск по документам;
- гибридный поиск: BM25 + векторный скоринг;
- GraphRAG-сценарии, где графовая структура и векторный поиск живут в одной MongoDB;
- поиск с предфильтрацией по полям документа (например, по клиенту или региону).
Всё это работает внутри одного деплоймента Atlas, без отдельной векторной БД.
Постоянная память агентов через MongoDB Checkpointer
LangSmith и LangGraph научились сохранять состояние агента прямо в MongoDB. Checkpointer хранит:
- историю диалога для многоходовых сессий;
- шаги сложных workflow для аудита;
- промежуточные состояния для «time-travel debugging» — можно воспроизвести любой прошлый шаг.
Чтобы задействовать MongoDB как бекенд состояния в LangSmith Deployments, достаточно задать LS_DEFAULT_CHECKPOINTER_BACKEND и указать Atlas-кластер. Та же схема работает и для self-hosted-развёртываний LangGraph.
Text-to-MQL: естественный язык → запрос к данным
Интеграция Text-to-MQL позволяет агенту принимать вопрос на естественном языке и превращать его в MongoDB Query Language. Пример задачи: «покажи все заказы за последние 30 дней с задержкой доставки». Агент строит правильный MQL-агрегационный пайплайн и выполняет его по операционным данным, без ручной разработки API под каждый тип запроса.
Разработчик при этом получает полную видимость: можно увидеть, какой MQL сгенерировала модель, как она планировала запрос и какими инструментами пользовалась.
Наблюдаемость через LangSmith
LangSmith снимает трассы всех запусков агента:
- вызовы MongoDB (векторный поиск, обычные запросы, запись состояния);
- использование инструментов и внешних API;
- решения роутера и переходы по графу состояний;
- записи и чтения чекпойнтера.
Если агент даёт странный ответ, можно разобрать: он не достал нужные документы, неправильно «подумал» над данными или сломался на управлении состоянием. Поверх этого LangSmith позволяет запускать оценку качества через LLM-as-judge, ручные ревью и попарное сравнение версий агента.
Что это значит для вас
Когда это полезно
- У вас уже есть MongoDB Atlas или Enterprise Advanced. Теперь не нужно строить отдельную AI-инфраструктуру: векторный поиск, память агентов и аналитические запросы работают в той же базе.
- Вы делаете RAG поверх корпоративных данных. Atlas Vector Search как ретривер в LangChain — понятный способ быстро собрать прототип, а потом довести его до продакшена без миграций.
- Нужны агенты с долгой памятью и восстановлением после сбоев. Клиентский саппорт, инцидент-менеджмент, сложные ассистенты для сотрудников — везде, где нельзя терять контекст и историю действий.
- Хотите дать бизнес-пользователям диалоговый доступ к данным. Text-to-MQL позволяет BI- и аналитическим агентам ходить в реальные коллекции MongoDB, не заставляя команду бэкэнда клепать кастомные endpoints.
- Нужна репродуцируемость и контроль. LangSmith с чекпойнтером помогает разобраться, почему агент принял то или иное решение, и улучшать его по метрикам.
Когда лучше поискать другое решение
- У вас нет MongoDB и нет планов её использовать. Интеграция завязана на Atlas и Enterprise Advanced; если всё уже построено на другой базе, придётся тянуть ещё один серьёзный компонент.
- Нужен только простейший чат-бот без доступа к данным. Для FAQ-бота на одной LLM весь этот стек из LangSmith, LangGraph и MongoDB — лишний.
- Вы жёстко ограничены в инфраструктуре. Придётся поднимать Atlas или управляемую MongoDB Enterprise Advanced, настраивать доступы, мониторинг и безопасность.
Продукты MongoDB Atlas, LangChain, LangSmith и LangGraph доступны из России с оговорками: могут потребоваться VPN и аккаунты в зарубежных облаках, а также юридическая проверка условий использования.
Место на рынке
Сейчас многие AI-стеки строят вокруг отдельной векторной БД плюс классический SQL/NoSQL для остального. Подход LangChain + MongoDB другой: всё — и векторный поиск, и состояние агентов, и операционные данные — лежит в одном MongoDB-кластере.
На уровне архитектуры это конкурирует не с одной конкретной системой, а сразу с набором: специализированные vector store, state store, observability-платформы и кастомные text-to-SQL/Text-to-API прослойки. Здесь же связку «ретривер + память + наблюдаемость + доступ к данным» собирают из MongoDB Atlas, LangChain, LangGraph и LangSmith.
Жёстких цифр по скорости или стоимости по сравнению с другими решениями LangChain и MongoDB не приводят. Ставка делается на то, что уже более 65 000 клиентов доверяют Atlas миссион-критичные нагрузки и могут подвесить к существующей инфраструктуре AI-агентов без отдельного зоопарка баз и сервисов.
Для команд, которые уже живут в экосистеме MongoDB и LangChain, новый стек выглядит логичным апгрейдом: он убирает лишние компоненты между LLM и продовыми данными и делает агентов частью обычного приложения, а не отдельным экспериментом сбоку.