Дата публикации
ai_products

Memento: локальная долговременная память для ИИ-помощников в репозитории

Что появилось / что изменилось

Разработчик представил Memento — локальный MCP-сервер, который даёт ИИ-агентам долговременную память о вашем репозитории. Идея простая: вместо того чтобы каждый раз заливать в промпт пол-репозитория, ассистент обращается к отдельному «слою памяти» через протокол Model Context Protocol (MCP).

Memento:

  • хранит структурированное знание о кодовой базе, а не просто сырые файлы;
  • работает локально, все данные остаются на вашей машине;
  • сохраняет контекст между сессиями, ИИ не начинает каждый диалог с нуля;
  • сейчас написан в основном на Go и находится в экспериментальном состоянии.

Цифр по скорости, объёму поддерживаемого кода или бенчмаркам автор не приводит. Акцент именно на том, что память репозитория становится «долговременной» относительно обычной контекстной истории модели.

Как это работает

Memento разворачивается как локальный MCP-сервер. MCP (Model Context Protocol) — открытый стандарт, который позволяет ИИ-приложениям подключаться к внешним инструментам и источникам данных через единый протокол: https://modelcontextprotocol.io

Под капотом Memento делает несколько вещей:

  • Индексирует структуру репозитория: файлы, директории, связи между модулями.
  • Строит семантические связи между модулями, чтобы ИИ мог понимать, какие части проекта логически связаны.
  • Хранит:
    • архитектурные сводки;
    • устойчивые дизайн-решения;
    • контекстные заметки по коду;
    • историю предыдущих исследований кода.

ИИ-агент вместо гигантского промпта отправляет MCP-запрос к Memento и получает только нужные фрагменты контекста. Это экономит контекстное окно модели и уменьшает количество повторяющихся объяснений.

Автор подчёркивает несколько принципов:

  • Local-first — всё крутится на вашем компьютере, без отправки кода наружу.
  • Гибрид детерминированной логики и LLM — там, где можно, используются предсказуемые, обратимые операции, а не сплошное «магическое» поведение модели.
  • Высокосигнальная память — сохраняется не всё подряд, а то, что реально помогает рассуждать об архитектуре и эволюции проекта.
  • Долговечность — память живёт между сессиями, ассистент помнит прошлые решения.

Что это значит для вас

Если вы активно пользуетесь локальными LLM для разработки и регулярно упираетесь в ограничение контекстного окна, Memento решает типичный набор болей:

  • ИИ забывает архитектурные решения спустя несколько промптов.
  • Приходится по кругу объяснять, как устроены модули и слои.
  • Ассистент теряет нить предыдущих экспериментов с кодом.

С Memento становится проще:

  • Навигировать большие репозитории. ИИ не «теряется» в дереве файлов и может быстро вытянуть нужные части.
  • Думать о нескольких файлах сразу. Многомодульные задачи и кросс-файловые рефакторинги перестают разбиваться о контекстное окно.
  • Работать с архитектурой. Ассистент опирается на сохранённые сводки и дизайн-решения, а не на разовый промпт.
  • Избегать повторов. Один раз объяснили, почему выбрали определённый паттерн или библиотеку, — дальше это живёт в памяти сервера.

Где Memento особенно полезен:

  • долгие проекты с одной и той же кодовой базой;
  • монорепозитории и сложные многомодульные системы;
  • локальные dev-среды, где вы не хотите выгружать код в облако.

Где он может не зайти:

  • быстрые одноразовые скрипты и маленькие проекты — проще обойтись обычным контекстом модели;
  • команды, которые жёстко завязаны на облачных IDE и SaaS-ассистентах без поддержки MCP.

Инструмент локальный, VPN не нужен, проблем с доступом из России быть не должно. Но проект экспериментальный: стоит закладываться на возможные баги и необходимость руками разбираться с интеграцией через MCP.

Место на рынке

Memento попадает в зону, где уже есть несколько подходов к «памяти» для ИИ-разработки:

  • встроенные истории чатов в ассистентах вроде GitHub Copilot;
  • RAG-решения, которые индексируют репозитории и отдают фрагменты кода по запросу;
  • локальные индексаторы кода, которые не интегрированы с MCP.

От классического RAG Memento отличается тем, что делает ставку не на сырую полнотекстовую выдачу, а на структурированное, «высокосигнальное» знание: архитектура, связи модулей, дизайн-решения. Плюс чёткий упор на локальный сценарий и открытый протокол MCP.

Автор честно говорит: проект экспериментальный, «N=1» опыт, но в его рабочих сценариях Memento уже ведёт себя стабильно. Код открыт, лицензия MIT, он прямо приглашает к issues и pull request’ам. Это вариант для тех, кто не боится поэкспериментировать с локальным AI-dev-стеком и готов руками доводить интеграцию MCP, которая, по словам автора, сейчас «боль».


Читайте также

Memento: локальная долговременная память для ИИ-помощников в репозитории — VogueTech | VogueTech