Дата публикации
ai_products

Mistral Medium 3.5: облачные код-агенты и Work mode вместо бесконечного терминала

Что нового

Mistral представила крупное обновление сразу по трём направлениям:

  1. Новая модель Mistral Medium 3.5
  • Плотная модель на 128B параметров.
  • Единый стек для инструкций, рассуждений и кода — одна модель вместо отдельных «болталки» и «кодера».
  • Контекст 256k токенов — длинные задачи, большие файлы и цепочки запросов.
  • Открытые веса на Hugging Face под модифицированной лицензией MIT.
  • Можно самостоятельно развернуть на кластере от четырёх GPU.
  • Конфигурируемое «усилие рассуждения» на каждый запрос: короткий ответ или длинный агентный прогон — на одном и том же ядре.
  • Отдельно обученный vision-энкодер, который понимает изображения разных размеров и пропорций.
  • Результат на SWE-Bench Verified — 77,6%, лучше Devstral 2 и Qwen3.5 397B A17B.
  • На агентных задачах τ³-Telecom — 91,4.
  1. Облачные код-агенты Mistral Vibe
  • Код-агенты теперь работают в облаке, а не только локально.
  • Можно запускать несколько сессий параллельно.
  • Сессия из локального Vibe CLI «телепортируется» в облако: история, состояние задач и approvals сохраняются.
  • Агент работает в изолированном песочнице-окружении: может ставить пакеты, править файлы и не трогает вашу систему напрямую.
  • Интеграции: GitHub (код и pull requests), Linear, Jira (задачи), Sentry (инциденты), Slack и Teams (отчёты).
  • По завершении работы агент может открыть pull request в GitHub и прислать уведомление.
  1. Work mode в Le Chat (Preview)
  • Новый режим ассистента, который выступает как долгоживущий агент.
  • Работает на Mistral Medium 3.5 и новом агентном «каркасе».
  • Умеет одновременно вызывать несколько инструментов и выполнять многошаговые задачи.
  • Поддерживает кросс-инструментальные сценарии: почта, мессенджеры, календарь, внутренние документы, таск-трекеры.
  • Сессии живут дольше обычного ответа в чате и могут идти через пробу и ошибки до завершения задачи.
  • Коннекторы включены по умолчанию, а не выбираются вручную.
  • Каждый шаг прозрачен: показываются вызовы инструментов и ход рассуждений.
  • Перед чувствительными действиями (отправка писем, изменение данных) Le Chat просит явное подтверждение, с учётом ваших прав.
  1. Доступность и цена
  • Mistral Medium 3.5 уже работает в Mistral Vibe и Le Chat.
  • Облачные код-агенты и Work mode доступны в тарифах Pro, Team, Enterprise.
  • Через API: $1,5 за 1M входных токенов и $7,5 за 1M выходных токенов.
  • Открытые веса — на Hugging Face.
  • Доступен на build.nvidia.com на GPU-ускоренных эндпоинтах и как контейнеризированный микросервис NVIDIA NIM.

Как это работает

Mistral Medium 3.5 под капотом

Mistral Medium 3.5 — это одна плотная 128B модель с общими весами для трёх классов задач:

  • диалог и следование инструкциям;
  • рассуждения и агентные цепочки;
  • генерация и редактирование кода.

Контекст в 256k токенов позволяет:

  • скармливать большие кодовые базы и документацию;
  • вести длинные агентные сессии без обрезки истории;
  • собирать много источников (почта, календарь, документация) в один запрос.

Переключаемое «усилие рассуждения» задаётся на уровне запроса. Вы можете:

  • для быстрых ответов использовать лёгкий режим без долгих цепочек рассуждений;
  • для сложных задач (исследование, сложный рефакторинг, расследование инцидента) включать более глубокий reasoning, не меняя модель.

Vision-часть Mistral обучила с нуля, чтобы модель уверенно работала с разными разрешениями и соотношениями сторон. Это важно, если вы хотите, например, анализировать скриншоты интерфейсов или схемы.

По SWE-Bench Verified (проверка реальных задач из репозиториев) Mistral Medium 3.5 набирает 77,6%. Это выше, чем у Devstral 2 и Qwen3.5 397B A17B. На агентных сценариях τ³-Telecom модель показывает 91,4 — это отражает способность надёжно выполнять многошаговые цепочки действий.

Облачные агенты Mistral Vibe

Код-агенты Mistral Vibe раньше жили только на вашей машине. Теперь основная логика уехала в облако:

  • Вы запускаете задачу из Vibe CLI или прямо из Le Chat.
  • Для каждой задачи создаётся изолированная песочница, где агент может:
    • устанавливать зависимости,
    • менять файлы,
    • запускать тесты и утилиты.
  • Агент использует Mistral Medium 3.5 как «мозг» и инструменты для работы с кодом, Git, CI и внешними сервисами.
  • В интерфейсе вы видите:
    • диффы файлов,
    • вызовы инструментов,
    • статус прогресса,
    • вопросы к вам, если нужно подтверждение.

Ключевая идея — асинхронная работа:

  • вы описываете задачу (например, «обнови зависимости и почини тесты»);
  • запускаете агент;
  • уходите заниматься своими делами;
  • по завершении агент открывает pull request в GitHub и отправляет вам уведомление.

Если вы начали сессию локально в Vibe CLI, её можно перенести в облако. История диалога, состояние задач и уже выданные approvals сохраняются. Это удобно, когда вы начали дебаг из терминала, но не хотите держать ноутбук включённым.

Интеграции Vibe закрывают типовой стек инженерных команд:

  • GitHub — код, ветки, pull requests;
  • Linear, Jira — постановка и обновление задач;
  • Sentry — инциденты и ошибки в проде;
  • Slack, Microsoft Teams — отчёты и уведомления для команды.

Work mode в Le Chat

Work mode превращает Le Chat из «чат-бота» в исполнительный слой, который может:

  • читать и писать данные в подключённых сервисах;
  • вызывать несколько инструментов параллельно;
  • вести длинные многошаговые проекты до логического завершения.

Сценарий работы:

  1. Вы формулируете задачу: от «разгреби почту и подготовь меня к встрече» до «собери исследование по рынку и сделай отчёт».
  2. Work mode включает коннекторы автоматически: почта, календарь, документы, таск-трекеры.
  3. Агент шаг за шагом:
    • собирает контекст из разных источников;
    • вызывает нужные инструменты;
    • пробует решения, откатывается, уточняет;
    • ведёт сессию дольше одного ответа, пока задача не будет завершена.
  4. Все действия прозрачны: вы видите, какие инструменты вызваны и почему.
  5. Для «опасных» шагов — отправка писем, изменение документов, правка данных — Le Chat спрашивает подтверждение, учитывая ваши разрешения.

По сути, тот же агентный движок, который Mistral использовала для внутренних инструментов и enterprise-клиентов, теперь доступен через веб-интерфейс Le Chat.

Что это значит для вас

Для разработчиков

Где Mistral Medium 3.5 и Vibe особенно полезны:

  • Рутина в коде:
    • массовые рефакторинги модулей;
    • генерация и расширение тестов;
    • обновление зависимостей;
    • расследование падений CI;
    • типовые багфиксы с понятной симптоматикой.
  • Длинные задачи:
    • миграции между библиотеками или фреймворками;
    • постепенное «оздоровление» легаси-кода;
    • подготовка больших PR с однотипными изменениями по всему репозиторию.

Что особенно ценно:

  • Агент работает асинхронно и параллельно: вы можете запустить несколько веток работ и вернуться к ним, когда будет время.
  • Каждая сессия — это песочница: можно позволить агенту смело ставить зависимости и пробовать разные подходы.
  • На выходе вы получаете pull request, а не поток сырого кода в чате.

Где Mistral Medium 3.5 стоит использовать осторожно:

  • Критические участки системы, где важна формальная верификация. Агент поможет с черновиком, но финальное решение всё равно за вами.
  • Сильно доменно-специфичный код, если у вас мало документации и нестандартный стек. Модель справится лучше, если вы подготовите контекст: README, ADR, архитектурные заметки.

Для продакт-менеджеров, аналитиков и руководителей

Work mode в Le Chat полезен, если вы тонете в операционке:

  • Кросс-инструментальные обзоры:
    • собрать за один прогон письма, сообщения и события календаря;
    • подготовить бриф к встрече: список участников, их контекст, последние новости и связанные задачи.
  • Исследования и отчёты:
    • собрать данные из открытых источников, внутренних документов и подключённых систем;
    • получить структурированный отчёт, который вы можете отредактировать перед отправкой.
  • Операционная рутина:
    • triage почты и черновики ответов;
    • создание задач в Jira/Linear по итогам обсуждений;
    • отправка сжатых отчётов в Slack.

Плюсы для вас:

  • Сессия живёт дольше, чем один ответ, и может шаг за шагом доводить задачу до конца.
  • Вы видите каждый шаг и можете остановить или скорректировать его.
  • Перед изменением чего-либо в ваших системах Le Chat обязательно спросит разрешение.

Где не стоит полагаться только на Work mode:

  • Юридически значимые документы, сложные контракты, финансовые отчёты для регуляторов — используйте как помощника, но не как единственный инструмент.
  • Решения с серьёзными рисками — увольнения, изменения в компенсациях, публичные заявления бренда. Тут Work mode может помочь собрать фактуру, но не принимать решение.

Доступность из России

Mistral — европейская компания, сервисы работают через облако. Для доступа к Le Chat, Mistral Vibe и API может понадобиться VPN, в зависимости от вашей сети и ограничений на стороне провайдера. Если вы планируете использовать Mistral Medium 3.5 через открытые веса и NVIDIA NIM в своём инфраструктурном контуре, VPN не нужен — модель работает внутри вашего кластера.

Место на рынке

По исходным данным можно сделать несколько выводов о позиции Mistral Medium 3.5 относительно других крупных моделей:

  • Размер и тип:

    • Mistral Medium 3.5 — плотная 128B модель.
    • В отличие от некоторых конкурентов, которые разделяют модели для чата и кода, Mistral делает ставку на единый стек для инструкций, reasoning и программирования.
  • Производительность на коде:

    • SWE-Bench Verified — 77,6%, что выше Devstral 2 и Qwen3.5 397B A17B.
    • Это серьёзный аргумент, если вы выбираете модель именно под код-агентов и автотесты.
  • Агентные сценарии:

    • τ³-Telecom — 91,4 показывает, что модель уверенно держит длинные цепочки действий и умеет надёжно работать с инструментами.
    • На практике это выражается в том, что Mistral смогла запустить асинхронные облачные код-агенты Vibe и Work mode в Le Chat на одном и том же ядре.
  • Самостоятельное развёртывание:

    • Открытые веса под модифицированной MIT-лицензией и возможность запускать модель на кластере от четырёх GPU — сильный аргумент для команд, которые не хотят полностью зависеть от внешнего API.
    • Дополнительно Mistral Medium 3.5 доступна как NVIDIA NIM и на build.nvidia.com, что упрощает прототипирование и масштабирование.

По стоимости через API модель находится в верхнем сегменте: $1,5 за 1M входных токенов и $7,5 за 1M выходных токенов. Это ориентир на команды, которые готовы платить за качество reasoning и кода и/или хотят иметь возможность развернуть те же веса у себя.

Как запустить

В исходном материале нет конкретных CLI-команд или примеров кода, но по описанию есть два основных пути запуска:

  1. Через Mistral Vibe CLI

    • Устанавливаете Vibe CLI.
    • Авторизуетесь в аккаунте Mistral.
    • Запускаете локальную сессию для работы с кодом.
    • При необходимости «телепортируете» её в облако, чтобы агент продолжил работу без вашего терминала.
  2. Через Le Chat

    • Открываете Le Chat в браузере.
    • Выбираете Mistral Medium 3.5 как дефолтную модель (она уже включена по умолчанию).
    • Для кода: формулируете задачу прямо в чате и запускаете код-сессию, которая работает на том же удалённом рантайме, что и Vibe CLI.
    • Для продуктивности: переключаетесь в Work mode (Preview) и описываете задачу — от разбора почты до подготовки отчёта. Агент сам подключит нужные источники и инструменты.

Если вы планируете использовать открытые веса или NVIDIA NIM, сценарий будет стандартным для LLM в своём кластере:

  • разворачиваете контейнер или endpoint на GPU-инфраструктуре;
  • подключаете его к своим сервисам (IDE, боты, внутренние инструменты);
  • настраиваете токенизацию и лимиты контекста под 256k токенов;
  • поверх строите своих агентов, опираясь на те же паттерны, что использует Mistral в Vibe и Work mode.

Итог

Mistral Medium 3.5 — это не просто ещё одна большая модель, а ядро для агентных систем, которое Mistral уже использует в продакшене: от облачных код-агентов Vibe до Work mode в Le Chat. Если вы ищете мощный движок для кода и многошаговых задач с возможностью как облачного использования, так и собственного развёртывания, этот релиз стоит внимательно изучить.


Читайте также