- Дата публикации
Mistral Medium 3.5: облачные код-агенты и Work mode вместо бесконечного терминала
Что нового
Mistral представила крупное обновление сразу по трём направлениям:
- Новая модель Mistral Medium 3.5
- Плотная модель на 128B параметров.
- Единый стек для инструкций, рассуждений и кода — одна модель вместо отдельных «болталки» и «кодера».
- Контекст 256k токенов — длинные задачи, большие файлы и цепочки запросов.
- Открытые веса на Hugging Face под модифицированной лицензией MIT.
- Можно самостоятельно развернуть на кластере от четырёх GPU.
- Конфигурируемое «усилие рассуждения» на каждый запрос: короткий ответ или длинный агентный прогон — на одном и том же ядре.
- Отдельно обученный vision-энкодер, который понимает изображения разных размеров и пропорций.
- Результат на SWE-Bench Verified — 77,6%, лучше Devstral 2 и Qwen3.5 397B A17B.
- На агентных задачах τ³-Telecom — 91,4.
- Облачные код-агенты Mistral Vibe
- Код-агенты теперь работают в облаке, а не только локально.
- Можно запускать несколько сессий параллельно.
- Сессия из локального Vibe CLI «телепортируется» в облако: история, состояние задач и approvals сохраняются.
- Агент работает в изолированном песочнице-окружении: может ставить пакеты, править файлы и не трогает вашу систему напрямую.
- Интеграции: GitHub (код и pull requests), Linear, Jira (задачи), Sentry (инциденты), Slack и Teams (отчёты).
- По завершении работы агент может открыть pull request в GitHub и прислать уведомление.
- Work mode в Le Chat (Preview)
- Новый режим ассистента, который выступает как долгоживущий агент.
- Работает на Mistral Medium 3.5 и новом агентном «каркасе».
- Умеет одновременно вызывать несколько инструментов и выполнять многошаговые задачи.
- Поддерживает кросс-инструментальные сценарии: почта, мессенджеры, календарь, внутренние документы, таск-трекеры.
- Сессии живут дольше обычного ответа в чате и могут идти через пробу и ошибки до завершения задачи.
- Коннекторы включены по умолчанию, а не выбираются вручную.
- Каждый шаг прозрачен: показываются вызовы инструментов и ход рассуждений.
- Перед чувствительными действиями (отправка писем, изменение данных) Le Chat просит явное подтверждение, с учётом ваших прав.
- Доступность и цена
- Mistral Medium 3.5 уже работает в Mistral Vibe и Le Chat.
- Облачные код-агенты и Work mode доступны в тарифах Pro, Team, Enterprise.
- Через API: $1,5 за 1M входных токенов и $7,5 за 1M выходных токенов.
- Открытые веса — на Hugging Face.
- Доступен на build.nvidia.com на GPU-ускоренных эндпоинтах и как контейнеризированный микросервис NVIDIA NIM.
Как это работает
Mistral Medium 3.5 под капотом
Mistral Medium 3.5 — это одна плотная 128B модель с общими весами для трёх классов задач:
- диалог и следование инструкциям;
- рассуждения и агентные цепочки;
- генерация и редактирование кода.
Контекст в 256k токенов позволяет:
- скармливать большие кодовые базы и документацию;
- вести длинные агентные сессии без обрезки истории;
- собирать много источников (почта, календарь, документация) в один запрос.
Переключаемое «усилие рассуждения» задаётся на уровне запроса. Вы можете:
- для быстрых ответов использовать лёгкий режим без долгих цепочек рассуждений;
- для сложных задач (исследование, сложный рефакторинг, расследование инцидента) включать более глубокий reasoning, не меняя модель.
Vision-часть Mistral обучила с нуля, чтобы модель уверенно работала с разными разрешениями и соотношениями сторон. Это важно, если вы хотите, например, анализировать скриншоты интерфейсов или схемы.
По SWE-Bench Verified (проверка реальных задач из репозиториев) Mistral Medium 3.5 набирает 77,6%. Это выше, чем у Devstral 2 и Qwen3.5 397B A17B. На агентных сценариях τ³-Telecom модель показывает 91,4 — это отражает способность надёжно выполнять многошаговые цепочки действий.
Облачные агенты Mistral Vibe
Код-агенты Mistral Vibe раньше жили только на вашей машине. Теперь основная логика уехала в облако:
- Вы запускаете задачу из Vibe CLI или прямо из Le Chat.
- Для каждой задачи создаётся изолированная песочница, где агент может:
- устанавливать зависимости,
- менять файлы,
- запускать тесты и утилиты.
- Агент использует Mistral Medium 3.5 как «мозг» и инструменты для работы с кодом, Git, CI и внешними сервисами.
- В интерфейсе вы видите:
- диффы файлов,
- вызовы инструментов,
- статус прогресса,
- вопросы к вам, если нужно подтверждение.
Ключевая идея — асинхронная работа:
- вы описываете задачу (например, «обнови зависимости и почини тесты»);
- запускаете агент;
- уходите заниматься своими делами;
- по завершении агент открывает pull request в GitHub и отправляет вам уведомление.
Если вы начали сессию локально в Vibe CLI, её можно перенести в облако. История диалога, состояние задач и уже выданные approvals сохраняются. Это удобно, когда вы начали дебаг из терминала, но не хотите держать ноутбук включённым.
Интеграции Vibe закрывают типовой стек инженерных команд:
- GitHub — код, ветки, pull requests;
- Linear, Jira — постановка и обновление задач;
- Sentry — инциденты и ошибки в проде;
- Slack, Microsoft Teams — отчёты и уведомления для команды.
Work mode в Le Chat
Work mode превращает Le Chat из «чат-бота» в исполнительный слой, который может:
- читать и писать данные в подключённых сервисах;
- вызывать несколько инструментов параллельно;
- вести длинные многошаговые проекты до логического завершения.
Сценарий работы:
- Вы формулируете задачу: от «разгреби почту и подготовь меня к встрече» до «собери исследование по рынку и сделай отчёт».
- Work mode включает коннекторы автоматически: почта, календарь, документы, таск-трекеры.
- Агент шаг за шагом:
- собирает контекст из разных источников;
- вызывает нужные инструменты;
- пробует решения, откатывается, уточняет;
- ведёт сессию дольше одного ответа, пока задача не будет завершена.
- Все действия прозрачны: вы видите, какие инструменты вызваны и почему.
- Для «опасных» шагов — отправка писем, изменение документов, правка данных — Le Chat спрашивает подтверждение, учитывая ваши разрешения.
По сути, тот же агентный движок, который Mistral использовала для внутренних инструментов и enterprise-клиентов, теперь доступен через веб-интерфейс Le Chat.
Что это значит для вас
Для разработчиков
Где Mistral Medium 3.5 и Vibe особенно полезны:
- Рутина в коде:
- массовые рефакторинги модулей;
- генерация и расширение тестов;
- обновление зависимостей;
- расследование падений CI;
- типовые багфиксы с понятной симптоматикой.
- Длинные задачи:
- миграции между библиотеками или фреймворками;
- постепенное «оздоровление» легаси-кода;
- подготовка больших PR с однотипными изменениями по всему репозиторию.
Что особенно ценно:
- Агент работает асинхронно и параллельно: вы можете запустить несколько веток работ и вернуться к ним, когда будет время.
- Каждая сессия — это песочница: можно позволить агенту смело ставить зависимости и пробовать разные подходы.
- На выходе вы получаете pull request, а не поток сырого кода в чате.
Где Mistral Medium 3.5 стоит использовать осторожно:
- Критические участки системы, где важна формальная верификация. Агент поможет с черновиком, но финальное решение всё равно за вами.
- Сильно доменно-специфичный код, если у вас мало документации и нестандартный стек. Модель справится лучше, если вы подготовите контекст: README, ADR, архитектурные заметки.
Для продакт-менеджеров, аналитиков и руководителей
Work mode в Le Chat полезен, если вы тонете в операционке:
- Кросс-инструментальные обзоры:
- собрать за один прогон письма, сообщения и события календаря;
- подготовить бриф к встрече: список участников, их контекст, последние новости и связанные задачи.
- Исследования и отчёты:
- собрать данные из открытых источников, внутренних документов и подключённых систем;
- получить структурированный отчёт, который вы можете отредактировать перед отправкой.
- Операционная рутина:
- triage почты и черновики ответов;
- создание задач в Jira/Linear по итогам обсуждений;
- отправка сжатых отчётов в Slack.
Плюсы для вас:
- Сессия живёт дольше, чем один ответ, и может шаг за шагом доводить задачу до конца.
- Вы видите каждый шаг и можете остановить или скорректировать его.
- Перед изменением чего-либо в ваших системах Le Chat обязательно спросит разрешение.
Где не стоит полагаться только на Work mode:
- Юридически значимые документы, сложные контракты, финансовые отчёты для регуляторов — используйте как помощника, но не как единственный инструмент.
- Решения с серьёзными рисками — увольнения, изменения в компенсациях, публичные заявления бренда. Тут Work mode может помочь собрать фактуру, но не принимать решение.
Доступность из России
Mistral — европейская компания, сервисы работают через облако. Для доступа к Le Chat, Mistral Vibe и API может понадобиться VPN, в зависимости от вашей сети и ограничений на стороне провайдера. Если вы планируете использовать Mistral Medium 3.5 через открытые веса и NVIDIA NIM в своём инфраструктурном контуре, VPN не нужен — модель работает внутри вашего кластера.
Место на рынке
По исходным данным можно сделать несколько выводов о позиции Mistral Medium 3.5 относительно других крупных моделей:
-
Размер и тип:
- Mistral Medium 3.5 — плотная 128B модель.
- В отличие от некоторых конкурентов, которые разделяют модели для чата и кода, Mistral делает ставку на единый стек для инструкций, reasoning и программирования.
-
Производительность на коде:
- SWE-Bench Verified — 77,6%, что выше Devstral 2 и Qwen3.5 397B A17B.
- Это серьёзный аргумент, если вы выбираете модель именно под код-агентов и автотесты.
-
Агентные сценарии:
- τ³-Telecom — 91,4 показывает, что модель уверенно держит длинные цепочки действий и умеет надёжно работать с инструментами.
- На практике это выражается в том, что Mistral смогла запустить асинхронные облачные код-агенты Vibe и Work mode в Le Chat на одном и том же ядре.
-
Самостоятельное развёртывание:
- Открытые веса под модифицированной MIT-лицензией и возможность запускать модель на кластере от четырёх GPU — сильный аргумент для команд, которые не хотят полностью зависеть от внешнего API.
- Дополнительно Mistral Medium 3.5 доступна как NVIDIA NIM и на build.nvidia.com, что упрощает прототипирование и масштабирование.
По стоимости через API модель находится в верхнем сегменте: $1,5 за 1M входных токенов и $7,5 за 1M выходных токенов. Это ориентир на команды, которые готовы платить за качество reasoning и кода и/или хотят иметь возможность развернуть те же веса у себя.
Как запустить
В исходном материале нет конкретных CLI-команд или примеров кода, но по описанию есть два основных пути запуска:
-
Через Mistral Vibe CLI
- Устанавливаете Vibe CLI.
- Авторизуетесь в аккаунте Mistral.
- Запускаете локальную сессию для работы с кодом.
- При необходимости «телепортируете» её в облако, чтобы агент продолжил работу без вашего терминала.
-
Через Le Chat
- Открываете Le Chat в браузере.
- Выбираете Mistral Medium 3.5 как дефолтную модель (она уже включена по умолчанию).
- Для кода: формулируете задачу прямо в чате и запускаете код-сессию, которая работает на том же удалённом рантайме, что и Vibe CLI.
- Для продуктивности: переключаетесь в Work mode (Preview) и описываете задачу — от разбора почты до подготовки отчёта. Агент сам подключит нужные источники и инструменты.
Если вы планируете использовать открытые веса или NVIDIA NIM, сценарий будет стандартным для LLM в своём кластере:
- разворачиваете контейнер или endpoint на GPU-инфраструктуре;
- подключаете его к своим сервисам (IDE, боты, внутренние инструменты);
- настраиваете токенизацию и лимиты контекста под 256k токенов;
- поверх строите своих агентов, опираясь на те же паттерны, что использует Mistral в Vibe и Work mode.
Итог
Mistral Medium 3.5 — это не просто ещё одна большая модель, а ядро для агентных систем, которое Mistral уже использует в продакшене: от облачных код-агентов Vibe до Work mode в Le Chat. Если вы ищете мощный движок для кода и многошаговых задач с возможностью как облачного использования, так и собственного развёртывания, этот релиз стоит внимательно изучить.