- Дата публикации
Veai 5.8: AI-агент, который реально пользуется IDE — дебаг, рефакторинг и новая тарификация
Что нового
Veai выпустила версию 5.8 — это AI-агент для JetBrains IDE, который умеет писать код, запускать его и разбираться с ошибками прямо в IntelliJ IDEA, PyCharm, Rider и других средах. Главное в релизе:
-
Debug Mode:
- агент научился работать с встроенным дебаггером IDE;
- ставит брейкпоинты, запускает код под отладкой, смотрит значения переменных, пошагово проверяет гипотезы.
-
Запуск run-конфигураций IDE:
- агент видит все ваши run-конфигурации и может запускать их сам;
- поддерживаются: тесты, сборки, приложения, Gradle- и Maven-задачи, пользовательские сценарии;
- появились инструменты Get Configuration и Run Configuration;
- сейчас работает в IntelliJ IDEA, OpenIDE, GigaIDE и PyCharm, другие IDE Veai обещает догрузить позже.
-
Рефакторинг через действия IDE:
- агент больше не «grep-ает» проект для простых операций;
- использует встроенные действия IDE, например Rename (⇧F6 / Shift+F6) для переименования классов, методов, полей и связанных сущностей.
-
Новая тарификация для персональных пользователей:
- вместо кредитов — оплата по минутам compute-time;
- платите только за время, пока модель реально считает ответ, а не за длительность сессии или время открытой IDE;
- уже купленные кредиты автоматически конвертируются в минуты;
- Veai оценивает, что для персонального использования это примерно в два раза дешевле, чем отдельная подписка у любого из провайдеров, чьи модели она даёт, и в разы дешевле, чем работа через API.
-
Модели, доступные в подписке:
- коммерческие: Opus, Sonnet, GPT, Haiku, Gemini;
- open source: GLM, MiniMax, Qwen, Kimi.
-
Обновления чата:
- можно отправлять сообщения в очередь, не дожидаясь завершения текущего ответа;
- можно менять порядок сообщений в очереди;
- можно удалять лишние запросы;
- при необходимости — отправить сообщение сразу, минуя очередь.
-
Настройка контекста для OpenAI-совместимого режима:
- ручная установка размера контекстного окна;
- актуально для Qwen, DeepSeek и других моделей с нестандартным лимитом контекста;
- раньше плагин не всегда корректно определял доступный размер контекста, сейчас это можно задать явно.
-
Поддержка JetBrains IDE 2026.1:
- IntelliJ IDEA, PyCharm, GoLand, WebStorm, Rider, PhpStorm.
-
Новые возможности в Rider для .NET:
- поиск .NET-классов по имени:
- по проекту, библиотекам и NuGet-пакетам;
- фильтрация по скоупу (только проект / только библиотеки / всё вместе);
- фильтр по префиксу namespace;
- декомпиляция .NET-типов:
- если исходников нет (NuGet, системные сборки), агент может декомпилировать класс и прочитать его содержимое прямо в IDE;
- не нужно искать исходный код в репозиториях или скачивать пакеты отдельно.
- поиск .NET-классов по имени:
Veai 5.8 распространяется бесплатно как плагин для JetBrains IDE, платите только за работу моделей по новой поминутной схеме.
Как это работает
Debug Mode
Раньше большинство AI-агентов, даже очень мощных, работали по схеме: «прочитал код → запустил → посмотрел логи → попробовал угадать причину». Если баг не воспроизводится по логам или завязан на сложное состояние, агент быстро упирался в потолок.
В Veai 5.8 агент получил доступ к встроенному дебаггеру IDE:
- ставит брейкпоинты в нужных местах кода;
- запускает приложение или тесты под отладкой через run-конфигурации IDE;
- читает значения переменных и состояние стека вызовов;
- двигается по шагам (step over / step into / step out);
- на основе увиденного обновляет гипотезу о причине бага и повторяет цикл.
По сути, Veai пользуется теми же инструментами, что и разработчик, а не пытается «угадать» проблему по тексту логов. За счёт этого агент может решать те же задачи, которые вы обычно решаете руками в дебаггере.
Работа с run-конфигурациями
У большинства проектов в IDE десяток и больше run-конфигураций:
- локальный запуск с секретами и специфичными переменными окружения;
- конфигурации с ключами профилирования;
- запуск с конкретным профилем Spring или другим окружением;
- отдельные конфигурации для интеграционных и юнит-тестов;
- сборочные сценарии, Gradle- и Maven-задачи.
Veai 5.8 даёт агенту два новых инструмента:
- Get Configuration — получает список всех доступных конфигураций в IDE вместе с типами;
- Run Configuration — запускает выбранную конфигурацию и возвращает результат:
- вывод консоли;
- результаты тестов;
- ошибки компиляции.
Агент может, например, сам выбрать конфигурацию «integration-tests», запустить её, посмотреть, какие тесты упали, и дальше разбираться в проблеме.
Сейчас это работает в IntelliJ IDEA, OpenIDE, GigaIDE и PyCharm. В других IDE поддержка появится позже.
Рефакторинг через IDE, а не через grep
Классический сценарий для AI-агентов: вы просите переименовать класс, а агент:
- ищет все вхождения имени по проекту (по сути — «умный grep»);
- подгружает подходящие файлы в контекст;
- редактирует их по одному.
Проблемы этого подхода:
- дорого — требуется загружать много кода в контекст модели;
- медленно — особенно на больших монорепозиториях;
- риск ошибок — можно пропустить геттеры/сеттеры, аннотации, рефлексию, тесты.
JetBrains IDE уже давно решают эту задачу действием Rename (⇧F6 / Shift+F6). Оно знает о типах, импортах, использовании в тестах и других файлах. Veai 5.8 даёт агенту доступ к этим действиям:
- агент вызывает Rename для класса, метода, поля;
- IDE сама переименовывает сущность во всех корректных местах;
- агент не тратит контекст и не городит сложные эвристики.
По сути, Veai перестаёт эмулировать рефакторинг через «поиск и замену» и начинает использовать нативные возможности IDE.
Поминутная тарификация compute-time
Veai меняет экономику персонального использования:
- раньше вы покупали кредиты и тратили их на запросы;
- теперь оплата идёт за минуты compute-time — время, пока модель реально обрабатывает ваш запрос и формирует ответ.
Важно, за что вы не платите:
- время, пока IDE просто открыта;
- длительность сессии в плагине;
- паузы между запросами.
Ранее купленные кредиты автоматически превращаются в минуты. Veai оценивает, что при таком подходе персональное использование выходит:
- примерно в два раза дешевле, чем отдельная подписка у любого из провайдеров, чьи модели доступны в Veai;
- в разы дешевле, чем работа с теми же моделями через API напрямую.
Чат и контекст
Новый чат работает ближе к тому, как устроены очереди задач:
- вы можете набросать сразу несколько сообщений, пока агент отвечает;
- сообщения попадают в очередь;
- порядок можно менять, лишние — удалять;
- при необходимости — отправить конкретное сообщение сразу, обойдя очередь.
Для моделей в OpenAI-совместимом режиме Veai добавила ручную настройку размера контекста. Это полезно, если вы работаете с моделями вроде Qwen или DeepSeek, у которых нет стандартного лимита контекста, и плагин раньше мог неверно оценивать доступный объём. Теперь вы сами задаёте, сколько токенов контекста использовать.
Rider: поиск и декомпиляция .NET-классов
Для Rider Veai добавила два инструмента, которые особенно полезны в больших .NET-решениях:
-
Поиск классов:
- агент ищет .NET-типы по имени в:
- текущем проекте;
- подключённых библиотеках;
- NuGet-пакетах;
- можно задать скоуп поиска: только проект, только библиотеки или всё вместе;
- поддерживается фильтр по префиксу пространства имён.
- агент ищет .NET-типы по имени в:
-
Декомпиляция:
- если исходники класса недоступны (тип из NuGet-пакета или системной сборки), агент может декомпилировать его;
- читает декомпилированный код прямо в IDE;
- не нужно отдельно искать исходники в интернете или скачивать пакеты.
Это особенно полезно, когда вы просите агента:
- разобраться в поведении сторонней библиотеки;
- понять, как устроен тип из NuGet-пакета;
- найти нужный класс в большом решении с множеством зависимостей.
Что это значит для вас
Когда Veai 5.8 помогает
- Отладка сложных багов
Если ошибка не ловится по логам, завязана на состояние, многопоточность или специфичные данные, обычный AI-помощник быстро сдаётся. Veai 5.8 может:
- сам запустить нужную run-конфигурацию под дебагом;
- дойти до проблемного места по брейкпоинтам;
- посмотреть значения переменных и состояние стека;
- предложить правку и сразу проверить её тем же сценарием.
Это полезно для Java, Kotlin, Python и других языков, которые вы запускаете через IntelliJ IDEA, PyCharm и совместимые IDE.
- Рутина с конфигурациями и тестами
Если у вас десятки run-конфигураций, а вы постоянно забываете, какую именно нужно запустить:
- агент может сам подобрать конфигурацию под задачу (например, только интеграционные тесты);
- запустить её, собрать логи, результаты тестов и ошибки компиляции;
- на основе этого предложить фиксы.
- Безопасный рефакторинг
Для массовых переименований и простых рефакторингов лучше довериться IDE, а не «поиску и замене» по проекту. Veai 5.8:
- использует действия IDE, которые знают о типах, импортах, тестах;
- уменьшает риск пропустить важное использование класса или метода;
- экономит токены и время, потому что не тянет в контекст весь проект.
- Работа с .NET и NuGet в Rider
Если вы часто копаетесь в сторонних библиотеках:
- агент может найти нужный тип по имени, даже если он глубоко в зависимостях;
- декомпилировать его и объяснить, как он работает;
- подсказать, как правильно использовать этот API.
Это особенно удобно для больших enterprise-решений, где структура проекта и зависимостей сложная.
- Экономия бюджета на AI
Если вы уже платите за GPT, Claude или другие модели напрямую, Veai предлагает альтернативу:
- вы платите только за реальные минуты работы моделей;
- по оценке Veai, это примерно в два раза дешевле, чем отдельная подписка у любого из этих провайдеров;
- плюс вы получаете глубокую интеграцию с IDE, которой нет у обычных веб-интерфейсов.
Когда Veai может быть не лучшим выбором
- Вы не пользуетесь JetBrains IDE
Veai 5.8 — это плагин для JetBrains IDE. Если вы работаете только в VS Code, Neovim или в облачных IDE, ключевые фишки релиза (дебаг, run-конфигурации, рефакторинг через IDE) вам недоступны.
- Нужен просто чат с моделью без кода
Если вы решаете общие задачи, пишете тексты или делаете ресёрч, а не разрабатываете, вам проще использовать веб-интерфейс GPT, Claude, Gemini и других. Интеграция с IDE тут не даёт преимуществ.
- Жёсткие ограничения по безопасности кода
Veai работает с внешними LLM (Opus, Sonnet, GPT, Haiku, Gemini и другими). Если политика компании запрещает выносить код за периметр, любые облачные AI-инструменты под вопросом. В этом случае нужно отдельно разбираться с on-premise и self-hosted решениями.
- Вы не используете дебаггер в принципе
Если ваш процесс разработки — «написал → запустил → посмотрел логи», и вы не ставите брейкпоинты, Debug Mode Veai просто не раскроется. Основная ценность релиза как раз в том, что агент начинает работать так же, как опытный разработчик в IDE.
Место на рынке
Veai 5.8 живёт в сегменте AI-ассистентов для разработки, которые интегрируются в IDE. Самые близкие по идее продукты — это:
- AI-помощники в JetBrains IDE;
- плагины для GPT и других моделей в IntelliJ IDEA и VS Code;
- облачные ассистенты, которые работают через веб-интерфейс и не видят IDE целиком.
Ключевое отличие Veai — ставка на глубокую интеграцию с JetBrains IDE:
- агент работает не только с текстом кода, но и с:
- дебаггером;
- run-конфигурациями;
- рефакторингами IDE;
- поиском и декомпиляцией .NET-классов в Rider.
По моделям Veai не ограничивается одним вендором. Внутри плагина вы можете выбрать:
- коммерческие модели: Opus, Sonnet, GPT, Haiku, Gemini;
- open source: GLM, MiniMax, Qwen, Kimi.
Это даёт два практических эффекта:
- можно подобрать модель под задачу и бюджет (например, использовать более дешёвую open source-модель для простых операций и дорогую — для сложного анализа);
- не нужно держать подписки у каждого провайдера отдельно.
По стоимости Veai ориентируется на то, чтобы персональное использование было:
- примерно в два раза дешевле, чем отдельная подписка у любого из провайдеров, чьи модели доступны в плагине;
- в разы дешевле, чем работа с теми же моделями через API.
Чётких бенчмарков по скорости или качеству ответа относительно, например, GPT-4o или Claude Opus, Veai в этом релизе не приводит. Основной акцент — не на «модель умнее», а на том, что агент умеет пользоваться вашей IDE, как разработчик: дебажить, запускать нужные конфигурации, рефакторить через встроенные действия и разбирать сторонний .NET-код прямо в Rider.
Установка / Как запустить
Veai 5.8 распространяется как бесплатный плагин для JetBrains IDE.
Общий сценарий:
- Откройте JetBrains IDE 2026.1 или новее (IntelliJ IDEA, PyCharm, GoLand, WebStorm, Rider, PhpStorm, OpenIDE, GigaIDE — в зависимости от стека).
- Зайдите в Settings → Plugins.
- Найдите Veai в Marketplace.
- Установите плагин и перезапустите IDE.
- Авторизуйтесь в Veai и подключите нужные модели (Opus, Sonnet, GPT, Haiku, Gemini, GLM, MiniMax, Qwen, Kimi).
- Включите AI-агента и откройте чат внутри IDE.
Дальше можно:
- просить агента запустить конкретную run-конфигурацию через Run Configuration;
- давать ему задачу «разобраться, почему падает тест X» — он сам подберёт конфигурацию, запустит её и уйдёт в дебаг;
- поручать массовые переименования и другие рефакторинги, которые IDE умеет делать сама;
- в Rider — просить найти класс по имени или разобрать тип из NuGet-пакета, даже если исходников нет.
Veai 5.8 доступен бесплатно как плагин, оплата — только за compute-time выбранных моделей по поминутной схеме.