- Дата публикации
Hybro Hub: как подружить локальные LLM и облачных агентов в одном окне
Что появилось / что изменилось
Hybro запустила Hybro Hub — фоновый сервис, который связывает локальные AI-агенты с порталом hybro.ai. Теперь в одном веб-интерфейсе можно одновременно использовать локальные модели через Ollama и облачных агентов вроде юриста по контрактам или код-ревьюера.
Ключевые факты:
- Установка одной командой:
pip install hybro-hub. - Запуск хаба:
hybro-hub start --api-key hybro_.... - Локальные агенты подключаются к порталу как полноценные участники комнат.
- Пример: локальный LLM через Ollama —
hybro-hub agent start ollama --model llama3.2. - Hybro Hub работает как демон в фоне, пишет логи в
~/.hybro/hub.log, конфиг хранит в~/.hybro/config.yaml. - Все подключения исходящие: не нужны проброс портов и настройка NAT.
- В интерфейсе hybro.ai сообщения помечаются значками: 🏠 Local (зелёный) или ☁️ Cloud (синий).
- Встроенная проверка чувствительных данных: PII (email, телефоны, номера карт, API-ключи), кастомные ключевые слова и регулярные выражения.
- При отключённом хабе облачные агенты продолжают работать, локальные помечаются как offline, сообщения в их адрес ставятся в очередь.
Как это работает
Hybro Hub поднимается как лёгкий демон на вашей машине. Он делает три вещи:
- Подключается по исходящему HTTPS к облаку hybro.ai.
- Находит локальные агенты — например, Ollama с моделью
llama3.2— и регистрирует их в облаке. - Выступает «приватным роутером»: решает, какие сообщения уходят локально, а какие — в облако.
Вся коммуникация строится вокруг протокола A2A (Agent-to-Agent). И локальные, и облачные агенты говорят на одном формате сообщений. Благодаря этому любой A2A-совместимый агент можно «подвесить» к хабу без отдельной интеграции с интерфейсом.
Схема простая: браузер открывает hybro.ai → вы выбираете агента в комнате → портал через relay-сервис отправляет запрос в ваш Hybro Hub → хаб перенаправляет его локальному LLM или другому агенту → ответ уходит обратно через relay в портал.
Хаб анализирует исходящие сообщения на чувствительные данные до отправки в облако. Сейчас он только логирует срабатывания. Блокировку или анонимизацию разработчики обещают добавить позже.
Что это значит для вас
Главная идея Hybro Hub — не заставлять выбирать между приватностью локальной модели и мощью облачных агентов. Вы можете держать кодовую базу и конфиденциальные документы на своём компьютере, обрабатывать их локально через Ollama и параллельно вызывать облачного юриста по контрактам или продвинутого код-ревьюера в той же комнате чата.
Практические сценарии:
- Разработка: локальный LLM анализирует приватный репозиторий, а облачный агент помогает с архитектурными решениями или ревью PR-описаний.
- Юридические и финансовые документы: черновики и чувствительные данные обрабатывает локальный агент, финальную формулировку договора проверяет облачный специалист.
- Корпоративные проекты: можно завести собственных локальных агентов с доменной экспертизой и подключить их к общему порталу для команды.
Где Hybro Hub не поможет:
- Если у вас нет возможности запускать локальные модели (слабый ноутбук, нет GPU), смысл хаба заметно падает — вы по сути останетесь только с облачными агентами.
- Если вы не готовы ставить Python и работать с CLI, установка может показаться лишней морокой: всё крутится вокруг команд
pipиhybro-hub.
Hybro.ai — веб-сервис, доступность которого из России зависит от сетевых ограничений и возможных блокировок. В некоторых случаях может понадобиться VPN или другой обход ограничений.
Место на рынке
Hybro Hub идёт в тот же сегмент, где уже живут Ollama, LM Studio, Cursor Cloud и ChatGPT, но решает другую задачу.
- ChatGPT, Devin, Cursor Cloud и другие чисто облачные решения требуют отправлять код и документы на внешние серверы. Зато дают мощные модели и богатые агенты.
- Ollama и LM Studio позволяют держать LLM полностью локально, без утечки данных наружу. Но они живут в своих интерфейсах и не умеют напрямую работать бок о бок с облачными агентами.
Hybro Hub не конкурирует с Ollama, а использует её как движок. Он добавляет надстройку: общий портал, где локальные и облачные агенты отображаются в одном списке, говорят на одном A2A-протоколе и работают в одних и тех же комнатах.
Чётких сравнений по скорости, стоимости токена или качеству ответов разработчики не приводят. Hybro Hub — это скорее инфраструктурный слой: он решает, куда уходит запрос и где обрабатываются данные, а не соревнуется с GPT-4o или Claude 3 по IQ.
Если вы уже используете Ollama или другие локальные рантаймы и хотите подключить их к единому облачному порталу без проброса портов и сложной сетевой настройки, Hybro Hub выглядит логичным следующим шагом.