Дата публикации
ai_products

Постоянно бесплатные API для LLM: где сейчас можно запускать модели без оплаты

Что появилось / что изменилось

Для разработчиков появился стабильный пул LLM-API, которые остаются бесплатными не по промокоду, а на постоянной основе. Без пробных периодов и временных кредитов.

Главное: все перечисленные сервисы совместимы с OpenAI SDK и поддерживают схему вызова, похожую на GPT‑4o и других моделей.

Собственные модели

  • Google Gemini (США)
    Бесплатный доступ к Gemini 2.5 Pro, Flash, Flash‑Lite и ещё четырём моделям.
    Лимиты: 10 RPM (запросов в минуту) и 20 RPD (запросов в день).

  • Cohere (США)
    Command A, Command R+, Aya Expanse 32B и ещё девять моделей.
    Лимиты: 20 RPM, до 1000 запросов в месяц.

  • Mistral AI (Евросоюз)
    Mistral Large 3, Small 3.1, Ministral 8B и ещё три модели.
    Лимиты: 1 запрос в секунду и до 1 млрд токенов в месяц бесплатно.

  • Zhipu AI (Китай)
    GLM‑4.7‑Flash, GLM‑4.5‑Flash, GLM‑4.6V‑Flash.
    Лимиты официально не раскрывают.

Инференс-платформы

  • GitHub Models (США)
    GPT‑4o, Llama 3.3 70B, DeepSeek‑R1 и другие.
    Лимиты: 10–15 RPM, 50–150 RPD.

  • NVIDIA NIM (США)
    Llama 3.3 70B, Mistral Large, Qwen3 235B и другие.
    Лимиты: до 40 RPM.

  • Groq (США)
    Llama 3.3 70B, Llama 4 Scout, Kimi K2 и ещё 17 моделей.
    Лимиты: 30 RPM и 14 400 RPD.

  • Cerebras (США)
    Llama 3.3 70B, Qwen3 235B, GPT‑OSS‑120B и ещё три модели.
    Лимиты: 30 RPM, 14 400 RPD.

  • Cloudflare Workers AI (США)
    Llama 3.3 70B, Qwen QwQ 32B и ещё 47 моделей.
    Лимиты считают не по запросам, а по «нейронам»: 10 000 нейронов в день.

  • LLM7.io (Великобритания)
    DeepSeek R1, Flash‑Lite, Qwen2.5 Coder и ещё 27 моделей.
    Лимиты: 30 RPM, до 120 RPM с токеном.

  • Kluster AI (США)
    DeepSeek‑R1, Llama 4 Maverick, Qwen3‑235B и ещё две модели.
    Лимиты не раскрывают.

  • OpenRouter (США)
    DeepSeek R1, Llama 3.3 70B, GPT‑OSS‑120B и ещё 29 моделей.
    Лимиты: 20 RPM, 50 RPD.

  • Hugging Face (США)
    Llama 3.3 70B, Qwen2.5 72B, Mistral 7B и множество других моделей.
    Бесплатно выдают $0,10 в месяц в кредитах.

Полный и оперативно обновляемый список держат на Reddit в разделе r/LLM (Awesome Free LLM APIs).

Как это работает

Все сервисы предоставляют HTTP‑API со схемой запросов, совместимой с OpenAI SDK. Если у вас уже есть код для GPT‑4o, вы в большинстве случаев меняете только base_url и ключ.

Два типа провайдеров:

  1. Те, кто разворачивает свои модели (Google Gemini, Cohere, Mistral AI, Zhipu AI).
    Они контролируют обучение и инференс, часто дают доступ к последним версиям своих LLM.

  2. Инференс‑платформы (GitHub Models, NVIDIA NIM, Groq, Cerebras, Cloudflare Workers AI, LLM7.io, Kluster AI, OpenRouter, Hugging Face).
    Эти игроки запускают уже готовые модели вроде Llama 3.3 70B, Qwen3 235B, DeepSeek‑R1 на своём железе и берут на себя масштабирование.

Groq и Cerebras используют специализированные чипы для инференса. Отсюда высокий лимит в 14 400 запросов в день и заметно более высокая скорость ответа по сравнению с классическими GPU‑кластерами.

Cloudflare Workers AI встраивает модели прямо в инфраструктуру Cloudflare Workers. Лимит в 10 000 нейронов в день означает, что учитывают суммарную нагрузку, а не просто количество HTTP‑запросов.

Что это значит для вас

Если вы:

  • делаете прототип — Mistral AI с лимитом 1 млрд токенов в месяц закроет большинство задач: чат‑бот, генерация текстов, простые агенты, анализ документов;
  • учитесь или ведёте курс — GitHub Models и OpenRouter подходят для демонстраций: есть GPT‑4o, Llama 3.3 70B, DeepSeek‑R1, разумные лимиты по RPD;
  • пишете pet‑проект — Groq и Cerebras удобны для сервисов с частыми, но короткими запросами за счёт 30 RPM и быстрого ответа;
  • нужен выбор моделей — Cloudflare Workers AI и OpenRouter дают десятки вариантов, можно сравнивать качество без оплаты.

Для продакшн‑нагрузки этих лимитов часто не хватает. Например, 20 RPD у Gemini или 50 RPD у OpenRouter быстро закончатся при работающем сервисе. В этом случае бесплатный уровень — только старт перед платным тарифом.

Многие сервисы формально относятся к США, ЕС или Китаю. Для доступа из России часто потребуется VPN и аккаунт в нужной юрисдикции. Это особенно важно, если вы интегрируете API в корпоративный продукт.

Хороший практический сценарий: собрать единый слой абстракции над LLM и переключать провайдеров, когда один free‑тариф упирается в лимиты. Так можно неделями тестировать разные модели без бюджета.

Место на рынке

По ключевым параметрам картина такая:

  • По объёму токенов лидирует Mistral AI: до 1 млрд токенов в месяц бесплатно, включая крупную Mistral Large 3. Это заметно щедрее, чем жёсткие дневные лимиты у Gemini и OpenRouter.

  • По скорости и числу запросов выгодно смотрятся Groq и Cerebras. Оба дают 30 RPM и 14 400 RPD на специализированном железе. Это удобный выбор для реактивных чат‑сервисов и realtime‑панелей.

  • По разнообразию моделей впереди Cloudflare Workers AI: более 50 моделей в каталоге, от Llama 3.3 70B до Qwen QwQ 32B. Цена — ограничение в 10 000 нейронов в день, которое сложнее прогнозировать, чем классические RPM/RPD.

  • По количеству хайповых моделей интересен OpenRouter и LLM7.io. Там есть DeepSeek R1, Llama 3.3 70B, GPT‑OSS‑120B и другие свежие веса, удобные для сравнительных тестов.

Итог для разработчика: бесплатные API уже позволяют долго жить без собственного GPU и платных подписок. Для коммерческого сервиса всё равно придётся выходить за пределы free‑тарифов, но для экспериментов, обучения и быстрых internal‑инструментов этого пула более чем хватает.


Читайте также