Дата публикации
ai_products

DeepSeek v4: как запустить через API, если вы привыкли к OpenAI и Anthropic

Что нового

DeepSeek запустила API, который копирует формат запросов OpenAI и Anthropic. Это значит: если вы уже используете SDK от OpenAI или Anthropic, вы можете почти без изменений кода переключиться на DeepSeek.

Ключевые факты:

  • Поддерживаются два совместимых формата:
    • формат OpenAI с базовым URL: https://api.deepseek.com
    • формат Anthropic с базовым URL: https://api.deepseek.com/anthropic
  • Для работы нужен API-ключ — его нужно запросить у DeepSeek (регистрация обязательна).
  • Доступные названия моделей:
    • deepseek-v4-flash
    • deepseek-v4-pro
    • deepseek-chat — будет отключён 24.07.2026
    • deepseek-reasoner — будет отключён 24.07.2026
  • Совместимость старых имён:
    • deepseek-chat = не «думающий» режим deepseek-v4-flash
    • deepseek-reasoner = «думающий» режим deepseek-v4-flash

Если вы используете старые имена моделей, код пока продолжит работать, но после 24 июля 2026 года эти имена перестанут отвечать. Лучше сразу перейти на deepseek-v4-flash и deepseek-v4-pro.

Цены, скорость и размер контекста в исходных материалах не раскрыты, поэтому оценивать производительность по цифрам пока рано.

Как это работает

DeepSeek технически «прикидывается» API OpenAI или Anthropic. Вы берёте существующий код, меняете несколько параметров — и обращаетесь уже к DeepSeek.

Базовая схема такая:

  1. Получаете API-ключ в кабинете DeepSeek.
  2. В вашем приложении:
    • меняете base_url на https://api.deepseek.com (если вы привыкли к формату OpenAI),
    • или на https://api.deepseek.com/anthropic (если вы используете формат Anthropic).
  3. Подставляете свой api_key от DeepSeek.
  4. В параметре model указываете одну из поддерживаемых моделей: deepseek-v4-flash или deepseek-v4-pro.

API поддерживает обычный (непотоковый) и потоковый режим ответа:

  • если вы не задаёте stream или ставите stream: false, получаете ответ целиком;
  • если ставите stream: true, ответ приходит частями, как в стриминге у OpenAI и Anthropic.

Для формата Anthropic DeepSeek предлагает отдельные примеры, но логика та же: вы меняете только базовый URL и ключ, остальной код остаётся знакомым.

Что это значит для вас

Когда DeepSeek полезен

  1. Если у вас уже есть код под OpenAI или Anthropic
    Вы можете протестировать DeepSeek с минимальными изменениями:

    • поменяли base_url и api_key;
    • заменили имя модели на deepseek-v4-flash или deepseek-v4-pro;
    • остальная логика запросов остаётся прежней.
  2. Если вы хотите быстро добавить ещё одного провайдера
    DeepSeek удобно включать в мульти-провайдерную архитектуру: вы добавляете новые base_url и model, а интерфейс вызова почти не меняется.

  3. Если вы строите продукты на базе SDK OpenAI или Anthropic
    DeepSeek прямо говорит: можно использовать их SDK и совместимые библиотеки. Это снимает часть боли с написанием обвязки и снижает порог входа.

Для каких задач

На основе исходных материалов можно опираться только на тип API и список моделей, без оценок качества генерации. Практичный сценарий сейчас — использовать DeepSeek как дополнительный бэкенд для задач, где вы уже применяете GPT‑подобные или Claude‑подобные модели:

  • чат-боты и ассистенты;
  • генерация и переработка текста;
  • код-ассистенты и автодополнение кода;
  • аналитические отчёты и сводки.

Если вы запускаете чувствительные бизнес-процессы, разумно сначала обернуть DeepSeek в тестовый контур: прогнать типичные промпты, посмотреть качество и стабильность, а уже потом выносить в продакшн.

Где осторожнее

  • Долгосрочные проекты. Если вы сейчас используете deepseek-chat или deepseek-reasoner, закладывайте в план миграцию на deepseek-v4-flash до 24 июля 2026 года.
  • Юридические ограничения и доступность из России. DeepSeek официально не описывает режим доступа из конкретных стран. Если у вас уже есть опыт с зарубежными AI‑сервисами, подход тот же: возможна регистрация по иностранной почте и карте, иногда нужен VPN. Перед интеграцией в корпоративный продукт проверьте, открывается ли https://api.deepseek.com с вашей инфраструктуры и не блокируется ли домен.

Место на рынке

DeepSeek напрямую конкурирует с API OpenAI и Anthropic за счёт совместимого формата:

  • Формат запросов в стиле OpenAI: base_url меняется на https://api.deepseek.com, остальная структура запроса остаётся привычной.
  • Формат запросов в стиле Anthropic: отдельный base_url https://api.deepseek.com/anthropic.

Цифр по скорости, стоимости токена, лимитам запросов и размеру контекста DeepSeek публично не приводит в этом фрагменте документации. Поэтому оценивать, быстрее ли deepseek-v4-flash по сравнению с GPT‑4o или выгоднее ли deepseek-v4-pro, пока нельзя.

На сегодня главный аргумент DeepSeek — именно совместимость API. Это снижает стоимость переключения: вы можете добавить DeepSeek в стек рядом с GPT‑моделями и Claude без серьёзной переработки кода.

Как запустить

Ниже — базовая схема первого вызова API в формате OpenAI. DeepSeek подчёркивает: это пример без стриминга. Чтобы получать потоковый ответ, нужно выставить параметр stream в true.

Параметры подключения:

  • base_url для формата OpenAI: https://api.deepseek.com
  • base_url для формата Anthropic: https://api.deepseek.com/anthropic
  • api_key: ваш ключ, который вы получаете у DeepSeek
  • model (выберите одно из):
    • deepseek-v4-flash
    • deepseek-v4-pro
    • deepseek-chat (до 24.07.2026)
    • deepseek-reasoner (до 24.07.2026)

DeepSeek отдельно подчёркивает соответствие старых имён:

  • deepseek-chat = не «думающий» режим deepseek-v4-flash
  • deepseek-reasoner = «думающий» режим deepseek-v4-flash

После получения API‑ключа вы можете использовать примеры в формате OpenAI. Конкретный код в исходном фрагменте не приведён, но структура запроса стандартна для современных чат‑моделей: вы отправляете список сообщений с ролями (system, user, assistant) и получаете ответ с текстом и метаданными.

Для формата Anthropic DeepSeek предлагает отдельные примеры и документацию: там используются привычные для Claude поля вроде messages, max_tokens, temperature и т.п. Логика та же, что и у официального API Anthropic, но с другим base_url и ключом.

Если вы уже работаете с OpenAI SDK или Anthropic SDK, маршрут простой:

  1. Установите нужный SDK (если его ещё нет в проекте).
  2. В конфигурации клиента измените base_url на адрес DeepSeek.
  3. Задайте api_key от DeepSeek.
  4. Выберите модель: deepseek-v4-flash или deepseek-v4-pro.
  5. При необходимости включите стриминг, установив stream: true.

После этого ваш первый запрос к DeepSeek будет выглядеть почти так же, как текущий запрос к GPT‑модели или Claude: отличается только адрес и имя модели.


Читайте также

🔗 Источник: https://api-docs.deepseek.com/