- Дата публикации
DeepSeek v4: как запустить через API, если вы привыкли к OpenAI и Anthropic
Что нового
DeepSeek запустила API, который копирует формат запросов OpenAI и Anthropic. Это значит: если вы уже используете SDK от OpenAI или Anthropic, вы можете почти без изменений кода переключиться на DeepSeek.
Ключевые факты:
- Поддерживаются два совместимых формата:
- формат OpenAI с базовым URL:
https://api.deepseek.com - формат Anthropic с базовым URL:
https://api.deepseek.com/anthropic
- формат OpenAI с базовым URL:
- Для работы нужен API-ключ — его нужно запросить у DeepSeek (регистрация обязательна).
- Доступные названия моделей:
deepseek-v4-flashdeepseek-v4-prodeepseek-chat— будет отключён 24.07.2026deepseek-reasoner— будет отключён 24.07.2026
- Совместимость старых имён:
deepseek-chat= не «думающий» режимdeepseek-v4-flashdeepseek-reasoner= «думающий» режимdeepseek-v4-flash
Если вы используете старые имена моделей, код пока продолжит работать, но после 24 июля 2026 года эти имена перестанут отвечать. Лучше сразу перейти на deepseek-v4-flash и deepseek-v4-pro.
Цены, скорость и размер контекста в исходных материалах не раскрыты, поэтому оценивать производительность по цифрам пока рано.
Как это работает
DeepSeek технически «прикидывается» API OpenAI или Anthropic. Вы берёте существующий код, меняете несколько параметров — и обращаетесь уже к DeepSeek.
Базовая схема такая:
- Получаете API-ключ в кабинете DeepSeek.
- В вашем приложении:
- меняете
base_urlнаhttps://api.deepseek.com(если вы привыкли к формату OpenAI), - или на
https://api.deepseek.com/anthropic(если вы используете формат Anthropic).
- меняете
- Подставляете свой
api_keyот DeepSeek. - В параметре
modelуказываете одну из поддерживаемых моделей:deepseek-v4-flashилиdeepseek-v4-pro.
API поддерживает обычный (непотоковый) и потоковый режим ответа:
- если вы не задаёте
streamили ставитеstream: false, получаете ответ целиком; - если ставите
stream: true, ответ приходит частями, как в стриминге у OpenAI и Anthropic.
Для формата Anthropic DeepSeek предлагает отдельные примеры, но логика та же: вы меняете только базовый URL и ключ, остальной код остаётся знакомым.
Что это значит для вас
Когда DeepSeek полезен
-
Если у вас уже есть код под OpenAI или Anthropic
Вы можете протестировать DeepSeek с минимальными изменениями:- поменяли
base_urlиapi_key; - заменили имя модели на
deepseek-v4-flashилиdeepseek-v4-pro; - остальная логика запросов остаётся прежней.
- поменяли
-
Если вы хотите быстро добавить ещё одного провайдера
DeepSeek удобно включать в мульти-провайдерную архитектуру: вы добавляете новыеbase_urlиmodel, а интерфейс вызова почти не меняется. -
Если вы строите продукты на базе SDK OpenAI или Anthropic
DeepSeek прямо говорит: можно использовать их SDK и совместимые библиотеки. Это снимает часть боли с написанием обвязки и снижает порог входа.
Для каких задач
На основе исходных материалов можно опираться только на тип API и список моделей, без оценок качества генерации. Практичный сценарий сейчас — использовать DeepSeek как дополнительный бэкенд для задач, где вы уже применяете GPT‑подобные или Claude‑подобные модели:
- чат-боты и ассистенты;
- генерация и переработка текста;
- код-ассистенты и автодополнение кода;
- аналитические отчёты и сводки.
Если вы запускаете чувствительные бизнес-процессы, разумно сначала обернуть DeepSeek в тестовый контур: прогнать типичные промпты, посмотреть качество и стабильность, а уже потом выносить в продакшн.
Где осторожнее
- Долгосрочные проекты. Если вы сейчас используете
deepseek-chatилиdeepseek-reasoner, закладывайте в план миграцию наdeepseek-v4-flashдо 24 июля 2026 года. - Юридические ограничения и доступность из России. DeepSeek официально не описывает режим доступа из конкретных стран. Если у вас уже есть опыт с зарубежными AI‑сервисами, подход тот же: возможна регистрация по иностранной почте и карте, иногда нужен VPN. Перед интеграцией в корпоративный продукт проверьте, открывается ли
https://api.deepseek.comс вашей инфраструктуры и не блокируется ли домен.
Место на рынке
DeepSeek напрямую конкурирует с API OpenAI и Anthropic за счёт совместимого формата:
- Формат запросов в стиле OpenAI:
base_urlменяется наhttps://api.deepseek.com, остальная структура запроса остаётся привычной. - Формат запросов в стиле Anthropic: отдельный
base_urlhttps://api.deepseek.com/anthropic.
Цифр по скорости, стоимости токена, лимитам запросов и размеру контекста DeepSeek публично не приводит в этом фрагменте документации. Поэтому оценивать, быстрее ли deepseek-v4-flash по сравнению с GPT‑4o или выгоднее ли deepseek-v4-pro, пока нельзя.
На сегодня главный аргумент DeepSeek — именно совместимость API. Это снижает стоимость переключения: вы можете добавить DeepSeek в стек рядом с GPT‑моделями и Claude без серьёзной переработки кода.
Как запустить
Ниже — базовая схема первого вызова API в формате OpenAI. DeepSeek подчёркивает: это пример без стриминга. Чтобы получать потоковый ответ, нужно выставить параметр stream в true.
Параметры подключения:
base_urlдля формата OpenAI:https://api.deepseek.combase_urlдля формата Anthropic:https://api.deepseek.com/anthropicapi_key: ваш ключ, который вы получаете у DeepSeekmodel(выберите одно из):deepseek-v4-flashdeepseek-v4-prodeepseek-chat(до 24.07.2026)deepseek-reasoner(до 24.07.2026)
DeepSeek отдельно подчёркивает соответствие старых имён:
deepseek-chat= не «думающий» режимdeepseek-v4-flashdeepseek-reasoner= «думающий» режимdeepseek-v4-flash
После получения API‑ключа вы можете использовать примеры в формате OpenAI. Конкретный код в исходном фрагменте не приведён, но структура запроса стандартна для современных чат‑моделей: вы отправляете список сообщений с ролями (system, user, assistant) и получаете ответ с текстом и метаданными.
Для формата Anthropic DeepSeek предлагает отдельные примеры и документацию: там используются привычные для Claude поля вроде messages, max_tokens, temperature и т.п. Логика та же, что и у официального API Anthropic, но с другим base_url и ключом.
Если вы уже работаете с OpenAI SDK или Anthropic SDK, маршрут простой:
- Установите нужный SDK (если его ещё нет в проекте).
- В конфигурации клиента измените
base_urlна адрес DeepSeek. - Задайте
api_keyот DeepSeek. - Выберите модель:
deepseek-v4-flashилиdeepseek-v4-pro. - При необходимости включите стриминг, установив
stream: true.
После этого ваш первый запрос к DeepSeek будет выглядеть почти так же, как текущий запрос к GPT‑модели или Claude: отличается только адрес и имя модели.