- Дата публикации
Anthropic поймала китайские ИИ‑лаборатории на массовой «перекачке» возможностей Claude
Что произошло
Anthropic заявила, что три лаборатории — DeepSeek, Moonshot AI и MiniMax — запустили промышленные кампании по выкачиванию возможностей Claude. Речь именно о Claude 3‑семействе, которое Anthropic позиционирует как флагман.
По данным Anthropic, эти команды создали около 24 000 фейковых аккаунтов и через них прогнали свыше 16 миллионов диалогов с Claude. Всё это нарушает правила сервиса и региональные ограничения доступа.
Лабы использовали технику под названием «дистилляция». Они давали Claude задания, собирали ответы и обучали на них свои, более слабые модели. Официально дистилляция — нормальная практика: так крупные игроки делают компактные и дешёвые версии вроде «лайт»-моделей на базе своих же систем. Но здесь речь о копировании чужих возможностей, а не о работе со своими.
Каждая из трёх кампаний била по сильным сторонам Claude: сложное пошаговое рассуждение, работа с инструментами и код. Anthropic заявляет, что с высокой уверенностью привязала активность к конкретным лабораториям по IP‑адресам, метаданным запросов и инфраструктуре, а частично — по данным от других ИИ‑платформ.
Контекст
Дистилляция сама по себе не зло. Anthropic, OpenAI, Google, Meta и другие регулярно дистиллируют свои крупные модели в более компактные версии, чтобы они помещались на меньшие GPU‑кластеры и встраивались в продукты.
Проблема в другом: нелегально дистиллированные модели почти наверняка теряют встроенные «предохранители». Anthropic и другие американские компании тратят много ресурсов на то, чтобы Claude и аналоги не помогали создавать биологическое оружие, проводить сложные кибератаки или масштабные операции по дезинформации.
Если DeepSeek, Moonshot AI или MiniMax вытаскивают из Claude 3 способность к рассуждению и генерации кода, но не копируют всю систему ограничений, на выходе получается мощный, но плохо контролируемый инструмент. Такой ИИ легко встраивается в военные, разведывательные и системы слежки. Особенно если его разрабатывают под контролем авторитарных правительств.
Anthropic напрямую связывает это с экспортным контролем США на чипы и ИИ‑системы. Идея проста: экспортные ограничения должны замедлить развитие сильных ИИ у конкурентов. Дистилляционные атаки частично обходят этот барьер: вместо того чтобы с нуля тренировать модель уровня Claude 3 на тысячах топовых GPU, лаборатория может «дособрать» её, доучив свою систему на ответах американского ИИ.
При этом сами атаки тоже требуют мощных чипов. Нужно не только слать миллионы запросов в Claude, но и обучать свою модель на полученных данных. Anthropic использует этот аргумент в пользу жёстких ограничений на поставки передовых GPU: без них тяжело и тренировать собственные модели, и воровать чужие возможности через дистилляцию.
Отдельная линия — масштаб и качество операций. DeepSeek провела более 150 000 диалогов с Claude. Исследователи синхронизировали трафик через разные аккаунты, использовали одни и те же платёжные данные и чёткое «распараллеливание» запросов. Это похоже не на спонтанное тестирование, а на продуманную инфраструктуру.
Один из приёмов: DeepSeek просила Claude не только отвечать на вопрос, но и подробно «проговорить» внутреннюю логику решения — пошаговые рассуждения. Такой chain‑of‑thought‑контент особенно ценен для обучения своих моделей сложному мышлению.
Ещё один фокус DeepSeek — «цензурно‑безопасные» ответы на политически чувствительные запросы. Исследователи просили Claude переписать вопросы о диссидентах, партийных лидерах и авторитаризме так, чтобы они не задевали цензуру. Логичный вывод: эти данные нужны, чтобы их собственные модели умели уходить от «опасных» тем в нужном для цензоров стиле.
Moonshot AI, по оценке Anthropic, пошла ещё дальше по масштабу: свыше 3,4 миллиона диалогов. Там фокус был на агентном поведении и работе с инструментами, программировании, анализе данных и даже управлении компьютером через ИИ‑агента. Это уже не просто чат‑бот, а заготовка под автономные системы, которые сами ставят себе подзадачи и пользуются внешними сервисами.
Что это значит для вас
Если вы работаете с ИИ‑продуктами — от стартапа до корпорации — история про DeepSeek, Moonshot AI и MiniMax даёт несколько прямых выводов.
Во‑первых, эра «честной игры» между ИИ‑лабораториями закончилась. Крупные игроки уже не стесняются массово дистиллировать чужие системы, если считают риск приемлемым. Значит, вам нужно заранее думать о защите своих моделей и API: лимиты, аномалия‑детекция, анализ паттернов запросов, юридические механизмы.
Во‑вторых, если вы строите бизнес на сторонних ИИ вроде Claude 3, GPT‑4.1 или Gemini 2.0, нужно понимать риски регуляторного отката. Чем громче истории про утечку возможностей и ослабление экспортного контроля, тем выше шанс жёстких ограничений на доступ к мощным моделям и чипам. Это может ударить по стоимости и стабильности вашего стека.
В‑третьих, для разработчиков и дата-сайентистов дистилляция остаётся рабочим инструментом. Но граница между легальной оптимизацией и нарушением прав становится всё тоньше. Если вы дистиллируете свои системы — всё ок. Если строите пайплайны, которые массово выкачивают chain‑of‑thought и код из чужих API, — вы рискуете и юридически, и репутационно.
Наконец, для широкой аудитории и людей, работающих с чувствительными данными, это сигнал: ИИ‑гонка давно вышла за рамки маркетинга и красивых демо. От того, кто контролирует мощные модели и их «клоны», зависят кибербезопасность, медиасреда и уровень слежки. При выборе ИИ‑сервисов теперь важно смотреть не только на качество ответов, но и на то, как их создатели относятся к безопасности и политике доступа.