- Дата публикации
Пентагон назвал Anthropic «неприемлемым риском» для нацбезопасности из‑за корпоративных red lines
Что произошло
Министерство обороны США во вторник вечером официально назвало Anthropic «неприемлемым риском для национальной безопасности». Это первый подробный ответ Пентагона на иски Anthropic против решения главы ведомства Пита Хегсета от прошлого месяца. Тогда он внес Anthropic в список рисков для цепочки поставок Минобороны.
Anthropic в своих исках просила суд временно запретить Пентагону применять этот статус. Теперь Минобороны подало 40‑страничный документ в федеральный суд Калифорнии, где объяснило, почему считает компанию угрозой.
Ключевой аргумент Пентагона: Anthropic может попытаться отключить свои ИИ‑системы или заранее изменить поведение моделей во время боевых операций. Ведомство опасается, что это произойдет, если руководство Anthropic решит, что военные нарушают корпоративные «red lines» компании.
Anthropic прошлым летом подписала с Пентагоном контракт на 200 миллионов долларов. По нему лаборатория должна внедрить свои ИИ‑технологии в засекреченные системы Минобороны. Сейчас стороны спорят о том, как именно военные могут использовать эти системы.
Слушание по ходатайству Anthropic о временном судебном запрете назначено на следующий вторник. Anthropic на момент публикации не ответила на запрос о комментарии.
Контекст
После подписания контракта на 200 миллионов долларов Anthropic начала обсуждать с Пентагоном ограничения на использование своих ИИ‑моделей. Компания заявила, что не хочет, чтобы её системы применяли для массовой слежки за гражданами США. Кроме того, Anthropic считает, что её ИИ пока не готов участвовать в выборе целей и принятии решений о применении летального оружия.
Пентагон с этим не согласился. По позиции ведомства, частная компания не должна диктовать военным, как использовать технологии в боевых сценариях. Фактически Минобороны говорит: если ИИ внедряют в военную инфраструктуру, он должен работать по правилам военных, а не по корпоративному этическому кодексу.
Ответ Anthropic — серия судебных исков. Лаборатория обвиняет Минобороны в нарушении Первой поправки Конституции США и давлении по идеологическим мотивам. По мнению Anthropic, Пентагон наказывает компанию за её публичную позицию по этике ИИ и ограничениям на военное применение.
История уже вышла за рамки спора одного подрядчика с заказчиком. К Anthropic публично присоединились сотрудники и топ‑менеджеры из OpenAI, Google и Microsoft. Крупные технологические компании и правозащитные организации подали в суд amicus briefs — документы в поддержку позиции Anthropic.
Критики Минобороны утверждают: если Пентагон недоволен условиями, он мог просто расторгнуть контракт. Вместо этого ведомство выбрало жёсткий путь с ярлыком «риск для цепочки поставок», который бьёт по репутации Anthropic и может закрыть ей дорогу к другим госконтрактам.
Что это значит для вас
Для разработчиков и продуктовых команд, которые работают с ИИ, эта история — сигнал: этические ограничения в договорах с крупными заказчиками уже не теория, а поле реальных конфликтов. Если вы строите сервисы вокруг Claude или других моделей Anthropic, стоит учитывать, что долгосрочные отношения компании с госструктурами под вопросом. Это может влиять на приоритеты развития продуктов и политику безопасности.
Для юристов и комплаенс‑команд это кейс о том, как корпоративные «red lines» сталкиваются с требованиями государства. Речь не только о США: прецедент показывает, как регуляторы могут давить на поставщиков ИИ, если те пытаются ограничивать военное применение своих технологий.
Для СЕО и фаундеров ИИ‑стартапов главный вывод в балансе: чем активнее вы декларируете жёсткие этические рамки, тем важнее заранее понимать, как их воспримут крупные клиенты и регуляторы. Anthropic выбрала стратегию, где ценности важнее бесконечной кастомизации под запросы военных. Плюс — доверие части рынка, минус — реальный риск потерять крупные госконтракты.
Для всех, кто следит за ИИ‑политикой, это тест: кто в итоге задаёт правила для военного ИИ — разработчики, которые пишут политики использования, или государство, которое платит за внедрение. Ответ, который даст суд на слушании во вторник, может задать тон для десятков будущих контрактов на ИИ в оборонке и за её пределами.