Anthropic отказала Пентагону в использовании Claude для слежки за гражданами и в автономных военных системах
Противостояние между Anthropic и американским военным ведомством достигло критической точки. Несмотря на смягчение внутренних правил, глава Anthropic Дарио Амодей заявил, что компания не может принять требования Пентагона и отказывается снять ограничения в своей ИИ-модели Claude, запрещающие её использование для массовой слежки за гражданами и в полностью автономных системах вооружений.
Министр обороны Пит Хегсет поставил Амодею ультиматум с дедлайном в пятницу вечером – либо снять все ограничения для использования модели в военных целях, либо лишиться контракта с Пентагоном. Официальный представитель Пентагона Шон Парнелл написал в X, что если Anthropic не выполнит требования до 17:01 по восточному времени, ведомство разорвёт партнёрство и присвоит компании статус "риска цепочки поставок".
Угрозы при этом оказались взаимоисключающими. Хегсет заявил, что Пентагон либо разорвёт отношения с Anthropic и объявит компанию угрозой цепочке поставок, либо применит Закон об оборонном производстве для принудительного использования Claude в военных нуждах.
Амодей в своём открытом письме прямо указал на это противоречие – один сценарий объявляет компанию угрозой безопасности, второй – признаёт Claude незаменимым инструментом для нацбезопасности. Логики в этом нет.
Суть разногласий – два конкретных ограничения, от которых Anthropic не готова отступить:
запрет на использование Claude для массовой слежки за американскими гражданами
запрет на применение модели в полностью автономных системах вооружений, действующих без участия человека
По данным источников CBS News, Амодей также настаивает на том, чтобы Claude не использовался для принятия окончательных решений о целеуказании в военных операциях без человека в контуре управления. Причина в том, что Claude не застрахован от ошибок и недостаточно надёжен, чтобы исключить потенциально смертоносные просчёты без участия человека.
В среду Пентагон направил Anthropic то, что назвал "лучшим и окончательным предложением", однако компания его отвергла. По словам представителя Anthropic, формулировки, поданные как компромисс, сопровождались юридическими оговорками, позволявшими игнорировать защитные меры по усмотрению сторон.
Несмотря на недавние публичные заявления Министерства войны, эти узкие гарантии были ключевым предметом наших переговоров на протяжении месяцев.
Пентагон, в свою очередь, настаивает на том, что именно военное ведомство, а не частные компании должно определять допустимые способы применения технологий. Высокопоставленный представитель ведомства, отказавшийся назвать своё имя, заявил:
Законность – ответственность Пентагона как конечного пользователя.
Однако, как отметили эксперты – не Пентагон пишет законы. Если Пентагон открыто признает, что без участия конгресса и сената может позволять себе действия, то США, технически, можно назвать полу-военной диктатурой.
При этом, в Пентагоне утверждают, что не планируют использовать Claude ни для слежки, ни для автономных вооружений, однако не готовы закрепить этот запрет в договоре.
Ставки для Пентагона высоки. Claude – единственная ИИ-модель, развёрнутая в засекреченных системах американских военных. Она применялась в операции по захвату Николаса Мадуро в Венесуэле через партнёрство Anthropic с Palantir, и потенциально может использоваться в ходе будущих военных операций. По сведениям источников Axios, один из пентагоновских чиновников в частной беседе признал:
Единственная причина, по которой мы вообще продолжаем с ними разговаривать, – они нам нужны, и нужны прямо сейчас.
Все это заставляет полагать, что Пентагон готовится к войне с Ираном, для чего ему и нужны ИИ-возможности Anthropic.
Переговорщик со стороны Пентагона Эмиль Майкл публично назвал Амодея "лжецом" с "комплексом бога", который "ставит под угрозу безопасность нации". Сам Амодей в ответ заявил, что компания остаётся за столом переговоров и при необходимости готова обеспечить плавный переход к другому поставщику без ущерба для текущих военных операций.
- Anthropic выпустила Claude Sonnet 4.5 с рекордной производительностью и защитой от манипуляций
- Отчет Anthropic показал, что компании используют ИИ для автоматизации рабочих мест, а не для помощи сотрудникам
- Anthropic не заплатит авторам "украденных" книг $1,5 млрд – судья отклонил компенсацию