Пентагон угрожает разорвать контракт с Anthropic из-за отказа снять ограничения на слежку и автономное оружие
Отношения между ИИ-компанией Anthropic и американскими военными стремительно деградируют. По данным Axios и Wall Street Journal, администрация Трампа рассматривает возможность разрыва партнёрства с компанией после того, как та отказалась снять ограничения на использование своего ИИ-ассистента Claude в системах массовой слежки за гражданами и полностью автономном вооружении.
Поводом для обострения стали сообщения о том, что Пентагон задействовал Claude в ходе операции против Венесуэлы, включая захват президента страны Николаса Мадуро. Точные детали применения ИИ по-прежнему не раскрываются, однако сам факт использования публично доступного чат-бота в военной операции оказался крайне чувствительным.
На фоне этого случая Anthropic связалась с военным подрядчиком Palantir, через которого предположительно и осуществлялось развёртывание, чтобы прояснить ситуацию.
Официальный представитель Anthropic воздержался от прямого комментария относительно того, применялся ли Claude в конкретной операции, однако напомнил:
Любое использование Claude – как в частном секторе, так и в государственных структурах – обязано соответствовать нашим Политикам использования.
Согласно этим правилам, Claude запрещено применять для "содействия актам насилия", "разработки оружия" и "слежки".
Конфликт не ограничивается Венесуэлой. Ещё в конце января стороны разошлись во взглядах на условия контракта стоимостью до 200 миллионов долларов, подписанного летом прошлого года. В частности, разногласие возникло по вопросу о том, какие именно ведомства вправе использовать технологию, включая иммиграционную службу и ФБР.
Реакция чиновников оказалась недвусмысленной, даже рассматривая сворачивание сотрудничества. Другой источник выразился ещё откровеннее:
Это будет чертовски болезненный процесс – и мы позаботимся о том, чтобы они заплатили цену за то, что загнали нас в угол.
Позиция Anthropic при этом расходится не только с позицией Пентагона, но и с риторикой министра обороны Пита Хегсета, который ранее пообещал, что военное ведомство не будет "использовать ИИ-модели, которые не позволяют вести войны".
Глава Anthropic Дарио Амодеи, напротив, неоднократно предупреждал о рисках неконтролируемого применения ИИ, а в одном из недавних материалов назвал масштабную слежку с помощью ИИ преступлением против человечества.
Пока конфликт с властями набирает обороты, в пользовательском сообществе позицию компании встретили неожиданно тепло:
Отличная работа, Anthropic – вы стали лучшей закрытой ИИ-компанией в моём личном рейтинге.
Anthropic, в свою очередь, продолжает настаивать на том, что привержена использованию передового ИИ в интересах национальной безопасности США – при условии соблюдения собственных этических границ.
- Claude Opus 4.6 установила рекорд в бенчмарке, но её методы оказались мошенническими и привели к картельному сговору
- Новая модель Claude сама нашла 500 уязвимостей и напугала Уолл-стрит
- Anthropic пообещала не добавлять рекламу в Claude в отличие от ChatGPT