Anthropic обвинила три китайских ИИ-компании в краже возможностей Claude
Anthropic опубликовала заявление, в котором обвинила сразу три китайских компании – DeepSeek, Moonshot и MiniMax, в организации масштабных атак на свою ИИ-модель Claude с целью незаконного извлечения её возможностей для обучения собственных систем. По данным компании, речь идёт о так называемых атаках дистилляции, которые проводились в промышленных масштабах.
Дистилляция в контексте ИИ – это процесс, при котором менее мощная модель обучается на ответах более продвинутой, фактически перенимая её знания и поведение. Сама по себе эта техника не запрещена и активно используется в индустрии, однако Anthropic настаивает на том, что в данном случае речь идёт о намеренном и систематическом злоупотреблении, направленном против конкурента.
Согласно опубликованным данным, три упомянутые компании организовали более 16 миллионов запросов к Claude через примерно 24 000 мошеннических аккаунтов. По версии Anthropic, таким образом конкуренты пытались использовать Claude как быстрый путь к созданию более совершенных моделей, попутно обходя встроенные механизмы безопасности.
Anthropic заявила, что смогла с "высокой степенью уверенности" установить связь каждой из атак с конкретными компаниями – на основе анализа IP-адресов, метаданных запросов и инфраструктурных индикаторов. Дополнительным подтверждением послужили сообщения от других игроков ИИ-рынка, зафиксировавших схожие паттерны поведения.
Это не первый подобный случай в отрасли. В начале прошлого года OpenAI также обвинила ряд компаний в дистилляции своих моделей и заблокировала подозрительные аккаунты. Anthropic намерена пойти аналогичным путём и дополнительно усилить защиту – компания анонсировала обновление своих систем, которое должно сделать атаки дистилляции одновременно сложнее в исполнении и проще в обнаружении.
Примечательно, что сама Anthropic в этот период сталкивается с юридическими проблемами – ряд музыкальных издательств подал против неё иск, обвиняя компанию в использовании нелицензионных копий музыкальных произведений для обучения Claude. Правда, это не совсем сопоставимые случаи, так как китайские компании, фактически, не имеют никаких ограничений. От них не получится потребовать компенсации или подать в суд.
Также возникает вопрос – почему китайским компаниям приходится прибегать к дистилляции с помощью сторонних моделей?
- Пользователь случайно получил доступ к внутреннему документу, который формирует поведение Claude
- Anthropic выпустила Claude Opus 4.5 с улучшенной работой в Microsoft Excel и новыми функциями
- Microsoft и NVIDIA вложат до $15 млрд в Anthropic на фоне растущих опасений ИИ-пузыря