Китайский серый рынок продаёт доступ к Claude со скидкой 90% через украденные учётные данные и сбор пользовательских данных для перепродажи
Исследование Оксфордской лаборатории китайской политики (Oxford China Policy Lab) выявило масштабную теневую экономику прокси-сервисов в Китае, перепродающих доступ к моделям Claude от Anthropic всего за 10% от официальной цены.
Прокси-сети, известные в китайских сообществах разработчиков как "станции пересадки", открыто работают на таких платформах, как GitHub, Taobao и Telegram. Низкие цены обеспечиваются комбинацией украденных учётных данных, подмены моделей и сбора пользовательских запросов и ответов для последующей перепродажи в качестве обучающих данных для ИИ.
Эти выводы подтверждают предупреждения, которые в последние недели озвучивали Белый дом и Anthropic. Администрация США в конце апреля обвинила китайские структуры в проведении "промышленных" кампаний по дистилляции американских передовых моделей с использованием десятков тысяч прокси-аккаунтов. Anthropic ещё в феврале сообщила о выявлении примерно 24 000 мошеннических аккаунтов, связанных с китайскими лабораториями, включая DeepSeek, Moonshot AI и MiniMax.
Исследование Цянь описывает модульную цепочку поставок, где большинство участников отвечают лишь за одно-два звена. Операторы верхнего уровня массово регистрируют аккаунты Anthropic, используя бесплатные API-кредиты, корпоративные скидки или разделяя подписки Max стоимостью $200 между десятками пользователей. Часть аккаунтов попадает в пул вообще бесплатно – их оплачивают украденными данными кредитных карт.
Для обхода новейших требований верификации Anthropic, которые теперь включают проверку фото-документов и селфи в реальном времени, цепочка поставок привлекает реальных людей из стран с низким уровнем дохода для прохождения верификации лично. Шаблоном для такого подхода послужил чёрный рынок биометрических данных Worldcoin, где сканы радужной оболочки глаза, собранные в Камбодже и Кении, продавались менее чем за $30.
Немецкие исследователи из Центра информационной безопасности CISPA Гельмгольца провели аудит 17 таких прокси-сервисов и обнаружили массовую подмену моделей. Прокси-доступ, рекламируемый как "Gemini-2.5", набрал лишь 37% на медицинском бенчмарке, тогда как официальный API показал почти 84%. Пользователи, запрашивающие Claude Opus, вместо этого могут получать ответы от более дешёвых моделей вроде Sonnet, Haiku или даже китайских альтернатив типа Qwen, при этом выходные данные мошеннически перемаркировываются.
Операторы прокси также собирают каждый запрос и ответ, проходящий через их серверы. Для кодинг-агентов это означает полные цепочки рассуждений, контекст репозиториев и проверенные человеком результаты. Несколько китайских разработчиков рассказали, что наценка за доступ по сути представляет собой привлечение клиентов, а сбор логов и есть настоящий бизнес. Датасеты с рассуждениями Claude Opus 4.6 без ясного происхождения уже циркулируют на HuggingFace.
Собранные через прокси данные рассуждений невероятно ценны для дистилляции, ведь результаты рассуждений можно систематически захватывать и использовать для обучения конкурирующих моделей. Прокси-серверы предлагают тот же конвейер с меньшими усилиями, так как платящие клиенты генерируют обучающие данные добровольно.
Потенциальные риски безопасности выходят далеко за рамки обучения моделей. Кодинг-агенты регулярно передают контекстные данные репозиториев, структуры API и логику аутентификации в модель.
Разработчики, направляющие этот трафик через непроверенный прокси, фактически отправляют проприетарный исходный код на сторонний сервер без каких-либо обязательств по обработке данных.
Samsung столкнулась с похожей проблемой в 2023 году, когда инженеры её фабрик вставили проприетарный код в ChatGPT, непреднамеренно раскрыв конфиденциальные данные о производстве полупроводников серверам OpenAI. Прокси-сервисы создают аналогичную категорию рисков, но без даже базовых условий использования, которые предоставляют крупные ИИ-провайдеры.
Anthropic заблокировала доступ к Claude для китайских структур ещё в сентябре и с тех пор вводит всё более строгую верификацию. Однако исследование показывает, что каждый новый контроль порождает соответствующий рынок обхода, а не снижает общий объём несанкционированного доступа.
- Создатель Stellar Blade призвал Южную Корею активно внедрять ИИ для конкуренции с огромными американскими и китайскими студиями
- Китай предложил правила для ИИ-чатботов с требованием следовать социалистическим ценностям
- Apple Intelligence в Китае проверят 2000 идеологическими вопросами – ИИ должен научиться молчать