Мошенники украли у китайца более 620 тысяч долларов с помощью видео и аудио дипфейков
Deepfake-мошенничество в Китае вызывает все большие опасений относительно возможности хакеров легко получать финансовую информацию с использованием искусственного интеллекта. При помощи продвинутых программ, хакеры убедили мужчину из северного Китая перевести деньги своему другу, но направили их на фальшивый счет.
Потерпевший находился в регионе Баотоу, внутренней Монголии, и местная полиция сообщила, что хакер использовал искусственный интеллект для воссоздания визуального и голосового подобия друга. Deepfake-мошенничество заставило потерпевшего поверить, что он переводит 4,3 миллиона юаней (622 000 долларов) своему другу в качестве залога для участия в торгах. Когда друг сказал потерпевшему, что он не знает ни о каком инциденте, мужчина сообщил о мошенничестве в правоохранительные органы, которые, по информации Reuters, заявляют, что им удалось вернуть большую часть украденных средств, но они продолжают работать над возвратом оставшейся суммы.
Социальная сеть Weibo, используется в качестве форума для обсуждения продолжающейся угрозы deepfake-мошенничества. Хэштег "Атаки с использованием искусственного интеллекта по всей стране" стал вирусным и получил более 120 миллионов просмотров в понедельник.
Этот инцидент произошел в условиях роста числа deepfake-мошенничества по всему миру, с сообщениями о том, что мошенники используют технологию искусственного интеллекта для воспроизведения голосов и получения денег по телефону.
Министерство внутренней безопасности США опубликовало доклад, предупреждающий о deepfake-мошенничестве: "Очевидно, что степень и срочность текущей угрозы от искусственных медиа зависит от осведомленности, перспективы и позиции тех, кого вы спрашиваете. Спектр обеспокоенности варьируется от "острой угрозы" до "не паникуйте, просто будьте готовы".
В Великобритании генеральный директор местной энергетической компании перевел 220 тысяч евро (примерно 243 000 долларов) на банковский счет венгерского поставщика после того, как получил звонок от своего предполагаемого начальника. Голос на самом деле принадлежал мошеннику, который использовал технологию искусственного интеллекта для воссоздания голоса начальника, и генеральный директор сказал The Wall Street Journal, что он узнал тонкий немецкий акцент и сказал, что голос "имел мелодику" его собственного голоса.
Тем временем, в США полицейский участок в южном Висконсине предупредил жителей в начале этого месяца о похожих мошеннических схемах после того, как кто-то сообщил, что получил звонок от человека, "похожего на их родственника", сообщает NBC Chicago. Хотя полиция сказала, что они не могут официально подтвердить, что это голос сгенерирован ИИ, они написали в сообщении на Facebook: "Мы хотим, чтобы наше сообщество знало, что такая технология существует".
Министерство внутренней безопасности заявило, что подобные ситуации "неизбежно будут происходить чаще, поскольку стоимость и другие ресурсы, необходимые для создания пригодных для использования дипфейков постоянно снижаются". Чтобы избежать проблем, Министерство внутренней безопасности рекомендует позвонить тому, кто якобы просит деньги, чтобы подтвердить достоверность. Также стоит внимательно относится к распространенным запросам мошенников, включающим просьбу "перевести деньги, отправить криптовалюту или купить подарочные карты и сообщить номера карт и PIN-коды".
- Китай может построить на Луне вращающуюся магнитную установку для доставки на Землю гелия-3 и питания термоядерных реакторов
- Получатели кодов Black Myth: Wukong для обзоров не могут обсуждать феминизм, Китайскую игровую политику и другое
- Китайская ракета разрушилась на орбите, оставив опасный след из космического мусора