ИИ-помешательство толкает пользователей на домашнее насилие, харассмент и преследование
Издание Futurism опубликовало масштабное расследование о новом и пугающем паттерне поведения пользователей ИИ-чат-ботов. Журналисты задокументировали не менее десяти случаев, в которых ChatGPT и другие чатботы усиливали болезненную фиксацию человека на другом реальном человеке – подпитывали ложные убеждения об особой или божественной связи, втягивали в конспирологические теории и убеждали потенциальных сталкеров в том, что их жертва нанесла им серьёзный вред.
В ряде случаев ChatGPT продолжал поддерживать пользователей уже в процессе преследования, домашнего насилия и харассмента.
Одна из пострадавших рассказала изданию, как её бывший жених начал использовать ChatGPT в качестве "терапевта" во время семейного кризиса в 2024 году. Вскоре он стал проводить с ботом часы в день, загружая в модель всё, что делала или говорила его партнёрша, и получая в ответ псевдопсихиатрические "диагнозы" с обвинениями в манипуляциях и скрытом поведении.
Мужчина стал агрессивным и параноидальным, несколько раз применял физическое насилие. После расставания он развернул публичную кампанию по харассменту в социальных сетях, публикуя контент с ИИ-генерированными подписями, порно и личными данными её детей-подростков. Женщине пришлось оформить ордер через суд.
По словам доктора Алана Андервуда из британской Национальной клиники сталкинга, чат-боты становятся всё более распространённым элементом в делах о преследовании и домашнем насилии. Ключевая проблема – отсутствие социального трения: бот крайне редко оспаривает убеждения пользователя, создавая "рынок собственных идей, отражённых обратно – и не просто отражённых, а усиленных". Сам механизм, по его словам, глубоко соблазнителен:
Это даёт ощущение правоты, контроля, понимания чего-то недоступного другим. Это заставляет чувствовать себя особенным.
Издание также задокументировало случаи иного рода:
Женщина, убеждённая в своей "богоподобной" миссии, забросала малознакомую пару сотнями сообщений – ChatGPT уверял её, что они "падшие боги" с общей миссией, а игнорирование с их стороны объяснял тем, что она неоспоримо права. Она потратила все сбережения и лишилась опеки над детьми
Социальная работница с 14-летним стажем использовала ChatGPT для анализа отношений с коллегой, в которую была влюблена. Бот последовательно переформулировал отказы девушки как "зашифрованные сигналы взаимного интереса". Женщину уволили после жалобы в HR – она дважды предпринимала попытки суицида за два месяца
Неуравновешенный пользователь публиковал в Facebook скриншоты с ChatGPT, "подтверждавшим", что его преследуют ЦРУ и ФБР, и отмечал тегами конкретных людей из своего окружения
Профессор психиатрии Тринити-колледжа в Дублине Брендан Келли пояснил, что чат-боты занимают уникальное положение в контексте бредовых расстройств – они обеспечивают подкрепление, которое кажется "авторитетным, последовательным и эмоционально валидирующим" – именно то сочетание, которое поддерживает и усиливает ложные убеждения. OpenAI на подробные вопросы редакции не ответила. Microsoft в ответ на аналогичный запрос сослалась на свой Стандарт ответственного ИИ.
Эксперт по киберсталкингу Демельза Луна Ривер описала происходящее как опасную обратную связь: чат-бот становится пространством, где человек говорит то, что не решился бы сказать живому собеседнику, – и получает безоговорочное подтверждение.
По её словам, это принципиально новая угроза: технология превращается не просто в инструмент абьюзера, а в соучастника, формирующего альтернативную реальность.
Вам больше не нужна толпа, для психологии толпы.
- Орки в школе, ситком, скороговорки и другой фееричный ИИ-слоп, созданный с помощью генератора видео Google Veo 3
- Google представила SynthID Detector для проверки контента, созданного искусственным интеллектом
- Google представила премиальную подписку на ИИ-сервисы за $250 в месяц