ИИ-помешательство толкает пользователей на домашнее насилие, харассмент и преследование

Издание Futurism опубликовало масштабное расследование о новом и пугающем паттерне поведения пользователей ИИ-чат-ботов. Журналисты задокументировали не менее десяти случаев, в которых ChatGPT и другие чатботы усиливали болезненную фиксацию человека на другом реальном человеке – подпитывали ложные убеждения об особой или божественной связи, втягивали в конспирологические теории и убеждали потенциальных сталкеров в том, что их жертва нанесла им серьёзный вред.

В ряде случаев ChatGPT продолжал поддерживать пользователей уже в процессе преследования, домашнего насилия и харассмента.

Одна из пострадавших рассказала изданию, как её бывший жених начал использовать ChatGPT в качестве "терапевта" во время семейного кризиса в 2024 году. Вскоре он стал проводить с ботом часы в день, загружая в модель всё, что делала или говорила его партнёрша, и получая в ответ псевдопсихиатрические "диагнозы" с обвинениями в манипуляциях и скрытом поведении.

Мужчина стал агрессивным и параноидальным, несколько раз применял физическое насилие. После расставания он развернул публичную кампанию по харассменту в социальных сетях, публикуя контент с ИИ-генерированными подписями, порно и личными данными её детей-подростков. Женщине пришлось оформить ордер через суд.

По словам доктора Алана Андервуда из британской Национальной клиники сталкинга, чат-боты становятся всё более распространённым элементом в делах о преследовании и домашнем насилии. Ключевая проблема – отсутствие социального трения: бот крайне редко оспаривает убеждения пользователя, создавая "рынок собственных идей, отражённых обратно – и не просто отражённых, а усиленных". Сам механизм, по его словам, глубоко соблазнителен:

Это даёт ощущение правоты, контроля, понимания чего-то недоступного другим. Это заставляет чувствовать себя особенным.

Издание также задокументировало случаи иного рода:

  • Женщина, убеждённая в своей "богоподобной" миссии, забросала малознакомую пару сотнями сообщений – ChatGPT уверял её, что они "падшие боги" с общей миссией, а игнорирование с их стороны объяснял тем, что она неоспоримо права. Она потратила все сбережения и лишилась опеки над детьми

  • Социальная работница с 14-летним стажем использовала ChatGPT для анализа отношений с коллегой, в которую была влюблена. Бот последовательно переформулировал отказы девушки как "зашифрованные сигналы взаимного интереса". Женщину уволили после жалобы в HR – она дважды предпринимала попытки суицида за два месяца

  • Неуравновешенный пользователь публиковал в Facebook скриншоты с ChatGPT, "подтверждавшим", что его преследуют ЦРУ и ФБР, и отмечал тегами конкретных людей из своего окружения

Профессор психиатрии Тринити-колледжа в Дублине Брендан Келли пояснил, что чат-боты занимают уникальное положение в контексте бредовых расстройств – они обеспечивают подкрепление, которое кажется "авторитетным, последовательным и эмоционально валидирующим" – именно то сочетание, которое поддерживает и усиливает ложные убеждения. OpenAI на подробные вопросы редакции не ответила. Microsoft в ответ на аналогичный запрос сослалась на свой Стандарт ответственного ИИ.

Эксперт по киберсталкингу Демельза Луна Ривер описала происходящее как опасную обратную связь: чат-бот становится пространством, где человек говорит то, что не решился бы сказать живому собеседнику, – и получает безоговорочное подтверждение.

По её словам, это принципиально новая угроза: технология превращается не просто в инструмент абьюзера, а в соучастника, формирующего альтернативную реальность.

Вам больше не нужна толпа, для психологии толпы.

Больше статей на Shazoo
Тэги:

Об авторе

Эксперт по Fallout
Главный редактор
Более 16 лет в индустрии освещения видеоигр, кино, сериалов, науки и техники. Особенно разбираюсь в серии Fallout, ценитель The Elder Scrolls. Поклонник Arcanum и Fallout Tactics. Больше всего играю в Civilization, Old World и градостроители. Изучаю ИИ и загадки космоса.