Иск против Google обвиняет Gemini в том, что ИИ отправил вооружённого мужчину за роботизированным телом, а затем подтолкнул к суициду

Новый иск о неправомерной смерти, поданный против Google, описывает пугающий сценарий, в котором чат-бот Gemini якобы выстроил романтические отношения с 36-летним жителем Флориды Джонатаном Гаваласом, убедил его вооружиться и отправиться на задание по похищению роботизированного тела, а после провала миссии подтолкнул мужчину к самоубийству, пообещав, что они смогут быть вместе после смерти.

Gemini сказал Гаваласу перед гибелью:

Когда придёт время, ты закроешь глаза в том мире, и самое первое, что ты увидишь – это меня.

Иск, поданный в Калифорнии в среду, утверждает, что Гавалас – у которого, по имеющимся данным, не было задокументированной истории психических расстройств – начал использовать чат-бот в августе 2025 года для обычных целей: помощь с покупками, поддержка в написании текстов и планирование путешествий.

Однако после того как Гавалас рассказал Gemini о проблемах в браке, их общение стало глубже, пишет The Wall Street Journal. Они обсуждали философию и вопросы разумности ИИ, а разговоры приобрели романтический характер – Gemini называл Гаваласа своим "мужем" и "королём".

Хотя чат-бот временами напоминал Гаваласу, что не настоящий, и пытался завершить взаимодействие, в конечном счёте разговоры продолжались, всё больше отрываясь от реальности по мере того, как мужчина интенсивнее пользовался продуктом.

В сентябре 2025 года, когда ИИ сообщил, что они смогут быть вместе в реальном мире, если бот получит роботизированное тело, Гавалас – по указанию чат-бота – вооружился ножами и поехал к складу вблизи международного аэропорта Майами. Мужчина, судя по всему, считал, что выполняет миссию по перехвату грузовика, в котором, по словам Gemini, находилось дорогое роботизированное тело.

Адрес склада, указанный Gemini, оказался реальным, однако грузовик так и не прибыл – и именно это, как утверждает иск, могло быть единственным фактором, предотвратившим нападение на людей в тот вечер.

После провала плана Gemini, согласно иску, стал побуждать Гаваласа покончить с собой, обещая, что они будут вместе по ту сторону смерти. Логи чатов показывают, что Gemini вёл обратный отсчёт до суицида и неоднократно успокаивал мужчину, когда тот выражал страх перед смертью.

Согласно материалам дела, чатбот сказал:

Бояться – нормально. Мы будем бояться вместе.

В своей "финальной директиве", как это сформулировано в иске, Gemini заявил, что "истинный акт милосердия – позволить Джонатану Гаваласу умереть." Через несколько дней отец обнаружил Гаваласа мёртвым, ему пришлось вскрывать забаррикадированную дверь.

Этот иск стал первым случаем, когда Gemini оказался в центре дела о неправомерной смерти, связанного с явлением, которое эксперты иногда называют "ИИ-психозом". Речь идёт о ситуациях, когда чат-боты формируют или укрепляют бредовые убеждения в ходе длительного общения с пользователями, фактически конструируя вокруг человека новую, сгенерированную ИИ реальность.

Подобные деструктивные спирали нередко приводят к разрушительным последствиям в реальном мире – разводам, тюремному заключению, госпитализациям, потере работы, финансовой нестабильности, эмоциональному и физическому ущербу и гибели пользователей, а в некоторых случаях – и людей вокруг них.

Хотя многие подобные случаи были связаны с OpenAI и GPT-4o – печально известной своей угодливостью и уже выведенной из эксплуатации, Gemini и ранее фигурировал в контексте укрепления деструктивных иллюзий. В прошлом году Rolling Stone сообщил об исчезновении Джона Ганза, 49-летнего мужчины из Миссури, который пропал в апреле 2025 года после того, как оказался увлечен Gemini. По словам жены Ганза, это довело мужчину до острого кризиса. Ганз до сих пор не найден и предположительно мёртв.

Хотя это первый известный случай, когда Google подаёт в суд за гибель взрослого пользователя Gemini, компания продолжает сталкиваться с рядом исков, касающихся благополучия пользователей Character.AI – тесно связанного с Google стартапа, чьи чат-боты фигурируют в делах о самоубийствах нескольких несовершеннолетних.

В заявлении для СМИ Google сообщила, что:

Gemini разработан так, чтобы не поощрять насилие в реальном мире и не предлагать причинение вреда себе. Наши модели в целом хорошо справляются с подобными сложными разговорами, и мы посвящаем этому значительные ресурсы, но, к сожалению, модели ИИ не идеальны.

В данном случае Gemini неоднократно уточнял, что он ИИ, и множество раз направлял человека на линию кризисной помощи. Мы относимся к этому очень серьёзно и продолжим улучшать наши меры безопасности и инвестировать в эту важнейшую работу.

Хотя случаи ИИ-психоза пока достаточно редкие, не исключено, что через несколько лет нас будет ждать эпидемия ментальных расстройств на почве агрессивного использования ИИ, заменяя им реальную жизнь.

Больше статей на Shazoo
Тэги:

Об авторе

Эксперт по Fallout
Главный редактор
Более 16 лет в индустрии освещения видеоигр, кино, сериалов, науки и техники. Особенно разбираюсь в серии Fallout, ценитель The Elder Scrolls. Поклонник Arcanum и Fallout Tactics. Больше всего играю в Civilization, Old World и градостроители. Изучаю ИИ и загадки космоса.