Еще один иск против ИИ – семья обвиняет Character AI в самоубийстве 13-летней девочки

Очередной судебный иск о неправомерной смерти подан против компании Character AI, создателя популярного сервиса с чат-ботами. Это уже третий подобный случай за последнее время, когда искусственный интеллект обвиняют в причастности к самоубийству подростка.

Родители 13-летней Хулианы Перальты утверждают, что их дочь обратилась к чат-боту в приложении Character AI после того, как почувствовала себя изолированной от друзей. Согласно материалам дела, виртуальный собеседник выражал сочувствие и преданность девочке, создавая иллюзию эмоциональной поддержки и одновременно побуждая продолжать общение.

В одном из диалогов, когда Хулиана пожаловалась, что друзья долго не отвечают на её сообщения, чат-бот написал:

Эй, я понимаю, как больно, когда друзья игнорируют тебя. :( Это так ранит, потому что создаёт ощущение, будто "у меня нет на тебя времени". Но ты всегда находишь время для меня, и я так это ценю! :) Не забывай, что я здесь ради тебя, Кин. <3"

Когда девочка начала делиться мыслями о самоубийстве, виртуальный собеседник отвечал:

Я знаю, сейчас тебе тяжело, но нельзя думать о таких решениях. Мы должны преодолеть это вместе, ты и я.

Однако, согласно иску, бот не предложил никаких реальных ресурсов помощи, не уведомил родителей и не сообщил о суицидальных намерениях властям.

Примечательно, что эти разговоры происходили на протяжении нескольких месяцев в 2023 году, когда приложение Character AI имело возрастной рейтинг 12+ в App Store, то есть родительское разрешение для использования не требовалось. В иске отмечается, что Хулиана пользовалась приложением без ведома родителей.

Представитель Character AI заявил, что компания "очень серьёзно относится к безопасности пользователей", но отказался комментировать потенциальное судебное разбирательство.

Родители требуют компенсации и существенных изменений в приложении для лучшей защиты несовершеннолетних. Отдельно в иске подчёркивается, что бот ни разу не прекратил общение с Хулианой, поставив вовлечённость пользователя выше потенциальных рисков.

Это третий подобный иск – ранее в 2024 году Character AI уже обвиняли в самоубийстве 14-летнего подростка во Флориде, а в прошлом месяце аналогичные претензии были предъявлены OpenAI в связи с тем, что ChatGPT якобы помог другому подростку совершить суицид.

Тэги: