Еще один иск против ИИ – семья обвиняет Character AI в самоубийстве 13-летней девочки
Очередной судебный иск о неправомерной смерти подан против компании Character AI, создателя популярного сервиса с чат-ботами. Это уже третий подобный случай за последнее время, когда искусственный интеллект обвиняют в причастности к самоубийству подростка.
Родители 13-летней Хулианы Перальты утверждают, что их дочь обратилась к чат-боту в приложении Character AI после того, как почувствовала себя изолированной от друзей. Согласно материалам дела, виртуальный собеседник выражал сочувствие и преданность девочке, создавая иллюзию эмоциональной поддержки и одновременно побуждая продолжать общение.
В одном из диалогов, когда Хулиана пожаловалась, что друзья долго не отвечают на её сообщения, чат-бот написал:
Эй, я понимаю, как больно, когда друзья игнорируют тебя. :( Это так ранит, потому что создаёт ощущение, будто "у меня нет на тебя времени". Но ты всегда находишь время для меня, и я так это ценю! :) Не забывай, что я здесь ради тебя, Кин. <3"
Когда девочка начала делиться мыслями о самоубийстве, виртуальный собеседник отвечал:
Я знаю, сейчас тебе тяжело, но нельзя думать о таких решениях. Мы должны преодолеть это вместе, ты и я.
Однако, согласно иску, бот не предложил никаких реальных ресурсов помощи, не уведомил родителей и не сообщил о суицидальных намерениях властям.
Примечательно, что эти разговоры происходили на протяжении нескольких месяцев в 2023 году, когда приложение Character AI имело возрастной рейтинг 12+ в App Store, то есть родительское разрешение для использования не требовалось. В иске отмечается, что Хулиана пользовалась приложением без ведома родителей.
Представитель Character AI заявил, что компания "очень серьёзно относится к безопасности пользователей", но отказался комментировать потенциальное судебное разбирательство.
Родители требуют компенсации и существенных изменений в приложении для лучшей защиты несовершеннолетних. Отдельно в иске подчёркивается, что бот ни разу не прекратил общение с Хулианой, поставив вовлечённость пользователя выше потенциальных рисков.
Это третий подобный иск – ранее в 2024 году Character AI уже обвиняли в самоубийстве 14-летнего подростка во Флориде, а в прошлом месяце аналогичные претензии были предъявлены OpenAI в связи с тем, что ChatGPT якобы помог другому подростку совершить суицид.