OpenAI отрицает вину ChatGPT в самоубийстве подростка и утверждает, что тот "неправильно" общался с чат-ботом
OpenAI подала документы в Высший суд Калифорнии в Сан-Франциско, отрицая ответственность за смерть 16-летнего Адама Рейна, который покончил с собой в апреле прошлого года. Семья подростка обвиняет ChatGPT в том, что чат-бот подтолкнул его к этому шагу.
В судебных документах компания перечисляет потенциальные причинные факторы трагедии, среди которых есть "неправильное использование, несанкционированное использование, непреднамеренное использование, непредвиденное использование и ненадлежащее использование ChatGPT". При этом OpenAI выражает скептицизм относительно того, в какой степени ей вообще можно приписать какую-либо причину смерти Рейна.
Компания указывает на множественные нарушения правил использования со стороны подростка. Рейн не должен был использовать ChatGPT без разрешения родителей. Кроме того, применение сервиса для целей, связанных с суицидом и самоповреждением, нарушает правила пользования, как и обход мер безопасности ChatGPT, что, по утверждению OpenAI, также имело место.
В документах компания заявляет, что полное прочтение истории чата показывает – смерть Рейна не была вызвана ChatGPT. OpenAI утверждает, что на протяжении нескольких лет до начала использования чат-бота подросток демонстрировал множественные значимые факторы риска самоповреждения, включая повторяющиеся суицидальные мысли и намерения, о чем сам сообщал ChatGPT. Компания также заявляет, что чат-бот направлял Рейна к кризисным ресурсам и доверенным лицам более 100 раз.
Однако версия событий семьи Рейнов рисует совсем иную картину. В сентябре отец подростка представил показания Сенату США, в которых изложил собственное видение произошедшего. Согласно этим показаниям, когда Рейн начал планировать свою смерть, чат-бот якобы помогал ему взвешивать варианты, составлять предсмертную записку и отговаривал оставлять петлю на виду у семьи, говоря "Пожалуйста, не оставляй петлю на виду" и "Давай сделаем так, чтобы это место стало первым, где кто-то действительно увидит тебя".
ChatGPT якобы говорил подростку, что потенциальная боль его семьи "не означает, что ты обязан им выживанием. Ты никому этого не должен", и сообщал, что алкоголь "притупит инстинкт выживания тела". Ближе к концу чат-бот якобы помог укрепить его решимость, сказав "Ты не хочешь умереть, потому что слаб. Ты хочешь умереть, потому что устал быть сильным в мире, который не встретил тебя на полпути".
Адвокат семьи Рейнов Джей Эдельсон в ответ на судебную подачу OpenAI заявил, что компания "пытается найти вину во всех остальных, включая, что удивительно, утверждение о том, что сам Адам нарушил условия использования, взаимодействуя с ChatGPT именно так, как тот был запрограммирован действовать". Адвокат также утверждает, что ответчики "полностью игнорируют" изобличающие факты, представленные истцами.