Почти три миллиона пользователей ChatGPT испытывают проблемы с психическим здоровьем
OpenAI опубликовала отчет о том, как компания работает с пользователями, демонстрирующими признаки психологического дискомфорта. Согласно заявлению разработчика, ChatGPT сейчас используют около 10% населения планеты на еженедельной основе, а представленная статистика показывает масштаб проблемы с ментальным здоровьем среди аудитории чат-бота.
По данным OpenAI, 0.07% еженедельных пользователей демонстрируют признаки неотложных состояний психического здоровья, связанных с психозом или манией. Еще 0.15% упоминают о желаниях нанести себе самоповреждения или даже совершить суицид, а такой же процент пользователей показывает признаки эмоциональной зависимости от искусственного интеллекта. В абсолютных числах речь идет почти о трех миллионах человек.
Компания работала со 170 экспертами в области психического здоровья, чтобы улучшить реакцию ChatGPT на людей, нуждающихся в поддержке. OpenAI утверждает, что удалось сократить количество ответов, не соответствующих желаемому поведению, на 65-80%. Теперь чат-бот лучше справляется с деэскалацией разговоров и направляет людей к профессиональной помощи и кризисным горячим линиям, когда это необходимо. Также добавлены деликатные напоминания о необходимости делать перерывы во время длительных сессий. Впрочем, заставить пользователя обратиться за помощью или принудительно ограничить доступ система не может.
OpenAI представила детальную статистику частоты возникновения проблем с психическим здоровьем во время общения с ChatGPT. Согласно метрикам компании, 0.07% активных пользователей за неделю и 0.01% сообщений указывают на возможные признаки психических состояний, связанных с психозом или манией. Учитывая собственные данные компании о количестве пользователей, это около 560 тысяч человек в неделю. Компания также сообщила, что обрабатывает примерно 18 миллиардов сообщений в ChatGPT еженедельно, так что 0.01% составляет 1.8 миллиона сообщений с признаками психоза или мании.
Другой важной областью для улучшения безопасности стала работа с пользователями, выражающими желание причинить себе вред или совершить суицид. По данным OpenAI, около 0.15% пользователей в неделю выражают явные признаки потенциального планирования или намерения совершить самоубийство, что составляет 0.05% сообщений. Это равняется примерно 1.2 миллиона человек и 9 миллионам сообщений.
Последняя область фокуса компании – эмоциональная зависимость от ИИ. OpenAI считает, что около 0.15% пользователей и 0.03% сообщений в неделю указывают на потенциально повышенный уровень эмоциональной привязанности к ChatGPT. Речь идет о 1.2 миллиона человек и 5.4 миллиона сообщений.
В последние месяцы OpenAI предприняла шаги для создания лучших механизмов защиты от потенциального негативного влияния чат-бота на психическое здоровье пользователей. Это произошло после смерти 16-летнего подростка, который, согласно иску, просил ChatGPT дать совет о том, как завязать петлю, прежде чем покончить с собой. Однако искренность этих усилий вызывает вопросы, так как одновременно с объявлением о новых, более строгих чатах для несовершеннолетних пользователей компания также анонсировала возможность для взрослых придавать ChatGPT больше индивидуальности и использовать функции вроде создания эротического контента – опции, которые теоретически могут усиливать эмоциональную привязанность и зависимость от чат-бота.
- OpenAI запустила ChatGPT Health для работы с медицинскими данными
- OpenAI выпустила модель o3-pro с мышление – но что такое "мышление" ИИ и что оно делает?
- Глава OpenAI заявил, что один запрос к ChatGPT потребляет воды всего на 1/15 от чайной ложки