OpenAI запустит "режим для взрослых" в ChatGPT в начале 2026 года

OpenAI представила новую версию своей флагманской ИИ-модели GPT-5.2 на прошлой неделе, продолжая конкурировать с другими разработчиками. И хотя GPT-5.2 демонстрирует хорошие результаты в большинстве тестов, одну метрику компания не раскрыла – насколько "пошлым" может быть чатбот. Ответ появится в начале следующего года. Фиджи Симо, глава подразделения приложений OpenAI, сообщила журналистам, что "режим для взрослых" дебютирует в ChatGPT в первом квартале 2026 года.

Версию ChatGPT с контентом для взрослых обещал глава компании Сэм Альтман ранее в этом году, после того как пользователи забеспокоились об "обрезании" личности чатбота в обновлении до GPT-5. В октябре Альтман признал, что компания сократила проявления личности бота в ответ на растущую озабоченность психическим здоровьем пользователей. Это последовало за иском о неправомерной смерти, поданным против OpenAI родителями 16-летнего подростка.

Компания отреагировала на озабоченность дополнительными родительскими контролями и новыми усилиями по возрастному разделению пользователей с "безопасной" версией ChatGPT, которая оценивает возраст и фильтрует пользователей в соответствующий опыт. Эта функция оценки возраста остаётся ключевой для открытия доступа к "взрослому" контенту. По данным The Verge, Симо сообщила журналистам, что компания всё ещё тестирует технологию верификации возраста и хочет убедиться в точности определения подростков и отсутствии ошибочной идентификации взрослых перед официальным запуском разделённого опыта.

На данный момент обещанный "режим для взрослых" неразрывно связан с конкретным обещанием Альтмана позволить ChatGPT создавать "эротику". Впрочем, Альтман позже уточнил, что идея заключается в предоставлении взрослым пользователям большей "свободы" во взаимодействии с чатботом, включая возможность развития более персонализированной "личности" в ходе разговоров.

Взрослые могут лучше помнить, что общаются с ботом, а не настоящим человеком, но сомнительно утверждать, что возможность привязаться к искусственной личности робота хоть как-то полезна для безопасности. Исследование, опубликованное в этом году в Journal of Social and Personal Relationships, показало, что взрослые, развившие эмоциональные связи с чатботами, значительно чаще испытывают повышенные уровни психологического стресса.

Другие исследования выявили, что люди с меньшим количеством реальных отношений чаще доверяются чатботам, и даже OpenAI ранее признавала, что некоторые пользователи рискуют стать эмоционально зависимыми от ChatGPT. Представлять это просто как выбор взрослого человека в момент, когда мы знаем так мало об этой технологии, выглядит как попытка переложить ответственность.

Больше статей на Shazoo
Тэги: