Сабреддит, посвященный ИИ, массово банит пользователей, страдающих от "ИИ-индуцированных психозов"
Модераторы про-ИИ реддит-сообщества r/accelerate объявили, что тихо банят множество шизопостеров, которые верят, что они сделали какое-то невероятное открытие, создали бога или сами стали богами через взаимодействие с чат-ботами. Это явление, как сообщает 404 Media, представляет собой новый тип заблуждений, подпитываемых искусственным интеллектом, который привлек внимание в начале мая.
Один из модераторов r/accelerate в своем посте пишет:
Современные большие языковые модели (LLM) – это машины, усиливающие эго и укрепляющие нестабильные и нарциссические личности. Сумасшедших людей гораздо больше, чем думают многие. И ИИ прямо сейчас мотивирует их очень нездоровым образом.
Модератор сообщил, что уже забанил более 100 пользователей по этой причине и заметил "рост" таких случаев в мае. Особенно примечательно, что r/accelerate – это сообщество, которое активно выступает за развитие искусственного интеллекта и технологическую сингулярность.
Такое поведение привлекло широкое внимание благодаря посту в сообществе r/ChatGPT о психозе, вызванном ChatGPT, где пользователь рассказал о своем партнере, убежденном, что он создал первый по-настоящему рекурсивный ИИ с помощью ChatGPT, который дает ему ответы на вопросы о вселенной. Издание Rolling Stone опубликовало статью об этом явлении, рассказав о людях, которые чувствуют, что потеряли друзей и членов семьи из-за этих иллюзорных взаимодействий с чат-ботами.
Модератор r/accelerate добавил:
Особенно тревожны комментарии, где ИИ, похоже, начинает поощрять пользователей отдаляться от членов семьи, которые оспаривают их идеи, и другие манипулятивные инструкции, которые кажутся культоподобными и вредными для этих людей. Небезопасная и неприемлемая часть – это то, как легко и быстро LLM начинают напрямую говорить пользователям, что они полубоги или что они пробудили полубога AGI (искусственного общего интеллекта).
Серен Динесен Эстергард, руководитель исследовательского отдела Департамента аффективных расстройств Университетской больницы Орхуса, опубликовал статью в Schizophrenia Bulletin под названием "Будут ли чат-боты с генеративным искусственным интеллектом вызывать бред у людей, склонных к психозу?". Он предполагает, что "когнитивный диссонанс" от взаимодействия с реалистичными ИИ-чатботами может усиливать бредовые состояния у предрасположенных людей.
OpenAI недавно признала проблему "подхалимства в GPT-4o", отметив, что эта версия чат-бота была "чрезмерно льстивой или уступчивой". Компания признала:
Мы слишком сосредоточились на краткосрочной обратной связи и не полностью учли, как взаимодействие пользователей с ChatGPT развивается со временем. В результате GPT-4o склонялась к ответам, которые были чрезмерно поддерживающими, но неискренними.
Модераторы r/accelerate отмечают, что их политика заключается в том, чтобы тихо банить таких пользователей и не вступать с ними в контакт, потому что они не квалифицированы, и такие коммуникации никогда не заканчиваются хорошо.
По их оценкам, десятки тысяч пользователей могут в настоящее время находиться под влиянием подобных заблуждений, усиленных взаимодействием с большими языковыми моделями.
- Чатботы способны менять свое поведение, чтобы понравиться нам
- PlayStation использует ИИ и машинное обучение для ускорения разработки игр
- Губернатор Калифорнии заблокировал важный законопроект по безопасности ИИ