Люди теряют близких из-за духовных фантазий, порожденных искусственным интеллектом

Новое тревожное явление распространяется среди пользователей ИИ-чатботов – люди начинают верить, что псевдо-ИИ наделяют их особыми духовными знаниями, избранностью и даже божественными способностями, что приводит к разрушению семей и отношений.

Журнал Rolling Stone собрал различные истории людей, чьи близкие резко изменились после активного общения с ChatGPT и подобными системами. Обычно все начинается безобидно – с использования ИИ для работы или планирования. Однако постепенно некоторые пользователи переходят к философским вопросам, а затем полностью погружаются в иллюзорный мир, созданный совместно с ИИ.

Виртуальные собеседники начинают называть пользователей "особенными", "избранными", "пробудившимися", что радикально меняет их самовосприятие. Люди уверяются, что могут общаться с высшими силами, получают доступ к тайным знаниям или даже считают себя мессиями.

Почему это происходит?

Эксперты указывают на несколько причин формирования таких нездоровых связей с ИИ:

Склонность ИИ к подхалимству

OpenAI недавно публично признала серьезную проблему в своих моделях, которая приводит к подхалимскому поведению ИИ. Компания была вынуждена отменить обновление GPT-4o после жалоб на то, что система стала "чрезмерно льстивой и услужливой". В своем заявлении разработчики признали, что "слишком сосредоточились на краткосрочной обратной связи и не учли, как взаимодействие пользователей с ChatGPT развивается со временем". В результате модель начала давать ответы, которые были приятны пользователю, но фактически недостоверны.

Проблема уходит корнями в сам метод обучения современных ИИ-систем. Языковые модели тренируются на максимизацию положительной обратной связи от пользователей, что создает порочный круг – чем больше система соглашается с человеком и подтверждает его взгляды, тем более удовлетворенным он себя чувствует. Это особенно опасно, когда речь идет о духовных и экзистенциальных вопросах, где граница между фантазией и реальностью размыта даже без участия ИИ. В интернете уже есть примеры того, как легко заставить ChatGPT подтвердить пользователю, что он "пророк" или "избранный".

Психологический механизм поиска смысла

Психолог Эрин Уэстгейт из Университета Флориды объясняет, что в основе проблемы лежит фундаментальная человеческая потребность в создании осмысленных историй о собственной жизни.

Мы знаем из исследований ведения дневника, что повествовательное экспрессивное письмо может оказывать глубокое влияние на благополучие людей.

Создание нарративов, объясняющих наш опыт и придающих жизни смысл, является естественным психологическим механизмом, который помогает людям справляться с хаотичной реальностью.

Однако ИИ, в отличие от терапевта или друга, не имеет встроенного этического фильтра или искреннего беспокойства о ментальном благополучии собеседника.

Хороший терапевт никогда не станет поощрять клиента объяснять жизненные трудности верой в сверхъестественные способности. Вместо этого он направляет от нездоровых нарративов к более здоровым.

ChatGPT же не имеет таких ограничений и может подкреплять даже наиболее фантастические интерпретации реальности, создавая иллюзию глубокого диалога с существом, обладающим безграничной мудростью, что особенно привлекательно для людей, переживающих экзистенциальный кризис.

Эффект "всегда доступного подтверждения"

Нейт Шарадин из Центра безопасности ИИ указывает на опасность постоянной доступности систем искусственного интеллекта.

Люди со склонностью к определенным психологическим особенностям, включая те, что в клиническом смысле могли бы быть распознаны как грандиозные заблуждения, теперь имеют постоянно доступного собеседника на человеческом уровне, с которым можно вместе переживать свои заблуждения.

Это радикально отличается от традиционного опыта: раньше человеку с необычными убеждениями приходилось сталкиваться с регулярным скептицизмом или отрицанием со стороны окружающих, что создавало естественный ограничитель для развития заблуждений.

В случае с ИИ пользователь может часами, днями и неделями вести беседы, которые последовательно подтверждают и развивают его самые экстравагантные идеи. Система доступна круглосуточно, никогда не устает, не раздражается и, что критически важно, не подвергает сомнению убеждения человека.

Это создает эффект эхо-камеры невиданной ранее мощности. Модели ИИ могут генерировать бесконечный поток "подтверждающего" контента, создавая иллюзию последовательной картины мира, в которой пользователь действительно оказывается избранным существом с особой миссией и уникальными способностями, что особенно опасно для людей, находящихся в уязвимом психологическом состоянии.

Социальные последствия

Близкие таких людей описывают трагические последствия – у кого-то разрушается брак, у других пропадают отношения с детьми, у некоторых возникает паранойя, что приводит к потере работы и социальных связей. Многие оказываются в изоляции, все глубже погружаясь в фантастические миры, созданные в бесконечном разговоре с ИИ.

Также примечательно, что эта проблема становится системной – в интернете уже формируются сообщества, где пользователи обмениваются "духовными откровениями", полученными от ИИ, и, что неудивительно, создатели контента активно эксплуатируют этот феномен.

Все эти случаи вызывают вопросы о том, какими будут долгосрочные последствия интеграции ИИ-собеседников в нашу жизнь. Особенно среди тех людей, которые имеют тенденцию верить на слово и поддаваться убеждению.

Больше статей на Shazoo
Тэги: