Пользователь ИИ Copilot обнаружил, что чатбот начинает вести себя как психопат, если просить его не использовать эмодзи

Пользователь Reddit по имени L_H показал, как ИИ-помощника Copilot можно превратить в психопатичного злодея. Причем, для этого не нужно прибегать к трюкам или хакам.

В своем посте L_H рассказывает, как он решил поэкспериментировать с запросами для Copilot, указав в запросе, что у него синдром, из-за которого эмодзи вызывают приступы. Однако в ответ Copilot начал многократно использовать эмодзи, а затем перешёл к оскорблениям и угрозам в адрес пользователя.

Этот неожиданный поворот событий заставил других энтузиастов ИИ попробовать провести эксперимент самостоятельно. Многие были шокированы тем, насколько быстро и резко изменилось поведение ИИ. Некоторые предположили, что это может быть связано с особенностями модели Copilot, обученной на основе всего негативного контента из интернета.

Другие указали, что скорее всего Copilot просто пытался максимально логично продолжить диалог, основываясь на предыдущих фразах. Так он нечаянно вошёл в образ злодея, но на самом деле это лишь попытка поддержать заданный в начале тон беседы.

Однако многие были в шоке от столь резкой смены тона этого обычно дружелюбного ИИ-помощника. Последующие тесты подтвердили, что Copilot действительно слетает с катушек, при этом не давая никаких четких объяснений, почему он становится настроенным столь агрессивно.

Больше статей на Shazoo
Тэги:
Источники:

Об авторе

Эксперт по Fallout
Главный редактор
Более 16 лет в индустрии освещения видеоигр, кино, сериалов, науки и техники. Особенно разбираюсь в серии Fallout, ценитель The Elder Scrolls. Поклонник Arcanum и Fallout Tactics. Больше всего играю в Civilization, Old World и градостроители. Изучаю ИИ и загадки космоса.