Некоторые имена заставляют ChatGPT прекращать работу — вот почему это происходит

ChatGPT, разработанный OpenAI, часто воспринимается как продвинутый языковой ИИ, но за кулисами скрывается сложная система фильтров, которые предотвращают ошибки и защищают компанию от юридических рисков. Однако недавно стало известно, что некоторые имена вызывают сбой в работе модели, полностью останавливая сессию.

Среди проблемных имен, выявленных пользователями, числятся Брайан Худ, Джонатан Турли и Джонатан Зиттрейн. Эти имена, введенные в любом контексте, заставляют ChatGPT выдавать сообщения об ошибке или завершать диалог. Например, при упоминании таких имен чатбот выдает: "Невозможно создать ответ".

Список известных "запрещенных" имен в ChatGPT:

  • Брайан Худ (Brian Hood)

  • Джонатан Турли (Jonathan Turley)

  • Джонатан Зиттрейн (Jonathan Zittrain)

  • Дэвид Фабер (David Faber)

  • Гуидо Скорца (Guido Scorza)

Недавно обнаруженное имя "Дэвид Майер" было разблокировано, а OpenAI назвала его появление в списке "технической ошибкой".

Неизвестно, сколько еще имен находится в базе OpenAI — скорее всего, это не полный список.

Почему эти имена блокируются?

OpenAI официально не комментирует ситуацию, но эксперты связывают ограничения с жалобами на распространение ложной информации. Например, в 2023 году австралийский мэр Брайан Худ угрожал судом из-за ложных утверждений ChatGPT о его тюремном заключении. OpenAI решила проблему, фильтруя упоминания его имени, что, вероятно, стало первым подобным случаем.

Другие примеры включают Джонатана Турли — профессора из Университета Джорджа Вашингтона, о котором ChatGPT неверно сообщала, ссылаясь на несуществующую статью. Аналогичные ситуации происходили с Джонатаном Зиттрейном, экспертом по интернет-праву.

Хотя для среднестатистического пользователя ChatGPT подобные фильтры не станут особенно большой проблемой, их наличие все же создает определенные неудобства:

  • Схожие имена
    Популярные имена, такие как "Дэвид Майер", могут принадлежать тысячам людей, затрудняя их взаимодействие с ChatGPT — правда, большинство людей вряд ли просят ChatGPT обращаться к ним по имени-фамилии

  • Уязвимость к атакам
    Эксперты, такие как Райли Гудсайд, выявили, что фильтры можно использовать для саботажа, внедряя запрещенные слова скрытым текстом в изображениях или на страницах в сети — но каких именно результатов можно добиться таким образом, пока не очень ясно

  • Ограничение функциональности
    Системы, такие как ChatGPT с поиском, не смогут обрабатывать статьи или сайты, содержащие "запрещенные" имена, снижая эффективность чатбота — но и тут вопрос в том, насколько такие критические ситуации распространены

Шумиха вокруг прекращения работы ChatGPT при выявлении этих имен — скорее причина эффекта новизны. Что-то вроде секретного пароля, способного вывести "машину" из строя. На практике, никаких значительных последствий от подобных фильтров не должно возникнуть.

Больше статей на Shazoo
Тэги:
Источники: