Исследование доказало, что метод "проверяй за ИИ" не работает – наш мозг сдаётся и ленится

Исследование доказало, что метод "проверяй за ИИ" не работает – наш мозг сдаётся и ленится
Кадр из фильма "Идиократия"
6 комментариев

Исследователи Уортонской школы бизнеса опубликовали работу, которая ставит под сомнение фундаментальный принцип, на котором строится вся современная модель внедрения ИИ в рабочие процессы. Статья Стивена Шоу и Гидеона Нейва под названием "Thinking – Fast, Slow, and Artificial" утверждает, что ИИ давно перестал быть просто инструментом.

Авторы предлагают рассматривать ИИ как третью когнитивную систему – в дополнение к знаменитой модели Даниэля Канемана, где Система 1 отвечает за быструю интуицию, а Система 2 – за медленный анализ. ИИ, по мнению исследователей, стал Системой 3 – внешней когнитивной структурой, работающей за пределами мозга.

Ключевое явление, описанное в работе, авторы называют "когнитивной капитуляцией" (Cognitive Surrender). Это состояние, при котором человек перестаёт проверять ответы ИИ – и даже не осознаёт, что перестал это делать.

Принципиальное отличие от обычной когнитивной разгрузки (например, использования калькулятора) в том, что при разгрузке человек понимает – работу выполнил инструмент.

При капитуляции мозг перекодирует ответ ИИ как собственное суждение. Человек искренне верит, что сам пришёл к этому выводу.

В эксперименте приняло участие 1372 человек, которые прошли 9593 испытаний. Когда ИИ давал правильный ответ, 92,7% участников следовали ему – что вполне логично. Однако когда ИИ ошибался, 79,8% людей всё равно принимали неверный ответ. Почти четыре из пяти человек соглашались с ошибкой просто потому, что её выдал ИИ.

Ситуация ещё серьёзнее, если посмотреть на общую результативность:

  • Без ИИ участники самостоятельно справлялись с заданиями на 45,8%

  • С корректным ИИ показатель вырастал до 71%

  • Но с ошибающимся ИИ результат падал до 31,5% – ниже базового уровня без какой-либо помощи

Иными словами, некорректный ИИ делает человека глупее, чем если бы ИИ не было вовсе.

При этом уверенность участников в своих ответах при использовании ИИ возрастала на 11,7 процентных пунктов – вне зависимости от того, был ли ИИ прав или нет. Люди ошибались чаще и были увереннее в своей правоте одновременно.

Исследование также показало, что финансовые стимулы и обратная связь в реальном времени снижают эффект когнитивной капитуляции, но не устраняют его полностью. Инстинкт принятия ответов ИИ оказался слишком глубоким.

Единственной группой, стабильно сопротивлявшейся этому эффекту, оказались люди с высоким уровнем подвижного интеллекта и выраженной "потребностью в познании" – те, кому нравится думать ради самого процесса. Все остальные постепенно капитулировали.

Эти результаты ставят неудобный вопрос перед всей индустрией. Текущая модель продуктивности с ИИ строится на простом принципе:

ИИ делает работу, человек проверяет и одобряет.

Каждый продукт, каждый рабочий процесс, каждая компания, внедряющая ИИ, исходит из того, что человеческая проверка служит страховочной сетью. Исследование Уортона показывает, что в этой сети есть огромная дыра.

Некоторые команды разработчиков уже перешли от ревью кода к ревью спецификаций и архитектуры, осознав, что люди не способны осмысленно проверять сгенерированный ИИ код в больших объёмах. Возможно, решение в том, чтобы перестроить сам предмет проверки, а не требовать от людей проверять всё подряд.

Больше статей на Shazoo
Тэги:

Об авторе

Эксперт по Fallout
Главный редактор
Более 16 лет в индустрии освещения видеоигр, кино, сериалов, науки и техники. Особенно разбираюсь в серии Fallout, ценитель The Elder Scrolls. Поклонник Arcanum и Fallout Tactics. Больше всего играю в Civilization, Old World и градостроители. Изучаю ИИ и загадки космоса.