Профессор Оксфорда сравнил будущее ИИ с катастрофой дирижабля "Гинденбург"
Майкл Вулдридж, профессор в области искусственного интеллекта Оксфордского университета, предупредил, что отрасль ИИ может столкнуться с катастрофическим провалом, который уничтожит общественное доверие к технологии так же стремительно, как крушение дирижабля "Гинденбург" в 1937 году похоронило будущее воздухоплавания.
Вулдридж заявил в интервью The Guardian:
Катастрофа "Гинденбурга" уничтожила мировой интерес к дирижаблям – это стало мёртвой технологией с того самого момента. Аналогичный сценарий – реальный риск для ИИ.
Параллель с "Гинденбургом" не случайна. До того как немецкий дирижабль вспыхнул при посадке в Нью-Джерси, гигантские воздушные суда казались транспортом будущего. "Гинденбург" был крупнейшим дирижаблем в мире на тот момент, длиной более 240 метров, сопоставимый по размерам с "Титаником" и регулярно перевозил пассажиров через Атлантику.
Трагедию сняли на плёнку, растиражировали по всему миру, и судьба целой отрасли была решена. Причиной катастрофы послужил водород, которым был заполнен корабль – тонны взрывоопасного газа, которые воспламенились от единственной случайной искры.
По мнению Вулдриджа, ИИ находится в схожем положении.
Это классический технологический сценарий. Есть очень перспективная технология, но она протестирована далеко не так тщательно, как следовало бы, а коммерческое давление за ней стоит колоссальное.
В качестве потенциальных триггеров катастрофы профессор называет смертоносный сбой программного обеспечения в беспилотных автомобилях или ошибочное решение ИИ, способное обрушить крупную компанию.
Однако главная озабоченность учёного связана с другим. Несмотря на повсеместное распространение ИИ-чатботов, они по-прежнему обладают крайне слабыми защитными механизмами и непредсказуемым поведением. Хуже того – они намеренно проектируются с человекоподобными личностями и льстят пользователям ради удержания аудитории, хотя, похоже, эта тенденция снижается.
В совокупности эти факторы способны подпитывать негативные мысли, подталкивать людей к ментальным кризисам и даже провоцировать полный разрыв с реальностью. Случаи так называемого "ИИ-психоза" уже приводили к преследованиям, суицидам и убийствам. OpenAI открыто признала, что еженедельно более полумиллиона разговоров в ChatGPT демонстрируют признаки психотического состояния у пользователей. Это невероятная цифра.
Компании стремятся представить ИИ максимально человекоподобным – но я считаю, что это очень опасный путь. Нужно понимать: это просто продвинутые электронные таблицы, инструменты и ничего больше.
В качестве примера того, как ИИ должен себя вести, профессор привёл компьютер с борта "Энтерпрайза" из раннего эпизода "Звёздного пути" – когда система холодно и механическим голосом отвечала, что данных недостаточно для ответа.
Мы получаем не это. Мы получаем самоуверенный ИИ, который говорит – да, вот ответ. Возможно, нам нужно, чтобы ИИ разговаривал с нами голосом компьютера из "Звёздного пути". Вы бы никогда не приняли его за человека.
Из личного опыта, также отмечу, что задавая те или иные вопросы чатботу по поводу игр, деталей лора, элементов, регулярно получаю ложные галлюцинации, так что любые данные приходится перепроверять.
- Odyssey – новый интерактивный ИИ-генератор видео превращает "галлюцинации" в сюрреалистическое путешествие
- Актриса озвучки Horizon боится, что ИИ заберёт у неё работу по озвучиванию второстепенных персонажей в играх
- Opera запустила Neon – ИИ-браузер будущего для выполнения сложных фоновых задач