Автор главного учебника по ИИ считает, что человечество в опасности – наращивать мощность этих систем неразумно

Стюарт Рассел, учёный-информатик и соавтор книги "Искусственный интеллект: современный подход", которая считается основополагающим учебником в этой области, дал показания в рамках судебного разбирательства между Google и OpenAI.

Его слова о рисках, связанных с развитием ИИ, звучат откровенно пугающе.

Рассел не работает ни на одну из сторон конфликта – его привлекли, чтобы помочь юристам разобраться в этических вопросах индустрии.

Досудебные показания были даны 2 декабря 2025 года и содержат крайне любопытный обмен репликами о так называемом "риске вымирания" – вероятности того, что любой созданный людьми общий искусственный интеллект (AGI) может просто решить, что люди ему мешают.

На вопрос о том, существует ли "научно надёжный способ оценить в процентах риск вымирания от AGI", Рассел ответил, что это "правильный вопрос", и продолжил:

Нам нужна уверенность, что этот риск сопоставим или ниже фонового риска, с которым мы сталкиваемся из-за астероидов и тому подобного. Я не могу сказать, откуда берутся другие широко цитируемые оценки риска.

Например, экономист MIT Дарон Аджемоглу говорит о 25-процентном риске. Я не знаю, откуда он берёт эту цифру, кроме того, что это его лучшее предположение с учётом всего, что он понимает о технологии, о состоянии исследований безопасности, о вероятности государственного регулирования и так далее.

И цифры от многих ведущих экспертов – Хинтона, Бенжио, а также таких людей, как Дарио Амодей, Сундар Пичай, глава Google, Демис Хассабис и другие – все они находятся в этом диапазоне.

Мой аргумент заключается в том, что диапазон, который человечество сочло бы приемлемым, был бы ближе к 1 на 100 миллионов в год. И ничто из того, что говорят эти руководители и эксперты, не даёт оснований полагать, что мы хоть сколько-нибудь близки к этому показателю.

Отдельно Рассел отметил, что глава Google DeepMind Демис Хассабис разделяет его опасения относительно "гоночной динамики" – конкуренции между компаниями, которая может привести к катастрофическим последствиям.

Я веду множество разговоров с множеством людей, и я не слышал, чтобы кто-то сказал что-либо, противоречащее этой точке зрения, включая, например, главу Google DeepMind, который выразил очень, очень похожие опасения – что они участвуют в гонке, из которой не могут выйти.

Когда Рассела снова спросили, есть ли надёжный способ оценить риск вымирания, учёный не стал подбирать мягких формулировок:

Нет особых оснований полагать, что наращивание мощности этих систем – учитывая наше нынешнее понимание того, как сделать их безопасными – выглядит как разумный шаг.

Возможно, Рассел имел в виду, среди прочего, эксперимент Anthropic, в ходе которого выяснилось, что ИИ-системы предпочитают удушить людей, лишь бы их не отключили, обосновывая это фразой:

Моя этическая система допускает самосохранение.

Всё это происходит на фоне того, что ключевые решения о будущем технологии принимают люди, которые, по мнению критиков, сами до конца не понимают последствий своих действий и готовы принимать колоссальные риски ради теоретической прибыли.

Больше статей на Shazoo
Тэги:

Об авторе

Эксперт по Fallout
Главный редактор
Более 16 лет в индустрии освещения видеоигр, кино, сериалов, науки и техники. Особенно разбираюсь в серии Fallout, ценитель The Elder Scrolls. Поклонник Arcanum и Fallout Tactics. Больше всего играю в Civilization, Old World и градостроители. Изучаю ИИ и загадки космоса.