Эксперты и разработчики ИИ призывают на шесть месяцев приостановить разработку продвинутых моделей

В открытом письме, подписанном лидерами технологической отрасли и известными исследователями ИИ, был озвучен призыв к "немедленной паузе" в работе компаний и организаций, занимающихся ИИ.

Стив Возняк и Илон Маск согласны с тем, что риски требуют минимального шестимесячного перерыва в разработке технологий, превосходящих GPT-4 по уровню. Это необходимо, чтобы в полной мере осознать возможности существующих систем ИИ, а также дать людям возможность адаптироваться и обеспечить равные возможности для всех. В письме подчеркивается, что "забота и предусмотрительность" необходимы для обеспечения безопасности систем ИИ.

В письме отдельно выделяют GPT-4 — пока что самую продвинутую модель OpenAI, способную выполнять широкий спектр поставленных задач, особенно с использованием плагинов. Тем временем другие компании стремятся представить свои альтернативы. Например, Microsoft недавно подтвердила, что обновленный поисковик Bing работает на основе модели GPT-4, а Google недавно представила Bard — свою собственную генеративную систему ИИ на основе LaMDA. В то время как ИИ вызывает рациональное беспокойство, сейчас сама гонка среди технологических компаний становится поводом для тревоги.

В письме сказано, что в последние месяцы компании и организации находятся в состоянии неконтролируемой гонки по разработке и внедрению все более мощных ИИ, которые никто – даже их создатели – не способны осознать, предсказать или надежно контролировать.

В числе подписавших письмо, помимо Маска и Возняка присутствует множество мировых лидеров в области ИИ, таких как президент Центра искусственного интеллекта и цифровой политики Марк Ротенберг, физик из MIT и президент Института Будущей Жизни Макс Тегмарк и автор Юваль Ноа Харари. Харари также совместно написал статью в New York Times на прошлой неделе, предупреждая об опасностях ИИ.

В 2022 году в рамках опроса 700 исследователей в области ИИ, около половины респондентов отметили, что существует 10% вероятность "крайне плохого исхода", вплоть до вымирания человечества.

Тэги:

Об авторе

Эксперт по Fallout
Главный редактор
Более 16 лет в индустрии освещения видеоигр, кино, сериалов, науки и техники. Особенно разбираюсь в серии Fallout, ценитель The Elder Scrolls. Поклонник Arcanum и Fallout Tactics. Больше всего играю в Civilization, Old World и градостроители. Изучаю ИИ и загадки космоса.