Эксперты и разработчики ИИ призывают на шесть месяцев приостановить разработку продвинутых моделей

В открытом письме, подписанном лидерами технологической отрасли и известными исследователями ИИ, был озвучен призыв к "немедленной паузе" в работе компаний и организаций, занимающихся ИИ.

Стив Возняк и Илон Маск согласны с тем, что риски требуют минимального шестимесячного перерыва в разработке технологий, превосходящих GPT-4 по уровню. Это необходимо, чтобы в полной мере осознать возможности существующих систем ИИ, а также дать людям возможность адаптироваться и обеспечить равные возможности для всех. В письме подчеркивается, что "забота и предусмотрительность" необходимы для обеспечения безопасности систем ИИ.

В письме отдельно выделяют GPT-4 — пока что самую продвинутую модель OpenAI, способную выполнять широкий спектр поставленных задач, особенно с использованием плагинов. Тем временем другие компании стремятся представить свои альтернативы. Например, Microsoft недавно подтвердила, что обновленный поисковик Bing работает на основе модели GPT-4, а Google недавно представила Bard — свою собственную генеративную систему ИИ на основе LaMDA. В то время как ИИ вызывает рациональное беспокойство, сейчас сама гонка среди технологических компаний становится поводом для тревоги.

В письме сказано, что в последние месяцы компании и организации находятся в состоянии неконтролируемой гонки по разработке и внедрению все более мощных ИИ, которые никто – даже их создатели – не способны осознать, предсказать или надежно контролировать.

В числе подписавших письмо, помимо Маска и Возняка присутствует множество мировых лидеров в области ИИ, таких как президент Центра искусственного интеллекта и цифровой политики Марк Ротенберг, физик из MIT и президент Института Будущей Жизни Макс Тегмарк и автор Юваль Ноа Харари. Харари также совместно написал статью в New York Times на прошлой неделе, предупреждая об опасностях ИИ.

В 2022 году в рамках опроса 700 исследователей в области ИИ, около половины респондентов отметили, что существует 10% вероятность "крайне плохого исхода", вплоть до вымирания человечества.

Больше статей на Shazoo
Тэги: