OpenAI создает команду для контроля над сверх-умным ИИ
OpenAI объявила о создании специальной команды, задачей которой будет управление рисками, связанными с супер-умным искусственным интеллектом. Под таким суперинтеллектом подразумевается гипотетическая модель ИИ, превосходящая умом даже самых одаренных и умных людей и способная добиться успехов в нескольких областях знаний, в отличие от моделей предыдущего поколения, которые специализируются в одной области. OpenAI полагает, что такая модель может появиться до конца десятилетия.
Суперинтеллект станет наиболее значимой технологией, когда-либо изобретенной человечеством, и сможет помочь нам решить многие из самых важных проблем мира. Но огромная мощь суперинтеллекта также может быть очень опасной и способна привести к утрате власти человечеством или даже к его исчезновению.
Новую команду будут совместно возглавлять главный ученый OpenAI Илья Суцкевер и Ян Лейке. Кроме того, OpenAI заявила, что 20% ее текущей вычислительной мощности будет выделено для этой инициативы. Такая система, по идее, поможет OpenAI гарантировать, что суперинтеллект безопасен в использовании и соответствует человеческим ценностям.
Несмотря на то, что это невероятно амбициозная цель, и у нас нет гарантий успеха, мы оптимистично смотрим на возможность решения этой проблемы. У нас много идей, которые показали положительные результаты в предварительных экспериментах, а также есть полезные метрики для отслеживания прогресса, и мы можем использовать сегодняшние модели для эмпирического изучения многих из этих вопросов.
Тем временем правительства по всему миру рассматривают, как регулировать только зародившуюся отрасль ИИ. В США Сэм Альтман, генеральный директор OpenAI, встречался по меньшей мере с 100 федеральными законодателями в последние месяцы.
Публично Альтман заявил, что регулирование ИИ "важно", и что OpenAI "готова" работать с законодателями. Но рассматривать эти заявления стоит со скепсисом. Сосредоточивая внимание публики на гипотетических рисках, которые могут и не проявиться, организации переносят бремя регулирования на будущее, вместо того, чтобы принимать сложные решения сейчас. Даже несмотря на то, что актуальные проблемы применения ИИ, дезинформации и авторского права, необходимо было начать рассматривать еще вчера.
- Хакер взломал OpenAI, раскрыв внутренние секреты и вызвав опасения по поводу национальной безопасности
- OpenAI уберет из ChatGPT голос, напоминающий Скарлетт Йоханссон
- Команда OpenAI, ответственная за защиту человечества, больше не существует