Исследователи OpenAI предупредили совет директоров о прорыве в ИИ перед увольнением Сэма Альтмана
Незадолго до изгнания Сэма Альтмана, главы OpenAI, несколько исследователей компании направили письмо правлению с предупреждением о мощном открытии в области искусственного интеллекта, которое, по их мнению, могло угрожать человечеству, рассказали два осведомленных источника Reuters.
Это письмо и алгоритм ИИ стали ключевыми событиями перед увольнением Альтмана, утверждают источники. Перед его триумфальным возвращением во вторник более 700 сотрудников угрожали уйти и присоединиться к Microsoft в знак солидарности.
Источники указали на письмо как на один из факторов среди более длинного списка недовольств правления, ставших причиной увольнения Альтмана, в числе которых были опасения по поводу коммерциализации достижений без понимания последствий. Копию письма источники не предоставили, а также отказались давать комментарии.
После вопросов на эту тему, OpenAI признала во внутреннем сообщении сотрудникам существование проекта Q* (Кью-Стар) и письма правлению о нем — сообщил один из источников. Представитель OpenAI сообщил, что сообщение, отправленное руководителем Мирой Мурати, информировало сотрудников о некоторых сообщениях в СМИ, не комментируя их точность.
Некоторые в OpenAI считают, что Q* может стать прорывом в поисках так называемого искусственного общего интеллекта (AGI), рассказал один из источников. Стоит отметить, что OpenAI определяет AGI как автономные системы, превосходящие людей в большинстве экономически ценных задач.
Благодаря огромным вычислительным ресурсам новая модель смогла решить определенные математические задачи, сказал источник, пожелавший остаться анонимным. Несмотря на то, что модель выполняет математику только на уровне младших классов, успех в таких тестах заставил исследователей очень оптимистично относиться к будущему Q*.
Исследователи считают математику одним из фронтов развития генеративного ИИ. В настоящее время генеративный ИИ хорошо справляется с генерацией текста, статистически предсказывая следующее слово, и ответы на один и тот же вопрос могут сильно различаться. Но выполнение математических задач — где есть только один правильный ответ — предполагает, что ИИ будет обладать большими способностями к рассуждению, напоминающими человеческий интеллект. Это может быть применено, например, в новых научных исследованиях, считают исследователи ИИ.
В отличие от калькулятора, который может решать ограниченное количество операций, AGI может обобщать, учиться и понимать.
В своем письме правлению исследователи обратили внимание на мощь и потенциальную опасность ИИ, сказали источники, не уточнив, о каких именно опасениях идет речь. Долгое время среди компьютерных ученых шли дискуссии об опасности, представляемой высокоинтеллектуальными машинами, например, если они решат, что уничтожение человечества будет в их интересах.
Исследователи также обратили внимание на работу команды AI scientist, существование которой подтвердили несколько источников. Группа, созданная путем объединения предыдущих команд Code Gen и Math Gen, исследовала, как оптимизировать существующие модели ИИ для улучшения их рассуждений и в конечном итоге выполнения научной работы, сказал один из источников.
Во время демонстрации новых инструментов в этом месяце Альтман намекнул, что он считает, что значительные успехи в этой области уже не за горами. А на саммите Азиатско-Тихоокеанского экономического сотрудничества он сказал:
Четыре раза в истории OpenAI, последний раз всего пару недель назад, я имел честь быть в комнате, когда мы снимали завесу неведения и продвигали границу открытий, и возможность это сделать — профессиональная честь моей жизни.
На следующий день правление уволило Альтмана.
- Сэм Альтман утверждает, что достижение ИИ уровня AGI возможно даже на нынешнем железе
- OpenAI уберет из ChatGPT голос, напоминающий Скарлетт Йоханссон
- Команда OpenAI, ответственная за защиту человечества, больше не существует