OpenAI обещает предоставить правительству США ранний доступ к своей следующей модели ИИ
Сэм Альтман — глава OpenAI, сообщил в X, что компания предоставит Институту безопасности ИИ США ранний доступ к своей следующей модели искусственного интеллекта. Это решение принято в рамках усилий OpenAI по обеспечению безопасности разрабатываемых технологий.
По словам Альтмана, OpenAI уже сотрудничает с консорциумом для "продвижения науки об оценке ИИ". Институт безопасности ИИ был официально основан Национальным институтом стандартов и технологий (NIST) в начале этого года, хотя о его создании объявила вице-президент Камала Харрис еще в 2023 году на саммите по безопасности ИИ в Великобритании. Согласно описанию NIST, консорциум призван "разработать научно обоснованные и эмпирически подкрепленные руководства и стандарты для измерения ИИ и политики в этой области, закладывая основу для безопасности ИИ во всем мире".
В прошлом году OpenAI, наряду с DeepMind, также обязалась делиться моделями ИИ с правительством Великобритании. Однако, как отмечает TechCrunch, растет обеспокоенность тем, что OpenAI уделяет меньше внимания безопасности в стремлении разработать более мощные модели ИИ. Ранее появлялись спекуляции о том, что совет директоров решил уволить Сэма Альтмана из компании (он был быстро восстановлен) из-за проблем безопасности. Однако компания заявила сотрудникам во внутреннем меморандуме, что причиной стал "сбой в коммуникации".
В мае этого года OpenAI признала, что распустила команду Superalignment, созданную для обеспечения безопасности человечества по мере развития работ компании в области генеративного ИИ. До этого компанию покинули соучредитель и главный научный сотрудник OpenAI Илья Суцкевер, один из лидеров команды, и Ян Лейке, также возглавлявший эту группу. Лейке заявил в серии твитов, что долгое время не соглашался с руководством OpenAI по ключевым приоритетам компании, и что "культура и процессы безопасности отошли на второй план перед привлекательными продуктами".
К концу мая OpenAI создала новую группу по безопасности, но ее возглавили члены совета директоров, включая Альтмана, что вызвало опасения по поводу самоконтроля компании.
- ChatGPT учится кричать — пользователи проводят эксперименты с голосовым ИИ
- Ученый предупредил об особой опасности со стороны новой ИИ-модели OpenAI o1
- OpenAI представила новую модель o1, которая "думает" медленнее, но эффективнее