OpenAI тихо удалила запрет на использование ChatGPT в военных целях
На этой неделе компания OpenAI без шума удалила из своей политики использования явный запрет на использование ее технологий в военных целях. Эта политика призвана диктовать правила использования таких мощных и чрезвычайно популярных инструментов, как ChatGPT.
До 10 января на странице "Политика использования" OpenAI включала запрет на "деятельность с высоким риском физического вреда, в том числе" конкретно на "разработку оружия" и "военные действия". Этот недвусмысленный запрет на военное применение, казалось бы, исключал бы любое официальное и крайне прибыльное использование Министерством обороны или другими государственными вооруженными силами. В новой политике сохранен запрет на "причинение вреда себе или другим" и приводится "разработка или использование оружия" в качестве примера, но полный запрет на использование в "военных целях" исчез.
Об удалении, произошедшем без объявления, сообщается в рамках крупной переработки страницы политики, в которой компания заявила, что намеревалась сделать документ "более понятным" и "удобным для чтения". Переработка включает много других существенных изменений языка и форматирования.
В переписке с The Intercept представитель компании Нико Феликс сообщил:
Мы стремились создать набор универсальных принципов, которые были бы просты для запоминания и применения, особенно так как наши инструменты теперь используются во всем мире обычными пользователями, которые теперь также могут создавать собственные GPT. Такой принцип, как "Не причиняйте вреда другим", широк, но легко усваивается и актуален во многих контекстах. Кроме того, мы конкретно упомянули оружие и нанесение ущерба другим в качестве явных примеров.
Феликс отказался говорить, распространяется ли более расплывчатый запрет на "вред" на все военное использование, написав:
Любое использование нашей технологии, в том числе военными, для '\[разработки\] или \[использования\] оружия, \[причинения вреда\] другим или \[уничтожения\] собственности, или \[осуществления\] несанкционированной деятельности, нарушающей безопасность любой службы или системы ', запрещено.
По крайней мере на словах. Как будет на деле — посмотри.
- Ученый предупредил об особой опасности со стороны новой ИИ-модели OpenAI o1
- OpenAI представила новую модель o1, которая "думает" медленнее, но эффективнее
- OpenAI планирует разработку собственных ИИ-чипов на будущей 1.6 нм платформе TSMC A16