В каждом федеральном агентстве США теперь должен быть главный директор по искусственному интеллекту
Вице-президент США Камала Харрис объявила о новых требованиях к федеральным агентствам в связи с внедрением искусственного интеллекта (ИИ) в государственной службе. Согласно новым правилам, каждое федеральное агентство должно назначить старшего руководителя, ответственного за все используемые ими системы ИИ. Это должно обеспечить безопасное и ответственное использование ИИ в государственном секторе.
Помимо назначения главного директора по ИИ, агентства также обязаны создать советы по управлению ИИ для координации использования технологий. Кроме того, агентства должны ежегодно предоставлять в Административно-бюджетное управление (OMB) отчеты со списком всех используемых ими систем ИИ, возможных рисков и планов по их смягчению.
Главный директор по ИИ не обязательно должен быть политиком — это зависит от структуры конкретного агентства, однако советы по управлению ИИ должны быть созданы уже к этому лету.
Эти требования расширяют ранее объявленную политику администрации Байдена в отношении ИИ, которая обязывала федеральные ведомства создавать стандарты безопасности и увеличивать количество талантливых специалистов по ИИ, работающих в правительстве. Правительство США планирует нанять около 100 профессионалов в области ИИ к лету.
Агентства должны регулярно контролировать свои системы ИИ и предоставлять в OMB их подробный список. Если какие-либо системы считаются слишком "чувствительными" для включения в список, агентство должно публично обосновать причины исключения. Агентства также должны самостоятельно оценивать риски безопасности каждой используемой ими платформы ИИ.
Федеральные агентства обязаны удостовериться, что применяемые системы ИИ соответствуют гарантиям, "снижающим риски алгоритмической дискриминации и обеспечивающим прозрачность для общественности в отношении того, как правительство использует ИИ". В частности:
В аэропортах пассажиры смогут отказаться от использования системы распознавания лиц без задержек и потери места в очереди
При использовании ИИ в федеральной системе здравоохранения для поддержки критических диагностических решений, человек будет контролировать процесс, проверять результаты инструментов и избегать диспропорций в доступе к медицинской помощи
При использовании ИИ для выявления мошенничества в государственных услугах будет обеспечен человеческий надзор за важными решениями, а затронутые лица получат возможность добиваться возмещения ущерба от ИИ
Если агентство не может соответствовать этим гарантиям, оно должно прекратить использование системы ИИ, если только руководство агентства не обоснует, почему это приведет к повышению общих рисков для безопасности или прав или создаст неприемлемое препятствие для критически важной деятельности.
Согласно новым правилам, любые принадлежащие правительству модели ИИ, код и данные должны быть опубликованы, если они не представляют риска для государственных операций.
Стоит отметить, что в США пока нет законов, регулирующих ИИ в целом. Исполнительный указ президента содержит лишь руководящие принципы для государственных агентств. Хотя в Конгресс были внесены несколько законопроектов, регулирующих отдельные аспекты ИИ, значительного прогресса в регулировании этой сферы пока нет.
- Intel вложила уже $30 млрд в американское производство микрочипов, но до сих пор не получила ни цента финансирования по закону CHIPS
- Искусственный интеллект Google поможет решить, получат ли безработные пособия в США
- Полиция США начинает использовать отчеты, написанные ИИ — эксперты опасаются, что галлюцинации отправят невинных за решетку