Армия США уверяет, что робот-танк будет подчиняться правилам поведения ИИ
В прошлом году армия США предложила частным компаниям разработать идеи по улучшению запланированного полуавтоматического робота-танка, оснащенного системой прицеливания на основе ИИ. В запросе армия попросила помощи с "обнаружением, идентификацией и взаимодействием с целями как минимум в 3 раза быстрее, чем нынешний ручной процесс". Что напугало людей — так это язык, каким армия оформила запрос, вызывая страх, что продвинутый ИИ в роботах-танках представляет опасность для человечества.
В ответ на эту реакцию представители вооруженных сил внесли объяснительные заметки, которые гласят, что полноценные автономные машины убийства не будут убивать людей налево и направо. Потому что существуют правила и установки, которым роботы будут обязаны следовать.
Это не значит, что департамент обороны перестанет создавать роботов-убийц, но эти машины должны включать этические стандарты.
Директива 3000.09 гласит, что люди должны иметь возможность определять необходимый уровень использования силы — то есть роботов не будут просто так забрасывать в область боевых действий, чтобы они сами разбирались с происходящим. Проще говоря, суть в том, что люди выносят окончательное решение по убийству той или иной цели.
Как долго будут активны подобные практики? Скорее всего, лицо военных действий в ближайшие 10-20 лет значительно поменяется — столкновения будут еще более локальными, а вести боевые действия будут в первую очередь роботы. А значит нам потребуются гарантии, что роботы не станут выходить из-под контроля.
Вы же помните "Терминатора"?!
- OpenAI заключила соглашение с Anduril для разработки военного ИИ
- На аукционе продана первая картина, созданная роботом-гуманоидом — за миллион долларов
- Китайские ученые создали первого в мире ИИ-командира и "заперли" его в лаборатории