ИИ-система для полицейских отчетов заявила, что офицер превратился в лягушку

ИИ-программа для составления полицейских отчетов допустила абсурдную ошибку, заявив о превращении офицера полиции штата Юта в лягушку. Странный инцидент произошел в декабре, когда полицейский департамент Хебер-Сити тестировал новые инструменты искусственного интеллекта для сокращения бумажной работы.

Вместо точного резюме инцидента программа сгенерировала отчет о трансформации сотрудника в амфибию. Полиция позже выяснила, что система случайно захватила диалоги из диснеевского фильма, который воспроизводился на заднем фоне во время записи с нагрудной камеры.

ИИ-программа для написания отчетов уловила фильм, который воспроизводился, а это оказалась "Принцесса и лягушка". Тогда мы узнали о важности корректировки этих ИИ-сгенерированных отчетов.

Департамент начал тестирование двух отдельных программ в начале декабря: Draft One и Code Four. Code Four создали Джордж Ченг и Дилан Нгуен, обоим по 19 лет, которые бросили MIT для создания стартапа. Программа анализирует аудио с нагрудных камер и автоматически создает полные полицейские отчеты.

Draft One, второй инструмент, был анонсирован в прошлом году компанией Axon, специализирующейся на технологиях для полиции. Система также генерирует письменные отчеты непосредственно из записей с нагрудных камер, используя языковые модели GPT от OpenAI. Axon продвигает технологию как способ сэкономить офицерам часы административной работы.

В инциденте с лягушкой именно Draft One отвечала за составление ошибочного отчета. Конфуз обнаружился во время учебной остановки транспорта, призванной продемонстрировать возможности инструмента. Согласно FOX 13, полученный ИИ-документ содержал множество неточностей и потребовал обширных исправлений перед использованием.

Кил отметил, что инструмент всё же предлагает явные преимущества, несмотря на случайные сбои. Сержант из Хебер-Сити утверждает, что ИИ-программа теперь экономит ему от шести до восьми часов работы каждую неделю.

Я не самый технически подкованный человек, так что система очень удобна в использовании.

Инцидент демонстрирует проблемы роста, так как правоохранительные органы спешат внедрять ИИ в повседневные операции. Полиция и службы безопасности всё чаще обращаются к искусственному интеллекту для составления отчетов, распознавания лиц и помощи в наблюдении. Однако ошибки автоматизации продолжают вызывать беспокойство.

В 2025 году ИИ-система безопасности ошибочно пометила студента, приняв его пакет чипсов Doritos за огнестрельное оружие. В другом случае невиновного мужчину арестовали после того, как ИИ-система неправильно идентифицировала его как запрещенного посетителя казино, несмотря на 99% совпадение.

Больше статей на Shazoo
Тэги: