Полиция США начинает использовать отчеты, написанные ИИ — эксперты опасаются, что галлюцинации отправят невинных за решетку
В США все больше полицейских департаментов переходят на использование отчетов, написанных искусственным интеллектом, что вызывает серьезные опасения у экспертов.
Как сообщает Associated Press, новая программа под названием Draft One (Черновик Один) была анонсирована компанией Axon в апреле этого года. Axon, известная своими электрошокерами и другими системами для правоохранительных органов, утверждает, что их программа, основанная на модели GPT-4 от OpenAI, способна генерировать полицейские отчеты на основе аудиозаписей с нагрудных камер. Компания позиционирует этот инструмент как средство повышения продуктивности, которое может значительно сократить время, затрачиваемое полицейскими на оформление документации.
Генеральный директор Axon Рик Смит отметил в интервью Forbes, что "если офицер тратит половину своего рабочего дня на составление отчетов, и мы можем сократить это время вдвое, у нас есть возможность высвободить 25 процентов времени офицера для патрулирования". Однако такие отчеты, в отличие от обычных электронных писем, играют критически важную роль в следственных и юридических процессах, и ошибки, которые часто встречаются в тексте, сгенерированном ИИ, могут иметь серьезные последствия.
Несмотря на риски, полицейские департаменты в таких штатах, как Колорадо, Индиана и Оклахома, уже начали тестировать Draft One, причем некоторые департаменты разрешают использовать этот инструмент не только для мелких инцидентов, но и для более серьезных дел. Эксперты выражают обеспокоенность этичностью и правомерностью использования ИИ в таких ситуациях.
Меня беспокоит, что автоматизация и простота технологии могут привести к тому, что полицейские станут менее тщательно подходить к составлению отчетов.
— профессор права Американского университета Эндрю Фергюсон
Компания Axon защищает свою разработку, утверждая, что у них есть "доступ к большему количеству настроек" по сравнению с обычными пользователями ChatGPT. Ноа Шпитцер-Вильямс, менеджер по продуктам ИИ в Axon, сообщил, что они снизили "творческий" уровень модели GPT-4, чтобы минимизировать риск искажения информации или появления вымышленных фактов. Хотя тестирование ИИ — это хорошая идея, так как может исключить человеческий фактор, необходимо учитывать, что ИИ тоже допускает ошибки, несмотря на все настройки и заверения.
Как отметил Фергюсон в своем исследовании, все еще остается важный вопрос в отношении того, как использование ИИ повлияет на основу правовой системы.
- Профессора из Стэнфорда заподозрили в использовании ChatGPT в работе, критикующей дипфейки
- Искусственный интеллект Google поможет решить, получат ли безработные пособия в США
- Полицейский дрон поймал подозреваемого в ограблении автомобилей в Санта-Монике — киберпанк уже наступил