ИИ британской полиции путает порнографию и фотографии пустыни
Лондонская полиция верит, что ее программа с примитивным искусственным интеллектом сможет распознавать изображения насилия над детьми в ближайшие два-три года. К сожалению, нынешнее ее состояние не подходит для этой цели — ИИ не видит разницу между фотографией пустыни и фотографией голого тела.
Полиция уже использует ИИ для обнаружения нелегального контента на конфискованной электронике. Специальный софт сканирует изображения на выявление наркотиков, оружия и денег. Однако с наготой все сложнее.
Глава департамента цифровой и электронной экспертизы Марк Стоукс так объяснил проблему журналистам The Telegraph.
Иногда система находит пустыню и думает, что это нескромное фото или порнография. По какой-то причине у многих людей на скрин-сейверах стоят изображения пустыни, которые ИИ воспринимает за кожу.
Полиция работает вместе со специалистами из области распознания изображений, чтобы натренировать ИИ успешно выявлять фото с порнографией, в частности детской. Впрочем, даже в этом случае потребуется участие людей. На сегодняшний день машины не обладают способностью видеть нюансы, заметные большинству людей.
- Правительство Великобритании хочет допросить Илона Маска по делу о связи между ИИ и летними беспорядками
- ИИ-компания генерирует порно, используя свободное время GPU геймеров в обмен на скины для Fortnite и подарочные карты Roblox
- Создание порно-дипфейков в Великобритании может привести к тюремному заключению