ИИ британской полиции путает порнографию и фотографии пустыни

Лондонская полиция верит, что ее программа с примитивным искусственным интеллектом сможет распознавать изображения насилия над детьми в ближайшие два-три года. К сожалению, нынешнее ее состояние не подходит для этой цели — ИИ не видит разницу между фотографией пустыни и фотографией голого тела.

Полиция уже использует ИИ для обнаружения нелегального контента на конфискованной электронике. Специальный софт сканирует изображения на выявление наркотиков, оружия и денег. Однако с наготой все сложнее.

Глава департамента цифровой и электронной экспертизы Марк Стоукс так объяснил проблему журналистам The Telegraph.

Иногда система находит пустыню и думает, что это нескромное фото или порнография. По какой-то причине у многих людей на скрин-сейверах стоят изображения пустыни, которые ИИ воспринимает за кожу.

Полиция работает вместе со специалистами из области распознания изображений, чтобы натренировать ИИ успешно выявлять фото с порнографией, в частности детской. Впрочем, даже в этом случае потребуется участие людей. На сегодняшний день машины не обладают способностью видеть нюансы, заметные большинству людей. 

Больше статей на Shazoo
Тэги: