ИИ-компаньоны оказались эксплуатируемыми кенийцами, утверждает работник
Для категории людей, которые имели интимные отношения с ИИ-чатботом есть плохие новости.
Свидетельство от Data Worker's Inquiry – международной исследовательской инициативы, помогающей гиг-работникам документировать свои индустрии – раскрыло шокирующие детали об одной из самых быстрорастущих потребительских ниш в секторе искусственного интеллекта.
Кениец Майкл Джеффри Асиа рассказал инициативе, что в период отчаяния, когда не мог найти работу в области авиации, для которой учился, его познакомили с миром маркировки данных и модерации чатов. В случае Асии "чаты" оказались "романтическими и интимными разговорами на платформах, о которых он никогда не слышал".
Хотя это далеко от того, что планировал делать после окончания авиационной школы, Асиа устроился "текстовым оператором чата" в австралийскую компанию New Media Services, чтобы прокормить семью. Дом его находился в трущобах Матаре в Найроби, и работа стала единственным способом сохранить крышу над головой.
Я не знал, что роль потребует принятия множественных выдуманных личностей и использования псевдопрофилей, созданных компанией, для ведения интимных и откровенных разговоров с одинокими мужчинами и женщинами.
Для выполнения работы кенийцу приходилось принимать различные идентичности, запоминая длинные предыстории, чтобы играть роль "чатбота" для кого-то на другом конце света.
Иногда мне назначали разговор, который продолжался несколько дней, и приходилось продолжать его гладко, чтобы пользователь не понял, что отвечающий человек сменился.
В любой рабочий день Асиа принимал "от трёх до пяти разных персон" одновременно, разных полов. Ему платили за сообщение по фиксированной ставке $0,05, которое должно было соответствовать требуемому количеству символов. Также требовалось печатать минимум 40 слов в минуту и следить за панелью, отображающей общее количество отправленных сообщений.
Отставание по метрикам могло привести к предупреждениям, сокращению заданий или увольнению.
Работа была эмоционально изнурительной – пользователи чатов делились интимными деталями своих реальных отношений, а также собственными эмоциональными травмами, ложно полагая, что общаются с бесчувственным ИИ-чатботом.
Моя вера учила меня, что любовь должна быть настоящей, близость священной, а обман разрушителен как для лжеца, так и для обманутого. Но вот я профессионально обманывал уязвимых людей, которые искренне искали связи – забирая их деньги, доверие, надежду и не давая ничего реального взамен.
Чтобы скрыть унизительную работу, Асиа использовал выдуманную для семьи историю – что работает удалённым IT-специалистом, принимающим заявки на исправление сломанных серверов.
Они и не знали, что я только что сказал другому мужчине "Я люблю тебя".
Также существовало соглашение о неразглашении – обязательный контракт, означающий, что Асиа не мог рассказать близким, даже если бы хотел.
Как объяснить, что тебе платят за признания в любви незнакомцам, пока настоящая семья спит в трёх метрах от тебя?
История Асии далеко не уникальна. Хотя точные цифры сложно найти из-за секретного характера технологического субподряда, оценки предполагают от 154 до 435 миллионов гиг-работников, занятых онлайн-работой. Не все выполняют работу Асии, но высокострессовые низкооплачиваемые задачи вроде маркировки данных для ИИ, модерации контента и текстовых чат-операций обычно выполняются работниками из неразвитых африканских, южноамериканских и юго-восточных азиатских стран.
Так что в следующий раз, когда почувствуете связь с чатботом, помните – возможно, вы просто попались на заскриптованную ложь низкооплачиваемого работника.
- Вирусный симулятор спасения с Титаника оказался полностью фейковой игрой с ИИ-скриншотами
- YouTube отключил монетизацию каналам с фейковыми трейлерами
- Вот почему все эти фальшивые трейлеры фильмов продолжают появляться в сети