Исследование указало, что ИИ уже вызывает культурную стагнацию

Генеративный ИИ обучается на огромных массивах контента, созданного людьми и собранного в интернете. Однако учёные всё активнее задаются вопросом – что произойдёт, когда этот контент закончится, и модели придётся учиться на синтетических данных, созданных самим ИИ? Предыдущие исследования уже показали, что нейросети начинают "поедать" собственный контент, что постепенно приводит к деградации их работы – с каждой итерацией они выдают всё более однообразные и искажённые результаты.

Международная группа исследователей опубликовала в журнале Patterns работу, которая раскрывает ещё одну грань этой проблемы. Учёные связали генератор изображений с системой описания картинок и запустили их в циклическую работу. Результат оказался ожидаемым – через несколько итераций система начала создавать крайне безликие изображения, которые авторы окрестили "визуальной музыкой для лифта".

Это открытие показывает, что даже без дополнительного обучения автономные петли обратной связи ИИ естественным образом дрейфуют к общим аттракторам.

По их мнению, сохранение разнообразия и неожиданности в творческом ландшафте потребует именно коллаборации человека с ИИ, а не полностью автономного создания контента.

Профессор компьютерных наук Университета Рутгерса Ахмед Элгаммал назвал эти результаты очередным доказательством того, что генеративный ИИ уже вызывает "культурную стагнацию". Особенно показательно, что конвергенция к набору безликих шаблонных изображений произошла без переобучения системы – не добавлялись новые данные, модель ничему не училась. Коллапс возник исключительно из-за повторного использования.

Ситуация усугубляется тем, что алгоритмы уже начали продвигать ИИ-контент в топ результатов, вытесняя работы людей. Хотя сторонники технологии утверждают, что человек всегда останется "финальным судьей творчества", на практике медиация культуры через ИИ уже фильтруется в пользу знакомого и ожидаемого.

Риск не только в том, что будущие модели могут обучаться на ИИ-контенте, но и в том, что опосредованная ИИ культура уже фильтруется способами, которые благоприятствуют привычному.

Исследователь подчёркивает, что для предотвращения культурной стагнации ИИ-модели нужно поощрять или стимулировать отклоняться от норм. Если генеративный ИИ должен обогащать культуру, а не делать её плоской, системы необходимо проектировать так, чтобы они сопротивлялись конвергенции к статистически средним результатам. Без таких вмешательств генеративный ИИ продолжит дрейф в сторону посредственного и стандартизированного контента.

Больше статей на Shazoo
Тэги: