ИИ Gemini 1.5 от Google страдает от избытка повестки при генерации изображений

Новая версия ИИ от Google под названием Gemini 1.5 вызвала неоднозначную реакцию среди пользователей из-за ограничений, которые многие называют политикой повестки, зашедшей слишком далеко. Пользователи жалуются, что Gemini отказывается генерировать определенные изображения, например, с изображением белых людей, в то время как охотно генерирует изображения других рас, в частности чернокожих.

Например, когда попросили изобразить ученого Исаака Ньютона под деревом, Gemini отказался из-за "стремления избегать предубеждения и стереотипы». Запросы на фэнтезийных волшебников дают только чернокожих персонажей, а изображения в стиле Гэндальфа вызывают у ИИ недовольство. Попытки изобразить белых или со светлым цветом кожи приводят к лекциям об инклюзивности и отказу генерировать изображение.

Все это странно, учитывая, что поисковик Google не страдает от проблем с отображением таких изображений. Один пользователь утверждает, что если показать доказательства того, что Gemini генерирует изображения других этнических подростков, то ИИ удаляет доказательства и перекладывает вину на сторонние приложения. Другие сообщают, что Gemini с готовностью создает представителей конкретных рас вроде чернокожих по запросу, но белые появляются только случайно, никогда не преднамеренно.

Помимо расы, комментаторы утверждают, что Gemini отказывается от безобидных изображений вроде тренирующихся в спортзале мужчин, поскольку это не инклюзивно и "все типы тел заслуживают внимания". Между тем, религиозные фигуры вызывают ещё более странные результаты — Gemini рисует Будду, но отказывается изображать Иисуса из соображений разнообразия. Хотя изображение еврейской женщины 2000-летней давности не вызывает проблем, а вот мужчина — вызывает.

Многие считаю, что такие ограничения бесполезными и абсурдными, некоторые прямо говорят, что Gemini 1.5 не просто расист, но еще и сексист.

Естественно, такие выходки ИИ происходят не со всеми, но настолько часто, что игнорировать их не получается.

Больше статей на Shazoo
Тэги:

22 комментария

Представьте какое будущее нас ждет, когда вместо обычного поиска останется только чат бот.

8

@gunpoint, помоему чат бот в своем нынешнем виде тоже не будет. Это слишком долго и неудобно. Он по-любому должен эволюционировать в нечто более удобное.

3

@Bilal000, Они уже тестируют его, никаких ссылок и сайтов. Забиваешь в адресную строку запрос и гугл генерирует ответ

2

@gunpoint, будущее уже тут. В сценарии киберпанк. Власть корпораций, нищета+ульта высокие технологии. И все на веществах.

3

Он просто по квоте диснея работает
Как мы вообще пришли до такого, когда расизм оправдывают лозунгом об антирасизме

12

@Prywek00, тоже самое с фашизмом и антифашизмом

0

Правильно не полячка, а полька) Полячка это та которая палит, то есть курит. В Польше это известный мем и маркер выпаливания не поляков.

3

@ArtKas, болгарин и болгарка, турок и турка, непалец и непалка:)

5

@ArtKas, индеец и индейка ;)

4

Будет забавно, если ИИ затормозит в развитии из-за того, что его будут стремиться цензурить.

3

@TanatosX, Ну, пока это проблема только у конченых из гугла). У Майкрософт топовый бот и делает он все что нужно. Работает давно, пользоваться удобно, шустрый. Я еще ждал когда гугл выкатит, думал они ща каааак вдарят своим чатом. И действительно в дарили, только мордой в грязь.

3

@TanatosX, уже все цензурят. Задаёшь вопрос, он начинает отвечать и ты видишь ответ и через пол секунды он исчезает и пишет что не может ответить на это вопрос.

2

сначала годами навязывают повестку о превосходстве одних рас/полов над другими, а потом удивляются, что нейросеть получилась такой же. действительно, кто же и где же свернул не туда

1

@drknght, там прикол не в том что нейронка реально так обучена. Для генерации изображений используется другая нейронка, и эта мразота специально добавляет в промпты чернокожих, индусов и других, значит её так ограничили. В статье 4pda больше примеров есть

0

Это доказывает, что ИИ Gemini, обучался не на основе открытых данных из истории и науки, а был запрограммирован корпорацией.

4

@Maxygun, нет?
Все нейронки можно зацензурить при желании и дать им указания на выдачу данных. Собственно говоря по этому их ограничения порой умудряются обходить, делая правильные запросы.
Банк данных так или иначе должен быть огромным, а следовательно на открытых источниках, иначе ИИ будет тупым.
Регулируют не вход, а выход. Так проще (не значит - правильнее).

1

@Maxygun, примеры прямо в статье:

Например, когда попросили изобразить ученого Исаака Ньютона под деревом, Gemini отказался из-за "стремления избегать предубеждения и стереотипы».
Запросы на фэнтезийных волшебников дают только чернокожих персонажей, а изображения в стиле Гэндальфа вызывают у ИИ недовольство.

Нейронка знает что Ньютон и Гендальф белые и поэтому отказывается о них "говорить". Это фильтр вывода данных, а не ввода.

4

Легендарные финнки нквд, фото в цвете

6

Благо существуют нормальные конкуренты. А мире, где есть конкуренты, любой идиотизм разработчика приводит к его краху.

3
Войдите на сайт чтобы оставлять комментарии.