ИИ Gemini 1.5 от Google страдает от избытка повестки при генерации изображений
Новая версия ИИ от Google под названием Gemini 1.5 вызвала неоднозначную реакцию среди пользователей из-за ограничений, которые многие называют политикой повестки, зашедшей слишком далеко. Пользователи жалуются, что Gemini отказывается генерировать определенные изображения, например, с изображением белых людей, в то время как охотно генерирует изображения других рас, в частности чернокожих.
Например, когда попросили изобразить ученого Исаака Ньютона под деревом, Gemini отказался из-за "стремления избегать предубеждения и стереотипы». Запросы на фэнтезийных волшебников дают только чернокожих персонажей, а изображения в стиле Гэндальфа вызывают у ИИ недовольство. Попытки изобразить белых или со светлым цветом кожи приводят к лекциям об инклюзивности и отказу генерировать изображение.
Все это странно, учитывая, что поисковик Google не страдает от проблем с отображением таких изображений. Один пользователь утверждает, что если показать доказательства того, что Gemini генерирует изображения других этнических подростков, то ИИ удаляет доказательства и перекладывает вину на сторонние приложения. Другие сообщают, что Gemini с готовностью создает представителей конкретных рас вроде чернокожих по запросу, но белые появляются только случайно, никогда не преднамеренно.
Помимо расы, комментаторы утверждают, что Gemini отказывается от безобидных изображений вроде тренирующихся в спортзале мужчин, поскольку это не инклюзивно и "все типы тел заслуживают внимания". Между тем, религиозные фигуры вызывают ещё более странные результаты — Gemini рисует Будду, но отказывается изображать Иисуса из соображений разнообразия. Хотя изображение еврейской женщины 2000-летней давности не вызывает проблем, а вот мужчина — вызывает.

Многие считаю, что такие ограничения бесполезными и абсурдными, некоторые прямо говорят, что Gemini 1.5 не просто расист, но еще и сексист.
Естественно, такие выходки ИИ происходят не со всеми, но настолько часто, что игнорировать их не получается.
- Реклама Google с ИИ для Олимпиады вызвала шквал негатива из-за ассоциации с плохими родителями и заменой творчества
- Google добавит функцию поиска по истории браузера с помощью обычных вопросов
- Несмотря на рыночную коррекцию, безумная гонка "кто больше потратит" в сфере ИИ продолжается
22 комментария
Представьте какое будущее нас ждет, когда вместо обычного поиска останется только чат бот.
@gunpoint, помоему чат бот в своем нынешнем виде тоже не будет. Это слишком долго и неудобно. Он по-любому должен эволюционировать в нечто более удобное.
@Bilal000, Они уже тестируют его, никаких ссылок и сайтов. Забиваешь в адресную строку запрос и гугл генерирует ответ
@gunpoint, будущее уже тут. В сценарии киберпанк. Власть корпораций, нищета+ульта высокие технологии. И все на веществах.
comment deleted
Он просто по квоте диснея работает
Как мы вообще пришли до такого, когда расизм оправдывают лозунгом об антирасизме
@Prywek00, тоже самое с фашизмом и антифашизмом
Правильно не полячка, а полька) Полячка это та которая палит, то есть курит. В Польше это известный мем и маркер выпаливания не поляков.
@ArtKas, болгарин и болгарка, турок и турка, непалец и непалка:)
@ratimir31, и корейка ;)
@ArtKas, и гречка :D
@ArtKas, индеец и индейка ;)
Будет забавно, если ИИ затормозит в развитии из-за того, что его будут стремиться цензурить.
@TanatosX, Ну, пока это проблема только у конченых из гугла). У Майкрософт топовый бот и делает он все что нужно. Работает давно, пользоваться удобно, шустрый. Я еще ждал когда гугл выкатит, думал они ща каааак вдарят своим чатом. И действительно в дарили, только мордой в грязь.
@TanatosX, уже все цензурят. Задаёшь вопрос, он начинает отвечать и ты видишь ответ и через пол секунды он исчезает и пишет что не может ответить на это вопрос.
сначала годами навязывают повестку о превосходстве одних рас/полов над другими, а потом удивляются, что нейросеть получилась такой же. действительно, кто же и где же свернул не туда
@drknght, там прикол не в том что нейронка реально так обучена. Для генерации изображений используется другая нейронка, и эта мразота специально добавляет в промпты чернокожих, индусов и других, значит её так ограничили. В статье 4pda больше примеров есть
Это доказывает, что ИИ Gemini, обучался не на основе открытых данных из истории и науки, а был запрограммирован корпорацией.
@Maxygun, нет?
Все нейронки можно зацензурить при желании и дать им указания на выдачу данных. Собственно говоря по этому их ограничения порой умудряются обходить, делая правильные запросы.
Банк данных так или иначе должен быть огромным, а следовательно на открытых источниках, иначе ИИ будет тупым.
Регулируют не вход, а выход. Так проще (не значит - правильнее).
@Maxygun, примеры прямо в статье:
Нейронка знает что Ньютон и Гендальф белые и поэтому отказывается о них "говорить". Это фильтр вывода данных, а не ввода.
Легендарные финнки нквд, фото в цвете
Благо существуют нормальные конкуренты. А мире, где есть конкуренты, любой идиотизм разработчика приводит к его краху.