Пугающие возможности нейросети по созданию фальшивой анимации реальных людей
Исследователи сделали еще один шаг в направлении реалистичных, синтезированных видео. Команда ученых из Германии, Британии и США воспользовалась ИИ для переноса позы головы, выражения лица, движения глаз и моргания с движений одного человека на видеозапись другого человека. Данный метод — не новинка, однако впервые качество достигло настолько реалистичного уровня.
По словам создателей нейросети, ей требуется всего несколько минут тренировки, после чего она способна переносить анимацию на выбранное видео. В ролике ниже можно увидеть, как система используется для создания фальшивых видео с Бараком Обамой, Владимиром Путином и Терезой Мэй. Удивительно, что подобный метод еще не используют "политтехнологи", для работы с населением, которое не умеет проверять информацию.
Разработчики отмечают, что они намеренно публикуют работу, чтобы информировать общество в возможности применения подобных техник манипуляции.
Любопытно, как на законодательных уровнях будут бороться с подобным? Запрещать размещение видео с политиками без разрешения? Тем временем исследование будет представлено на конференции SIGGRAPH 2018 в августе.
- Нобелевскую премию по физике получили "крестные отцы" ИИ
- Исследование: Восемь из десяти проектов, связанных с ИИ, терпят неудачу, сжигая миллиарды финансирования
- Google создает игровой движок с помощью ИИ — проект GameNGen уже симулирует игровой процесс Doom
22 комментария
Мне кажется когда такие технологии станут нормой, то уже мы будем довольно близко к киберпанку, в плане того что правительства будут ниже корпораций.
К сожалению, из всех футуристичных прогнозов пока воплощаются самые негативные - никаких тебе летающих машин, бессмертия и далекого космоса. А только антиутопия с тотальным контролем над информацией, глобальное загрязнение окружающей среды и т.п. Мы в дерьме.
Зато теперь если опозорюсь на видео - скажу что это все ̶ф̶о̶т̶о̶ш̶ нейросеть.
Ну, а если серьезно - страшно от таких возможностей, дает как огромную лазейку в законе, видео док-ва скоро приниматься вообще не будут.
с такими раскладами различные независимые расследования по видосам, постам, снимкам гугл карт, типа беллингкет становятся неактуальными
Вот будет поворот, если эта технология попадет в руки террористов.
Липсинк при дубляже - то, чего не хватало фильмам. Озвучка сильно упростится, если такую технологию внедрят.
Обожаю хай-тэк, но вот от этой технологии существенной практической пользы не вижу. Зато потенциальный вред - колоссальный. Ультимативный инструмент для фальсификации информации в СМИ.
@TanatosX, они уже, и давно ниже
@SleepNot, ничего нового, что мешало лет 50 назад снять видео с двойником какой либо публичной особы? В крайнем случае можно сделать пластическую операцию. Но в этом нету смысла. Это ни на что не повлияет. Есть официальные источники информации и официальные заявления. А идиоты и до этого верили в распятых мальчиков и ехали воевать с фашистами в соседний двор, тут никакие нейросети не нужны.
Я думаю с этого момента можно просто не смотреть ничего из средств массовой информации. По-моему с этим видео мы вступаем в эпоху когда ложь от правды станет неотличима. Более того - с трудом верится, что у спецслужб и иже с ними таких инструментов не было...
Сразу вспомнился старый фильм Бегущий человек, где вот такими наложениями фальсифицировали бой Шварценэггера с Охотником который выходить отказался
@egore_burial, в Бегущем Человеке не было свободы слова, не кому было опровергать/ проверять информацию. Если ты контролируешь все СМИ, то опять же тебе не нужны никакие нейросети, ты формируешь реальность.
@don-mika, да, абсолютно согласен. Но мне бегущий вспомнился скорее именно сценами вот этих замен)
Кстати видос называется прям четко: The Running Man - Future & TV Fakery
https://www.youtube.com/watch?v=LVuo_DyAf2g
@don-mika,
В том и дело, что фальсифицировать видео - инициатива затратная и технически непростая. А при наличии данной вундервафли кто угодно может плодить ворох фэйков каждый день. В огромных количествах это приведет к саботажу СМИ как таковых. Если сейчас можно верить хотя бы отдельной совокупности фактов и делать самостоятельные выводы, то при массовом использовании нейросетей для подделки видео можно не верить вообще ничему. Поток официальной информации накроет сверху тонна фэйка.
@SleepNot, что мешает отказаться от источника распространения фейков?
@don-mika,
Тогда придется отказаться от любых независимых источников и обращаться к государственным, которые тоже смогут играючи делать фейковый контент. Сейчас под вопросом в основном именно трактовка фактов, вскоре и факты перестанут быть таковыми.
С таким уровнем это по любому пойдёт в кинематограф. Даже не знаю хорошо это или плохо. За красивыми, деревянными лицами будут скрываться не очень привлекательные, но хорошо передающие мимикой лица нюансы эмоций актёры. Ну или вообще просто аниматоры.
@SleepNot, параллельные линии пересекутся и земля налетит не небесную ось.
Когда это будет в моем смартфоне? Я пошлю их.
@SleepNot,
Быть может в RPG играх можно будет использовать для создания норм анимации.
Хочу шутки про Mass Effect
Все в природе стремится к равновесию, если кому-то что-то выгодно,всегда есть тот, кому это вредно,на любое действие всегда находится противодействие,так же и тут,при распространении и массовом использовании подобной технологии,будет создана технология создания видео (или чего-то с новым названием) доказывающая,что она не творение нейросети, предположим камеры снимающие какой-то определенный тепловой отпечаток снимаемого и как-то добавляя эти данные в материал,не позволяя его подделать (ну или как-то так,даром предвидения не обладаю =) ),ну а спустя какое-то время будет найден способ подделать и это и так далее в бесконечном цикле.
@Spiter85, не плодите сущности. В твиттере тысячи фековых аккаунтов не нуждающихся ни в каких технологиях опровержающих их подлинность.
@TanatosX, И сегодня корпорации выше правительства, что вообще такое правительство когда страной управляют магнаты разных сфер и строят всю экономику. Пс про США. В РФ ОПГ.