Исследования в области ИИ позволяют подделывать видео с речью человека
Один из аспектов искусственного интеллекта, о котором многие даже не в курсе — это то, насколько отлично ИИ справляется с созданием фальшивых аудио и видео, практически неотличимых от реальности. Даже с учетом того, что практически все знают о Photoshop и допускают возможность фото-подделки, что делать, сложно поверить, что видео тоже можно подделать так, что без глубокого изучения не понять, где истина, а где ложь.
Последний пример аудиовизуальной магии ИИ был разработан в Университете Вашингтона, где исследователи разработали новый инструмент, использующий аудиофайлы, соединяя их с существующим роликом так, что движение губ соответствует записанной речи.
Пример на видео выше, где представлено два видео-выступления Барака Обамы. Левое — источник аудио. Правое — компиляция с совершенно другим видео-роликом. Присмотревшись, можно увидеть небольшие недостатки, однако в целом выглядит очень правдоподобно.
Исследователи использовали Обаму в качестве примера, так как в сети достаточно высококачественных роликов для тренировки нейро-сети. Команде потребовалось семнадцать часов видео для калькуляции и воспроизведения движения губ.
Разработчики говорят, что их программу можно использовать для улучшения видео-чатов, вроде Skype. Сначала натренировал чат, а потом просто включаешь микрофон, картинку заполняет сама программа.
Главная же опасность в том, что подобные программы могут использоваться для создания видео-фальсификаций, где люди говорят вовсе не то, что они произносили в оригинале.
- Нобелевскую премию по физике получили "крестные отцы" ИИ
- Исследование: Восемь из десяти проектов, связанных с ИИ, терпят неудачу, сжигая миллиарды финансирования
- Google создает игровой движок с помощью ИИ — проект GameNGen уже симулирует игровой процесс Doom