Эра пост-правды – популярные ИИ не смогли распознать фальшивость изображения о теракте в Бонди-Бич
В интернете распространяется фальшивая фотография, созданная с помощью искусственного интеллекта, которая якобы доказывает постановочность теракта в Бонди-Бич, Австралия, произошедшего 14 декабря 2025 года. Инцидент унес жизни 15 человек во время празднования Хануки, однако популярное ИИ-изображение показывает жертву нападения с накладной кровью до атаки. Самое тревожное – что популярные инструменты проверки подлинности изображений, включая ChatGPT, Grok и Claude, утверждают, что снимок настоящий.
На фотографии изображен израильский юрист Арсен Островский, недавно переехавший в Австралию, который действительно пострадал в результате атаки и дал интервью местному телеканалу Nine News с перевязанной головой. Кто-то взял реальные кадры Островского и создал поддельное изображение, где женщина наносит поддельную кровь на улыбающегося человека, похожего на юриста. Композиция намеренно выглядит как закулисный снимок со съемочной площадки, таких фото и видео в сети сейчас очень много.
Признаки ИИ-генерации очевидны при внимательном рассмотрении – на фоне видны деформированные автомобили, персонал со странными руками, искаженный текст на футболке Островского и дополнительный палец у визажиста. Многие версии изображения в соцсетях обрезаны так, чтобы скрыть наиболее явные артефакты ИИ. Google Gemini подтвердил наличие невидимой цифровой метки SynthID на изображении, что доказывает его создание через продукты Google, однако другие популярные детекторы ИИ дали обратный результат.
Chatbot Grok настаивал на подлинности фото. ChatGPT от OpenAI также подтвердил реальность изображения, указав на "правдоподобный контекст" и "естественную анатомию человека", хотя при детальном рассмотрении это не соответствует действительности. Аналогично ошиблись Claude от Anthropic, Microsoft Copilot и специализированные детекторы ИИ вроде SiteEngine и WasItAI, которые с высокой уверенностью заявили о реальности снимка.
Такие новости вызывают глубокое чувство экзистенциальной тревоги, поскольку они знаменуют собой наступление эпохи "пост-правды", где границы реальности окончательно размываются. Осознание того, что ведущие нейросети — инструменты, на которые мы привыкли полагаться в поисках истины, — не только не распознают фальшивку, но и с пугающей уверенностью встают на сторону лжи, лишает пользователя точки опоры. Возникает ощущение беззащитности перед лицом информационного хаоса: если даже сложные алгоритмы принимают явные дефекты AI-генерации за "естественные детали", то рядовой человек оказывается заложником манипуляций, способных очернить жертв трагедии или обесценить реальную человеческую боль. Эта неопределенность порождает постоянное фоновое напряжение, заставляя сомневаться в каждом увиденном кадре и превращая потребление новостей в изнурительный процесс бесконечной проверки, который лишь усиливает чувство недоверия к окружающему миру.
- Создатель Dwarf Fortress устал от разговоров об ИИ: "Нажми кнопку, и он напишет отвратительное эссе — и они все равно отберут твою работу"
- ИИ DeepSeek V3-0324 получил улучшенные возможности программирования и решения математических задач
- Продюсер серии Tekken: "Если бы ИИ действительно прогрессировал, мы бы не вливали миллиарды йен в создание видеоигр"