Сравнение DLSS и FSR — в Avengers технология AMD хуже, в Necromunda сопоставимый результат
На днях Marvel's Avengers и Necromunda: Hired Gun получили поддержку технологии масштабирования AMD FSR в дополнении к уже существующей DLSS. Благодаря этому появилась возможность проверить, как эти решения, призванные повысить производительность, показывают себя в одинаковых условиях. И первые результаты указывают на странный разброс в качестве FSR. В некоторых аспектах присутствуют откровенные проблемы.
Обновлено:
Тест в Avengers с ультра-качеством показал результат сопоставимый с DLSS. Хотя волосы у DLSS все ещё лучше:
Оригинал:
Пользователь твиттера 4r7hur поделился скриншотами использования FSR и DLSS в Avengers. В данном случае FSR показывает результат значительно хуже DLSS, тогда как DLSS даже лучше нативного. Кроме того DLSS генерирует лучшее качество мелких деталей, вроде волос персонажей. Возможно, это связано с тем, что тут использовался обычный режим качества FSR, а не ультра.
Тем временем Back4BuckPC Gamer опубликовал на ютубе сравнение технологий в Necromunda: Hired Gun. В случае этой игры ситуация совсем другая. Геймер отмечает, что FSR способна генерировать хорошее качество и высокую частоту, без полной нагрузки GPU.
- Stellar Blade на ПК получит поддержку технологии Multi Frame Generation от NVIDIA
- Технология DLSS 4 теперь доступна в более чем 100 игр, а Neural Shading для DirectX выйдет в апреле
- Как Дженсен Хуанг придумал и анонсировал технологию DLSS всего за две недели
71 комментария
ну так то фср в любом случае не хуже натива а фпс выше что уже плюс технолоии
@EDDISON, они просто не сравнили FSR 1.0 с DLSS 1.0
@EDDISON, Как оно может быть не хуже натива?
@DenZNK, волшебным образом походу ;)
@MOZR, правильней сказать FSR 1.0 с DLSS 0.1. То что вышло на релизе с метро, явно было бета-версией, ибо и близко не соответствовало планке.
@Reym, так какая разница. Релиз был? Был! Вон, поляки так пытались "пояснить" обсер по сами знаете чему и что? Факт на лицо, так сказать. Так что DLSS 1.0 это правильно. ИМХО
@MOZR, смысл? Когда появится FSR 2.0, будет DLSS 3.0 и так далее. Nvidia все время на несколько лет впереди.
@YogurtPoleznii, да-да... Вы часом не в Intel работаете? Там такие же, "уверенные" ребята работают xD
В Avengers все из-за сглаживания СМАА, которое даже в нативе в 4к дает мерцания и съедает тонкие детали. АМД разрабатывала ФСР в первую очередь для ТАА сглаживания, от этого мы и видим, что в некромунде результат сопоставим, в Avengers же 2 проблемы:
1)СМАА
2)Квалити, а не ультра-квалити мод
В ларке просто использовал квалити, а не ультра-квалити, что говорит о его здоровом уме...
@Vorbs, в Ларке ? XD
@Maxhope, читать умеем? В ларке просто квалити(1440р рендер), что уже дало картинку натива, кстати, а есть еще ультра-квалити(1660р)
@Vorbs, ещё раз чтец ты наш , где тут Ларка вообще ?
@Maxhope, это троллинг? Подними глаза на новость, три рожи в ряд, это и есть ларка...
@Vorbs, в Ларке нет FSR вообще , это Avengers , lol
@Maxhope, да только ща допер, тут я обосрался, лицо уж очень ларку напоминает. Ну, сути это не меняет, убогий смаа, который даже с нативными 4к совладать не может и дает там рябь, и квалити мод
@Vorbs, обосрался - обтикай
@Dude_Lebowski, обсер не большой, так что обтекать не придется
@Dude_Lebowski, я, конечно, не адвокат, но ты реально душнила. Человек ошибся, а ты пеной брыжешь и оскорбляешь - гопота с района тебе аплодирует.
@Vorbs, Если они сравнивают во Мстителях dlss с нативом со сглаживанием - то они идиоты те еще, только без сглаживания надо сравнивать разумеется.:() Оно только поганит всю четкость графики и разрешения, это давно проверено уже.
В итоге типа лудсше выглядит с dllss даже чем без него, даааа, свежо предание да верится с трудом.))
К тому же почти не хуже даже так смотрится FSR во Мстителях чем с DLSS, опоры моста только с DLSS четкие а с FSR и в нативе - нет с такого расстояния, а как они могут быть нечеткие в нативе даже?
К тому же натив там равен FSR по качеству что уже отлично.
@MOZR, т.е. по твоему подобное обращение - "читать умеем?" "Подними глаза на новость" будучи не правым к незнакомому человеку ты не считаешь за душнилово? ок, мне с тобой не о чем говорить, росиянин
качестве - качество
FSR пока что мыло мыльное, хоть и лучше старых видов сглаживания и апскейлинга. Хороший способ затестить - скачать демку Riftbreaker.
Другое дело DLSS, где нейросети обрабатывают последовательные кадры, только купи RTX, ну купи
@Digent,
нейросети ничего не обрабатывают в видеокартах.
Нейросети стоят у nvidia в супер-компах и вычислительных сетях в сотнями графических ускорителем профессионального уровня и через них nvidia прогоняет сотни тысяч картинок-кадров из игр, тем самым тренируя нейросеть. Результат тренировки - модель увеличения кадров. Эту готовую модель и распространяют как dlss новой версии в виде dll-файлов. Блоки видеокарты просто выполняют работу в соответствии с готовыми алгоритмами, заранее просчитанными нейросетями. Теми самым моделями увеличения. Никаких нейросетей как таковых нет ни на видеокартах, ни в драйверах. Определённые блоки видеокарты всего-лишь выполняют математические операции по алгоритмам готовой модели.
@Digent,
В этой игре результат FSR меня ошеломил! Не ожидал ТАКОЙ картинки при ТАКОМ бусте фпс.
АМД от меня низкий поклон.
@Eyef, собственно, результатом тренировки нейросети является натренированная нейросеть. Её и распространяют в dll, она и работает. Почему вы считаете, что это нельзя называть обработкой нейросетью?
@Mishail, Он к тому что нейросеть создаёт матрицы на основе которых ALU обрабатывают векторы и реконструируют кадры в большее разрешение
@Eyef, это же и есть нейросесть, просто обучение она не выполняет, а распознавание картинки же ей нужно делать в любом случае.
Once the network is trained, NGX delivers the AI model to your GeForce RTX PC or laptop via Game Ready Drivers and OTA updates. With Turing’s Tensor Cores delivering up to 110 teraflops of dedicated AI horsepower, the DLSS network can be run in real-time simultaneously with an intensive 3D game. This simply wasn’t possible before Turing and Tensor Cores.
Как бы, и там и там нейросесть, тензорные ядра тогда зачем было бы ставить.
@Eyef, Чушь написал. Просчитанные алгоритмы выводит как раз все та же нейросеть.
@Reym,
я написал тебе принципы работы обычных нейросетей. Потому что я лично работал с нейросетями и создавал набор улучшенных нейросетями текстур для некоторых старых игр. Нейросеть как таковая - это пустая программа, которая может обучаться чему угодно. Её нужно натренировать на конкретные действия для получения нужного тебе результата. Полученный результат - натренированная модель. Т.е. готовый алгоритм. И этот готовый алгоритм можно передавать другим людям. Они его используют и получат тот же результат что и ты, при этом им не нужно тратить часы времени на обучение пустой нейросети и находить материалы для её обучения в количестве сотен тысяч картинок. Самые простые модели для нейросетей обучаются на 100 000 картинок. Есть модели, обученные на 500 000.
Думаю у Nvidia модели обучаются на сотнях миллионов изображений и тренировка нейросетей проходит месяцами непрерывно. Результат тренировки в виде готовой модели и выходит как новая версия dlss.
Нейросеть как таковая - это мозги. Модель нейросети - это алгоритм, который придумали мозги после того как научились выполнять однотипные задачи. Алгоритм - это как инструкции по строительству дома, с чертежами и перечнем того, какую доску куда прибить, как залить фундамент и т.д.
Без знаний алгоритм не получить. Именно наработкой знаний и занимаются нейросети в компах nvidia. После чего готовый алгоритм и распространяется и по нему работают видеокарты.
Хотя возможно в драйверах nvidia лежат файлы той же нейросети, которые и подхватывают готовый алгоритм.
@Mishail,
Нет, результат не натренированная нейросеть, а лишь алгоритм работы с конкретными задачами для пустой нейросети. Никто саму нейросеть не меняет. Меняются лишь алгоритмы её работы.
Судя по ответам выше с цитатой nvidia, в дровах видеокарты лежит упрощённая версия нейросети. Которая ничего не умеет.
На компах у Nvidia лежит эта же нейросеть, но обученная. Nvidia тренируют свою сеть на своих крутых компах тысячи часов, добиваясь нужного результата. Полученный нейросетями алгоритм с их компов - это модель увеличения. Эта модель и есть обновлённые версии dlss. Они скармливаются файлам из драйверов видеокарты и там видимо пустая нейросеть уже работает по готовым алгоритмам, пропуская стадию тренировки.
Точно также улучшаются текстуры нейросетями в старых играх.
Я брал нейросеть ESRGAN, потом брал натренированную модель увеличения картинок и подсовывал ей нужные мне мелкие мыльные текстуры из старых игр. Нейросеть на выходе давала улучшенную картинку. Я при этом могу взять другую модель увеличения и результат при одних и тех же входных данных будет совершенно другой.
@Eyef, такое чувство, что вы назвываете одно другим термином и считаете, что это единственное правильное название.
Не нейросеть, а модель. Теперь всё же нейросеть, но обученная, что совсем не то же самое, что натренированная :)
Очевидно, что никто не будет заново тренировать нейросеть для каждого клиента. Так никто и не делает. Это не отменяет, того, что это нейросеть. Просто она уже не тренируется на входных данных. Всё.
@Mishail,
Нейросеть - это программа. Модель для нейросети - это алгоритм для её работы. Нейросеть -это мозг, который может выполнять разные задачи. Одна задача - накопление знаний, т.е. тренировка нейросети. Результат тренировки - готовая модель.
Вторая задача - работа с входными данными по уже готовому алгоритму, т.к. по модели.
Модель - это отдельный файл, созданный в процессе работы нейросети. Он распространяется и передаётся к необученным нейросетям. Процесс обучения нейросети - это процесс создания разных моделей. Сама по себе нейросеть не меняется и не становится умнее. Она лишь генерирует разные алгоритмы действий в процессе обучения разным задачам.
Натренированная нейросеть - это сама нейросеть, которой во входных данных указали использовать готовую модель. Нетренировання нейросеть - это просто пустые файлы нейросети. Если им дать одну картинку без модели, то она не получит никакого адекватного результата.
Это как подойти к случайному человеку на улице и сказать ему построить дом. Если у него нет никаких знаний - они ничего не сможет сделать. А если подойти к нему и вручить книгу "пошаговое руководство по строительству домов", то он всё построит сам. И если дать эту книгу другому человеку, который также будет соблюдать всё что написано в книге, то он получит тот же результат. Модель - это книга. Нейросеть - люди, которые могут делать что угодно, но ждут конкретных описаний задач. Натренированная нейросеть - это человек с книгой.
Думаю проще аналогию привести уже нельзя)
Я это к тому написал, что задачи видеокарт в компах людей в 10 раз проще, задач, которые выполняют нейросети nvidia. Видеокарты лишь работают по готовому алгоритму. А сами нейросети обучаются у nvidia на крутом оборудовании.
FSR от amd по сути тоже работа видеокарты по готовому алгоритму. Разница лишь в том, что алгоритм amd написали люди, а алгоритм nvidia создали нейросети путём очень долгого обучения и для работы по этому алгоритму используют спец. блоки видеокарт. Потому что алгоритм вышел ресурсоёмким.
@Eyef, ты не понял, там выделенное железо под обработку этих алгоритмов. Без них все это не работает.
А про обуч6ение прямиком на картах, ни кому и в голову не приходило, кроме, видимо - тебя.
@Eyef, кажется вы слабо разбираетесь в предмете. Обучение в простейшем случае это нахождение коэффициентов связей между "нейронами". "Моделью" вы видимо называете эти самые коэффициенты. nvidia рассчитывает эти коэффициенты. Это долгий и затратный процесс. Понятно, что клиенту поставляется уже всё готовое. Но на выходе nvidia получает ровно такую же нейросеть, что постовляется любому клиенту.
@Reym,
это ты ничего не понял в написанном мной. Я не говорил ничего про обучение на видеокакартах.
Я сказал что свои нейросети nvidia обучает на специфическим дорогущем оборудовании, типа ускорителей вычислений. Результат их работы распространяется в виде новой версии dlss. И видеокарты уже по готовому алгоритму работают с играми.
Смысл всего того, что я написал в комментах сто раз разными словами как раз в том, что видеокарты в компах людей при включении dlss выполняют в 10 раз меньше работы, чем выполняет спец. оборудование nvidia для создания новых версий dlss.
@Eyef, это и так все знают, а значит ты подразумевал что кто-то полагает иное.
@Eyef, а почему ты считаешь что работа нейросети это только процесс ее обучения? Все ведь верно. В нвидия ее "обучили". Точнее нашли веса значений для каждого узла.
А в ГПУ у тебя в компьютере она уже работает по заданным весам. Скорее всего файлик библиотеки длсс как раз и содержит веса узлов для каждой игры.
Обучение это процесс подготовки нейросети. А в играх мы уже используем это. Понятно что процесс обучения во много раз сложнее.
FSR считай выиграла, она стала родной технологией для приставок. Ну и уже встроенная поддержка у Unity и Unreal ускорят весь этот похоронный процесс для DLSS Нвидии. :)
@Vik,
dlss уже встроили в unreal как подключаемый плагин. Поэтому любой разраб будущих игр на Ue4 может сделать поддержку Dlss с первого дня выхода игры. Если захочет.
В unity тоже уже встроили Dlss или встроят в последней версии. Ещё в апреле этого года анонсировали. Сейчас уже скорее всего выпустили. Но я не слежу на Unity, поэтому на 100% сказать не могу.
Разница лишь в том, что nvidia за интеграцию своей технологии занесла чемоданов, а amd просто выложили исходники технологии в открытом виде.
@Eyef, Приставки решат всё дело - зачем разрабам разрываться на две технологии при производстве игры для всех платформ. Ну, или даже если перевод игры на другую платформу только предполагается.
@Vik, если обе технологии уже встроены в движок и работают изначально, то разрабам ничего делать и не придётся. Кроме добавления одного пункта меню в версии игры для ПК, позволяющего включить ещё и dlss. С точки зрения разрабов, использующих готовые движки - разрываться не придётся.
Только студии вроде EA со своим Frostbite и ubisoft со своими движками от Division, FarCry, Assasins creed придётся напрячься и самим внедрять эти технологии.
Кроме того, недавно была новость что майкрософт сами делают аналог dlss, а значит технологию от amd они использовать не хотят.
@Eyef, настолько не хотят, что внедрили даже в хбокс оне и га сайте амд висит значек хбокса, как заинтересованного партнера)
В пс5 без объявленя поддержки игры с фср внедряют
@Vorbs,
если бы их полностью устраивала технология amd, они бы не начинали делать свою.
А технологию amd они внедрили по двум причинам
@Eyef, я все это понимаю, но хбокс лично сказали, очень ждали эту технологию, а что ты там себе придумал-твои проблемы. Я как бы напомню, что в хбоксе карты амд стоят и будут стоять, так что в этом поколении будет рулить фср, в будущем аналог длсс от майков под карты рдна3, ага
Фср же еще улучшится и в итогезаменит обычный апскейл, так что смерти его ждать не стоит, а вот за длсс я бы побеспокоился
@Eyef, Сам 12-й Директ Икс разрабатывался майкрософтом вместе с АМД, этот новый директиксовский "dlss" тоже разрабатывается вместе с АМД.
Всё это как бы жирно намекает, что не будет полного равновесия в играх между dlss и FSR.
И не стоит делать выводы, что развитие FSR (т.е. внедрение его прямо в директ икс) происходит из-за того что он "не устраивает". Просто идет развитие и вглубь и вширь, вот и всё.
@Vik, а почему похоронный? Обычные методы сглаживания никогда не сравнятся с потенциалом нейросети, который почти бесконечен. То что у технологий схожий для конечного пользователя результат - оптимизация - вообще не делает их конкурентами.
@Reym, лучше натива длсс не станет, крыша у технологий одна...
@Vorbs, но её основа может вполне перерасти в самостоятельную среду. Или же послужить базой для того же nvidia gamegan.
@Vik, и ксти, от разрабов вообще почти не требуется какой-либо работы для введения dlss в игру.
@Reym, может, а может и не может. А по итогу фср станет стандартом, который заменит обычный апскейл, а майки, опять же с амд, сделают другой аналог длсс с ИИ. Теперь вспоминаем, что рдна 2 в приставках, в компах, в мобильниувх, в теслах и в каждом утюге, так что выходит, длсс ждет судьба хаирворкса и г-синка...
@Vik, Ну похорон то прям не будет, просто будет dlss для обладателей rtx карт вот и все.)
В играх где будет его поддержка конечно, а вот FSR будет почти везде.
Вот если dlss 3.0 не будет в будущем - значит нвидиа забила на серьезную конкуренцию с FSR, но вряд ли так будет конечно.
@Vorbs, Хайрворкс кстати есть в Метро 3 2019 года выпуска и сейчас он весьма радует, не жрет фпс причем как было в том же Ведьмаке 3. На г - синк какой то там для мониторов чисто всем плевать так и так как и на аналог этой технологии от амд.
Лучшие волосы у персонажей правда были в Shadow of the Tomb Raider в 2018, красивых таких волос вне СGI еще не видел, в Сталкере 2 еще будут они что надо явно.
@Vorbs, откуда такая уверенность? Сейчас половина плюшек в играх по умолчанию, это некогда наработки зеленых.
@Alex_Petr_777, Да я просто преувеличиваю, конечно. Куртка, он упорный, почти никогда не забрасывает свои задумки. В отличие от прошлых поколений своих видеочипов. :)
@Reym, каких? с открытым кодом? поскай. Хаирворкс за последние годы вышел только в метро, физикс нвидии - метро. мониторы с чипом г-синк стоит как самолет,т.к у меня моник за 40к с наклейкой г-синк, а по итогу фрисинк премиум. Технологии такие, какаими их задумывала нвидия изначально - в коме и выходят погулять раз в 3-5 лет в какой-нибудь спонсорской игре, типо метро, все остальное - опен сорс.
Думаешь просто так амд видеокарты в кажом утюге стоят? все из-за открытости компании, что майки, что сони, что эйпл, они сами пишут дрова под рдна2 карты, так и с технологиями, закрытые технологии - мертвые технологии, но они дают хорошие продажи в короткой перспективе - в момент выхода, как реклама, что и использует хуанг
@Alex_Petr_777,
TreesFX, это волосы амд были, они почти в каждой игре сейчас
@Vorbs,
А тут дело вообще в другом. АМД намерено выпускает заниженные архитектуры, чтобы они подошли под все. Им экономически ок.
Все зависит от того, под что оптимизирована игры и какая карта конкретно у вас :)
@Galactrix, почти у всех были, есть и будут зленые карты. Когда цену упадут, все побегут менять свои gtx на rtx.
А ещё технология моложе
Думаю что та что тамбурной зависит как обычно от прямых рук )
ФСР в Анно не понравился. Артефачит дым и провода от столбов частенько пропадают. ФПС бустит, но с подобными косяками лично мне не очень смотрелось.
А главное что FSR будет на портативке от вентелей. И жрать она после этого будет реально ВСЕ на годы вперед мощности хватит.
@SteelAdder, лучше наверно все же подождать какую-то про версию, или позднюю ревизию. У них на сайте внизу сноска - возможны изменения.
@Reym, до декабря еще сотни изменений могут произойти, я не призываю брать прямо сейчас, я скорее намекаю тем, кто ноет, что "мощности не хватит".
А так , в целом, торопиться никогда не стоит, хотя признаю и очень хочется.
Что и требовалось доказать https://www.youtube.com/watch?v=eRZiR19keUc
Avengers с ТАА сглаживанием дает картинку схожую с длсс и при этом не ребит, до этого тест был у человека в СМАА и с пресетом ниже лучшего.
@Cohen, новость можно и дополнить,т.к. появился перетест
@Vorbs, Ну вот именно, а надо было вообще без сглаживания сравнивать, но не, в 2к21 люди все еще не знают видимо как оно поганит и мылит всю четкость картинки, я то еще в 2017 узнал например и ужаснулся...)
Тем более какой умник будет играть в 4к и даже в 1440p со сглаживанием - не знаю, оно в 1440p даже не нужно на 55'' 4к экране, в 3 - 4к тем более.
В итоге во Мсителях FSR почти не хуже DLSS выглядит, в Некромунде не хуже - это победа по сути.) Фанатики dlss могут курить спокойно в сторонке, а то ждали все с пеной у рта что будет разгром просто при сравнении FSR с dlss видимо.
Теперь вместо оптимизации разрабы будут просто пихать ФСР и ДЛСС, чтобы дожимать до 60 фпс. Без них станет неиграбельно
@pRosta, с другой стороны и картинка должна быть в разы лучше. Иначе интернет их загнобит.
@Reym, Ну тут хз. Много говна и не говна выходит, где графика посредственная. И народ поддерживает рублем.
Или скажи это японцам))) Многие игр там графонием изначально не блещут, а порты часто бо-бо твоему здравому смыслу делают. А они ломят ценники и народ покупает все равно.
Ну и не только японцы. Народ хавает. В Control я бы не сказал, что картинка ок - там даже на ПК мыльновато и много так себе моментов для закрытых пространств, т.к. движок все равно не очень. Лучше, чем в квантум брейк, но все еще не очень. Но там интерактивность есть, поэтому даже если я не согласен, то мне сложно спорить на что ушло фпс, на физику или на картинку.
Я бы предпочел, чтобы больше физики в играх появлялось, чем бесполезных 8к текстур и 30 кадров в псевдо 4к разрешении.
говорят в рдр2 длсс ужасный, это правда?
@mashaividova, да, очень странная реализация, тонкие детали типа волос Артура или гривы лошади все в артефактах, но остальная картинка огонь. Но можно попробовать закинуть другие версии dll.
@mashaividova,
Подробности
Ну собственно чудо не произошло. Там где DLSS, в более низком разрешении (т.к нет пресета Ultra Quality как у FSR) рисует картинку лучше нативной, FSR, даже при большом разрешении, и соответственно меньшим фпс только зашарпил картинку, и всё.
Взгляните на цепи. С DLSS они не теряют форму и не артефачат, у FSR же просто каша пиксельная. И сразу обращусь к дурачкам. Не надо писать про 300%. Картинку зумят, из-за шакального качества на тубе. Когда вы будете сами играть, разница будет такая же, как на скрине. То есть огромная и отчетливо заметная, особенно вдали.
Тем же, кому главное "ШОБ МЫЛА НЕ БЫЛа", могут без проблем применить шарп, и получить чистое изображение без артефактов и лесенок. FSR же уже ничего не поможет, кроме как дальнейшее увеличение разрешения и соответственно уменьшение производительности.