AMD не впечатлена технологией Nvidia DLSS — артефакты и масштабирование

AMD не впечатлена технологией Nvidia DLSS — артефакты и масштабирование

Перед запуском видеокарты Radeon VII были разговоры и замешательство в отношении того, что видеокарты AMD способны выполнять обработку на уровне технологии Nvidia DLSS. Однако во время предрелизного брифинга представитель AMD заявил, что эксклюзивная пост-обработка Nvidia не столь эффективна — непроприетарные технологии SMAA и TAA способны представить качество и производительность выше, чем технология Nvidia.

Суперсэмплинг при помощи глубокого обучения Nvidia уже появился в Battlefield 5, повысив число тайтлов, поддерживающих DLSS до двух. Однако вскоре ситуация может измениться, так как все больше игр станут выходить уже с поддержкой RTX. 

Тем временем AMD считает, что открытые стандарты SMAA и TAA не обременены негативными эффектами DLSS, такими как "артефакты, вызванные апскейлингом и грубое повышение резкости через DLSS". Несмотря на очевидные преимущества DLSS в сравнении с темпортальным антиалисингом AMD не считает такой подход лучшим. Конкурент полагает, что осуществление похожего процесса возможно и на видеокарте Radeon VII... Правда, демонстрации этого пока не было. 

Директор по маркетингу AMD Саса Маринкович заявил, что компания рассматривает методы, которые будут широко применяться в современных играх и отлично работать на Radeon VII, в связи с чем приоритетом станут SMAA и TAA, а не эксклюзивные технологии, подобные DLSS.

Вероятно, AMD уже ведет работу над аналогом DLSS, но с открытым кодом и для свободного применения. До тех пор, пока компания не сможет представить конкурентные видеокарты и продемонстрировать их эффективность в сравнении с DLSS, подобная позиция будет выглядеть как проявление слабости.

Видео от Shazoo

Подписаться

34 Комментария

  • Krasavchik
    Комментарий скрыт. Показать

    Самое лучшее сглаживание это высокое разрешение. Но нвидиа с некоторых пор предлагаем нам вернуться на 1080 ради лучей.

    15
  • Fleming
    Комментарий скрыт. Показать

    Даже если сейчас технология выглядит слабо, потенциал возможностей у машинного обучения (на котором и основана DLSS) колоссальный. По-моему неплохо, что Nvidia вкладывает деньги в исследования и разработку технологий, связанных с этим. Кто знает, во что это может вылиться спустя ещё несколько поколений железа

    13
  • Kolya12382
    Комментарий скрыт. Показать

    @Fleming, по-моему нвидиа срет в уши пользователям с этим "машинным обучением", ибо почему тогда "шахматный" рендеринг с консолей работает практически идентично(что шахматный апскейлит картинку с более низкого разрешения, что DLSS), но при этом не требует никакого наличия тензорных ядер?

    15
  • LeCasuel
    Комментарий скрыт. Показать

    Несмотря на очевидные преимущества DLSS в сравнении с темпортальным антиалисингом AMD не считает такой подход лучшим.

    Хоть у меня и карта серии RTX, не сказал бы что преимущество очевидное. В той же ФФ15 видны артефакты и не каждый готов с этим мириться. Плюс, преимущество пока для избранных, ибо доступ к технологии не открытый.

    5
  • VCS
    Комментарий скрыт. Показать

    @MontesNeir, да где же этот артефакт, едрить его в корень!

    2
  • Sr_psycho
    Комментарий скрыт. Показать

    @Kolya12382, иди отседава еретик!
    Продолжаем братья!
    - О великие лучи, дающие нам свет ценою кадра!
    Приди о великий dls и очисти очи наши от мыла в 4к!
    (из-за кулис) - Верховная сова - жрец, наши продажи идут вверх, похоже мы на правильном пути!
    - И так братья и сестры, светлый ангел мне только, что сообщил благую весть!
    Нас становится большем и вера наша тоже крепчает, так давайте же не будем останавливаться в наших мольбах лучезарному "кожану ".

    PS У меня shield tv и 1080ti :trollface:

    9
  • cr1t1cal
    Комментарий скрыт. Показать

    Зато от своей vii, которая таки смогла догнать 1080ti 2017 года они в восторге, да?

    8
  • LeCasuel
    Комментарий скрыт. Показать

    @MontesNeir, о тех, которые картинку мылят и разбирают на явные кубические зоны, наклонные поверхности и прочие провода. У всего есть цена, и тут чуда не произошло. И таких шакалящих волос у себя не помню, хотя проходил игру без DLSS. У тебя в целом скриншот с графикой ниже средних настроек.

    0
  • Sr_psycho
    Комментарий скрыт. Показать

    Друзья, вы забывайте о 16gb. При одинаковой примерно производительности radik на пенсию выйдет намного позже. Мне как человеку в прошлом с gtx 760 хорошо помниться как после специальных дров для evil with im 2, моя карта с 50+ просела в ~30.

    0
  • accn
    Комментарий скрыт. Показать

    @MontesNeir, как раз таки, чтобы повысить производительность шахматный рендеринг и используется, потому что нативые 4к слишком ресурсоёмки для текущего поколения

    0
  • LeCasuel
    Комментарий скрыт. Показать

    @MontesNeir, один 32" в 1440p, второй 43" в 4К. За скриншотами далеко ходить не надо - в стиме, пользовательских, валом. Проблем там таких нет. Судя по обилию лесенок на твоем скрине и размытым кустам вдали есть какая-то проблема или с разрешением, или отключенным сглаживанием.

    0
  • Fleming
    Комментарий скрыт. Показать

    @Kolya12382, Но ядра же реально существуют. Эти блоки есть на печатной плате, можно снять кожух, радиатор и посмотреть на них своими глазами. Вы же не полагаете, что это муляж ради обмана покупателей и инвесторов. К тому же Nvidia развивает технологии глубинного обучения уже не первый год, и в самых разных областях. Не вижу причин, почему бы им не попытаться использовать свои наработки и в области графического рендеринга.
    Насчёт отличий от других технологий я спорить не могу, т.к. не являюсь компетентным специалистом в этих технических тонкостях.

    1
  • LeCasuel
    Комментарий скрыт. Показать

    @MontesNeir, сириосли? Ты пишешь:

    Волосы на DLSS точно намного лучше, какими же они на TAA были пиксельными имхо)

    Приводишь в пример слових слов убитую картинку с лоу-настройками и дискутируешь что у всех так, а потом ВНЕЗАПНО чтобы увидеть лесенку на волосах надо с лупой в экран пялиться? Да, эти скрины одинаковы и отражают картину...

    2
  • LeCasuel
    Комментарий скрыт. Показать

    @MontesNeir, а в каких настройках надо еще сравнивать? Типа вот вам лоу в 640х480, а вот в 4К с DLSS и на последнем нет лесенок, ура? ) Притом что на твоем первом скрине сглаживания нет вообще. А ты в посте говоришь о TAA.
    зы. Еще и убрал этот скрин редактированием поста. Очень остроумно, чувак )

    3
  • LeCasuel
    Комментарий скрыт. Показать
  • MAX207
    Комментарий скрыт. Показать

    Лол сами сказали что делают DirectML поддержку в Navi, а это тоже самое ????

    0
  • LeCasuel
    Комментарий скрыт. Показать

    @MontesNeir, сбрасывайте. Я вот сам через пару часов докачаю и посмотрю на жуткие лесенки и то как они пропадают. Сравним )

    0
  • MAX207
    Комментарий скрыт. Показать

    @MontesNeir, Так речь про него и идёт

    0
  • Комментарий скрыт. Показать

    Не насилуйте термин, какой ещё темпортальный (порталы?) антиалисинг? Временной анти-алиасинг, лучше бы вообще на английском оставили.

    0
  • Catozombie
    Комментарий скрыт. Показать

    1) Картинка рендерится в качестве ниже оригинального и подгоняется потом под него, повышается производительность.
    2) Картинка рендерится в ОРИГИНАЛЬНОМ качестве, а потом DLSS своим ИИ подгоняет до более высокого качества, пусть и с затратами ресурсов.

    Теперь выберите вариант, где технология улучшающая качество, а где лютый маркетинг.

    Конкурент полагает, что осуществление похожего процесса возможно и на видеокарте Radeon VII...

    Все правильно, все технологии Nvidia могут работать на Radeon. Даже PhysX, который якобы только на Нвидии работал, при покупке технологии у Ageia работал даже на древних Нвидиях, но не работал на Радиках. Что, у новых и старых видеокарт Нвидии появились блоки вычисления физики после покупки технологии? Смешно

    Короче этот ИИ - 100% уловка. Рейтрейсинг работает и на Радиках.

    RT ядра это тоже скорее всего как CUDA ядра, которые по факту самые обычные вычислительные блоки видеокарты что и раньше. Называются только по-другому. И вообще функции ИИ видеокарты уже давно выполняют за счет самых обычных вычислительных блоков. CUDA/RT - это типичный маркетинг, придумывания "особых" названий для обычных вещей. Ладно бы они еще бонусом шли, но вы же доплачиваете ровно на ту же сумму добавления.

    2
  • Sr_psycho
    Комментарий скрыт. Показать

    @Catozombie, братья и сестры! Еретики своими подлыми молвами подрывают веру в чудо! Не давайте мракобесам очернить лик лучезарного!

    0
  • Catozombie
    Комментарий скрыт. Показать

    @Sr_psycho, уверовал ли ты в силу Святого Потанцевала, брат мой?
    Святая троица из Фуфыкса, Рузена и Радика смотрит на меня и улыбается. А улыбаются ли вам ваши боги?

    0
  • Catozombie
    Комментарий скрыт. Показать

    @MontesNeir, это же лучи скверны, брат! Окстись, тебя еще можно спасти, Лиза Су проведет обряд очищения, а ты пока держись.

    0
  • Catozombie
    Комментарий скрыт. Показать

    @MontesNeir, это дьявол в кожанке направляет тебя говорить такое. Люцифер, который предал свою родню

    0
  • Sr_psycho
    Комментарий скрыт. Показать

    @Catozombie, Ну я выбираю устройства по необходимости, не циклясь на маркетинговой шелухе. Мне нужен GameStream и хороший fps. Потому и купил 1080ti. Но в целом у карта у amd хороша.

    0
  • Комментарий скрыт. Показать

    @cr1t1cal, Вы чето забываете я смотрю что нвидиа должна быть намного впереди конкурента учитывая сколько у них денег. Это как сравнить гвоздь с целым домом. То что амд плотно подбирается к конкуренту уже говорит о том что в нвидиа нихера за последние годы не делают.

    0
  • Kolya12382
    Комментарий скрыт. Показать

    @MontesNeir, как это не предоставляет? по сути он дает возможность консолям воспроизводить игры в 4к, когда нативное они явно не потянут

    0
  • Charley
    Комментарий скрыт. Показать

    @MontesNeir, Со стороны ты такой смешной, будто он без тебя эти картинки не посмотрит в интернете.

    0
  • LeCasuel
    Комментарий скрыт. Показать

    @MontesNeir, https://www.techpowerup.com/reviews/Performance_Analysis/Metro_Exodus/5.html
    Много где заметно мылит. Хотя местами да, стенка с более детальным бампом. Но все меркнет на фоне мыльца. Так что на любителя...

    0
  • LeCasuel
    Комментарий скрыт. Показать

    @MontesNeir, я говорил о технологии, о том, что у нее есть недостатки. ФФ лишь единственная реализация, кроме 3дмарка. Завтра будут тесты БФ5. Ты вступился, приводя ФФ примером и доказывая, что ДЛСС топ. Вот подтверждение, что не топ. Вряд ли титульная игра, которая была на презентации, получила не приличное качество.
    Но главный лол в том, что
    https://www.techpowerup.com/reviews/NVIDIA/DLSS_Super_Sampling_AA_Tested_Final_Fantasy/
    Так же мылит и в ФФ.

    0
  • Human2016
    Комментарий скрыт. Показать

    Раньше кричали, мол для 4К не нужно сглаживание, а теперь вот вам немного мыла через ии для поднятие фпс, и самое главное - слышь купи карту.

    0
  • Kolya12382
    Комментарий скрыт. Показать

    @LeCasuel, вот тут метро подоспело, на удивление выглядит очень неплохо

    1
  • An1metall
    Комментарий скрыт. Показать

    @Human2016, Это мыло может и не нужно было, если бы все умели в оптимизацию. Но имеем то, что имеем. С ростом мощностей об оптимизации думают все меньше, а спрос на 4К и увеличение полигонов на квадратный сантиметр растет не по возможностям кошельков. DLSS это костыль для тех, кто хочет на оба стула сесть: и 4К и картинка вроде со сглаживанием и fps вроде в плюсе.
    Про противостояние DLSS против TAA читать немного странно, у технологий разные предпосылки для применения. TAA не дает прибавки в производительности, даже наоборот ее ухудшает, но дает более качественную картинку. Про мыло от DLSS было известно, внезапно, с самых первых тестов.

    0
  • Human2016
    Комментарий скрыт. Показать

    @An1metall, Вот в том то и проблема что они хотят развевать эти новые технологии через потребителей, а мы, что самое интересное не хотим.
    Имхо по мне так вместо лучей и мыло сглаживания, уж лучше бы физику и ИИ улучшали.

    0
Войдите на сайт чтобы оставлять комментарии.