Мощнее RTX 3000, пока не включен DLSS — анализ RX 6000 от Digital Foundry

Мощнее RTX 3000, пока не включен DLSS — анализ RX 6000 от Digital Foundry

Специалисты Digital Foundry провели полный анализ новых видеокарт AMD в сравнении с серией RTX 3000 от NVIDIA. Со стороны "красных" были RX 6800 и 6800 XT, который выступили против прямых конкурентов в лице RTX 3070 и 3080.

  • Новая система охлаждения определенно вышла лучше предыдущей — металлический корпус отлично рассеивает тепло, а три кулера работают эффективнее и тише турбины
  • Все видеокарты AMD получили по 16 ГБ видеопамяти типа GDDR6. У RTX 3070 памяти вдвое меньше, а у RTX 3080 — 10 ГБ, но GDDR6X. В реальных задачах между картами практически нет разницы, только в DOOM Eternal в 4K модели RTX 3070 явно не хватает дополнительной памяти
  • В игровых тестах RX 6800 легко обходит RTX 3070 на 5-10%, но и стоит вариант от AMD дороже на $80. Однако это без учета DLSS и трассировки лучей
  • RX 6800 XT сравнима с RTX 3080 — за счет высоких частот и более эффективной системы обращения к памяти видеокарта от AMD в некоторых моментах опережает конкурента. Однако в определенных играх (DOOM Eterrnal и Tomb Raider) Radeon отстает от GeForce почти на 10%

  • При включенном DLSS разница между видеокартами достигает 50%
  • В кристалле RDNA2 не предусмотрены ядра для машинного обучения, однако в будущем у RX 6000 и Xbox Series может появиться "умный" суперсемплинг от Microsoft
  • В играх с трассировкой лучей Radeon отстает от решений NVIDIA, так как технология "съедает" больше ресурсов у видеокарт AMD
  • Специалисты считают, что в будущем ситуация может измениться в лучшую сторону для AMD. Трассировка лучей станет универсальным стандартом для ААА-игр, так как сейчас даже Xbox Series S имеет поддержку этой технологии

Продажи AMD Radeon 6800 и 6800 ХТ стартовали в России 19 ноября по рекомендованной розничной цене в 53 590 рублей и 59 990 рублей соответственно. Однако, как и в случае с NVIDIA, найти видеокарты в свободной продаже достаточно сложно.

AMD работает с партнерами над тем, чтобы через пару месяцев удовлетворить спрос и снизить цены на серию RX 6800. Дефицит видеокарт может сохраниться до второго квартала следующего года.

39 Комментариев

  • Maxhope
    Комментарий скрыт. Показать

    Так ведь не мощнее... 6800 мощнее 3070 , но дороже , а 3080 в большинстве случаев быстрее 6800хт + тотальное превосходство Nvidia в трассировке + dlss... Смысла в Радеонах не много , хотя что то , что это , просто не купить.
    Единственный минус RTX3000 , это крайне мало видеопамяти , от чего 3070 уже задыхается в играх прошлого поколения в 4к + трассировка , а что будет дальше...

    16
    • Zart
      Комментарий скрыт. Показать

      @Maxhope, в вакууме 6800 дороже, но в реальности ни то, ни то не купишь.

      0
    • Maxhope
      Комментарий скрыт. Показать

      @Zart, зато как лопнет биток , надеюсь на поток дешёвых видиков , я так на прошлом хайпе продал 1070 майнерам , а через 8 месяцев за эти же деньги взял 1080ти )))

      1
    • Galactrix
      Комментарий скрыт. Показать

      @Zart, Купить можно хоть сейчас любую карту, правда сильно дороже ррц.

      0
    • Maxhope
      Комментарий скрыт. Показать

      @Galactrix, с дуру можно и ... сломать

      0
    • Комментарий скрыт. Показать

      @Maxhope, карты примерно равны.

      1. 4К все равно ни 6800XT, ни 3080 ультимативно не могут вывезти. Сами процы "слабоваты" все еще. Тоже самое и 3090 (3090 - для игр, дикий овепрайс, при той мизерной разнице в производительности с 3080 в играх). Еле-еле 60 FPS в требовательных к железу играх, это так себе. Да там в каких-нить оптимизированных проектах будет выше 60, но нужна ведь чистая производительность. А она в 4К до сих пор не очень. Хоть и гораздо лучше чем у 2080 Ti.

      2. Для 1080p/2560x1080p/1440p у 3080 вполне достаточно видеопамяти. Да, хотелось бы 12-14 гигов вместо 10, но и так сойдет. У карты запас мощи на годы вперед.

      3. 16 гигов у AMD - определенно маркетинговый ход, т.к. к примеру той же обычной 6800 эти 16 гигов видеопамяти без толку, т.к. просто сам ее граф. проц слишком слаб для высоких разрешений.

      4. Очень много мухлежа при подсчетах производительности. Тут уж зависит от того, кто из разработчиков с кем сотрудничал. Кто с AMD, а кто с Nvidia. В той же Вальгалле к примеру AMD обгоняет Nvidia (ну так там даже на заставке лого AMD). А в Control наоборот 3080 значительно опережает 6800 XT, даже без лучей. В нейтральных играх же результаты обеих карты примерно равны.

      ИТОГ: что кто увидит по норм цене, то и берите. Разницы-то нет между 6800 XT vs 3080. У AMD - больше видеопамяти, а у Nvidia лучший результат с трассировкой и есть DLSS.

      10
    • Maxhope
      Комментарий скрыт. Показать

      @H3BO3, пока есть RTX блоки и тензоры и цена примерно на одном уровне... Смысла в Radeon нет.
      Разница в цене должна быть 100-150$ , а не 50 , между 6800хт и 3080, а 6800 = 3070 по цене , тогда есть смысл

      7
    • Комментарий скрыт. Показать

      @Maxhope, 6800 дороже 3070 на 80$, явно дело в памяти, которая там не нужна в таких объёмах.

      0
    • Maxhope
      Комментарий скрыт. Показать

      @Rumpel, у меня 1080ти и 1440р , больше 8 вижу постоянно потребление и это ещё не игры нового поколения... И без трассировки , которая норм память жрет... 16 могут пригодиться через пару лет , а чип в 2к думаю будет тянуть норм ФПС

      0
    • Комментарий скрыт. Показать

      @Maxhope, для тех, кто будет юзать карты в проф. деятельности. Да, там только RTX 3000. ПО заточено под Nvidia.

      А для обычных юзеров - карты равны. Пример, если в магазине будет 6800 XT за 65-75к, а 3080 за 100к, то выбор в пользу 6800 XT очевиден. В случае же, если по факту цены будут равными, то тут уж кому что надо, тот то и покупает. Хотя вот 3080 100к не стоит. Да и 90к за нее платить - тоже перебор, нет такой производительности.

      Я 3080 выбрал, работает норм. Была бы 6800 XT в продаже по норм цене, то взял бы 6800 XT. Не вижу принципиальной разницы.

      А насчет разницы в цене в 50 баксов, согласен полностью. При таких суммах +-50 $ - это не разница в цене. Ее фактически нет. Формально 6800 XT и 3080 стоят одинаково. А по факту, 6800XT вообще нет на рынке, а 3080 понемногу есть и даже без дикого оверпрайса, но не везде.

      @Maxhope,

      16 могут пригодиться через пару лет , а чип в 2к думаю будет тянуть норм ФПС

      В 2К массово вряд ли. Единичные случаи не в счет. Я когда проверял лично из любопытства RX 580 с 8 гигами GDDR5 против RTX 2060 с 6 гигами GDDR6 заметил интересную штуку. Потребление видеопамяти было разным в играх. У RX 580 игры иногда отъедали больше памяти чем у RTX 2060, но при этом 2060 легко обгоняла 580 за счет более мощного проца и наверное быстрой памяти.

      А потенциальные сравнения (которые здесь могут быть) а-ля 1060 3 гига vs 1060 6 гигов неуместы, т.к. 3080 - это карта из совершенно другого сегмента (предтоп), к тому же у нее все же 10 гигов, а не 8. А сам проц достаточно мощный. Для того же 2K.

      2
    • Maxhope
      Комментарий скрыт. Показать

      @H3BO3, так всегда и везде , больше памяти - больше используется , до определенного момента конечно, соответственно меньше обращений к более медленной , от этого меньше всяких статеров и тд.
      Плавность выше , когда есть место для кэширования больших данных в более быструю память.

      0
    • Комментарий скрыт. Показать

      @Maxhope, только вот к примеру для 580 ее 8 гигов бесполезны ) Всухую проигрывает 2060 с 6 гигами из нового поколения. Гораздо большую роль играет мощь самого графического процессора и особенности его архитектуры.

      1
    • Maxhope
      Комментарий скрыт. Показать

      @H3BO3, если памяти нехватает , то никакая мощность от статеров не спасет , 6 явно мало на сегодня , не говоря о 4... Мне 4 нехватало ещё на gtx980 в Rise of the TR и COD того года , текстуры ставил на уровень ниже. Потом взял 1070 и вздохнул с облегчением.

      0
    • Комментарий скрыт. Показать

      @Maxhope, 6 - впритык, где-то уже не хватает для 1080p. 8 - уже норм. 10-11 еще лучше. Но вот только не надо писать (на упреждение) что обычной 6800 пригодятся все ее 16 гигов в 4К, т.к. она не тянет 4К. Это тупо маркетинг AMD. 16 гигов имеют смысл только для 6800 XT ) Да и то, пока только теоретически.

      Мне 4 нехватало ещё на gtx980 в Rise of the TR и COD того года , текстуры ставил на уровень ниже

      Разницы между высокими/ультра и полными максималками в большинстве игр - мизер.
      Проверял лично. Если же постоянно везде крутить все ползунки вправо, то о чудо 3080 не вывозит стабильные 60FPS даже в 1080p )

      3
    • Maxhope
      Комментарий скрыт. Показать

      @H3BO3, текстуры всегда максимум , это для меня одно из главных , я разницу вижу конкретно, с 2011 года сижу на 27" 2560х1440 и вижу эту разницу, когда 980 не тянула текстуры ультра в 1440р , а 1000 серия ещё не вышло , было печально.
      Именно нехватки 8гб на 1070 я не замечал , но с переходом на 1080ти вижу потребление в 9-10гб частенько и на глаз плавность перехода между локациями и тд , выше , не смотря на мощности чипа.
      Ещё в бородатом году я сменил gtx580 1.5gb на версию с 3gb , не из-за нехватки памяти , а из-за дросселей шумящих , просто на замену была только 3гб... Так вот тогда ещё я заметил возросшую плавность.
      16 конечно излишне наверное, но явно не 8 ставить в конце 2020... 12 думаю разумное решение.

      0
    • Комментарий скрыт. Показать

      @Maxhope, есть у меня сейчас и 2060, и 3080. Игра Doom Eternal. 2060 ее тянет без проблем. В 1080p. Но вот до полных максималок видеопамяти мало у 2060 (все остальное на максималки). Ставлю текстуры пониже. Геймплей плавный.

      Купил 3080*, ставлю полные максималки, включая текстуры. Разницы не вижу вообще.

      И это только 1 пример.

      Отсутствие статтеров и т.п. еще зависит от оптимизации самой игры (есть игры, где все равно будет всякая фигня, что ни делай, т.к. боссы какой-нить компании-разработчика решили забить на оптимизацию, типа итак купят), общей конфигурации системы, включая CPU и т.п.

      P.S. Если что, я не такой кадр, чтобы брать 3080 для 1080p ) Мог бы и с 2060 еще 2 года спокойно сидеть. 3080 взял для 4К TV + RDR2 60FPS, и некоторых других игр которые 3080 спокойно вытянет в 4К, на большом экране. Разумеется, я понимаю, что все подряд в 4К 3080 не вывезет ) Но 4К мне и не требуется где попало.

      2
    • Napalm39
      Комментарий скрыт. Показать

      @Maxhope, ты же понимаешь, что те цифры которые видеокарта потребляет по мониторингу, по факту является просто резервацией памяти.

      И сейчас вот я пользуюсь новой 3080 и в 1440р ни в одной игре потребления выше 7гб не видел.
      Если только повышаю масштаб рендера до 150%(имитация 4к), то тогда уже может потребляться 8-8.5гб

      4
    • Maxhope
      Комментарий скрыт. Показать

      @Napalm39, я и говорю что кэширование , от чего меньше нужно обращаться в оперативу , пока что именно критическая нехватка памяти в 8гб может наблюдаться только в 4к , но и игр нового поколения ещё нет , через пару лет возможно и в 1440р нехватка 8гб будет

      0
    • Napalm39
      Комментарий скрыт. Показать

      @Maxhope, с этим не спорю.
      8 гб могут оказаться проблемой через годик. Но вот думаю 10гб на 3080 точно хватит на года 3

      0
    • Комментарий скрыт. Показать

      @Maxhope,

      через пару лет возможно и в 1440р нехватка 8гб будет

      Массово того, что вдруг к примеру 3080 не хватит ее 10 гигов не будет.
      Только единичные случаи в отдельно взятых упоротых играх, где ручки у отдельных разработчиков будут особенно кривенькими.
      Т.к. у большинства все равно будут карты менее мощные чем 3080/6800 XT. А ориентироваться будут все равно на большинство. К тому же есть новые консоли. Та же PS5, а там явно GPU не столь мощный, что 3080.
      Уверен с вероятностью на 99%.
      Где-то конечно впритык, но 10 гигов будет хватать. Уж в 1440p-то. Что до 4К, то я уже писал несколькими комментами выше про то что там компромиссы.

      0
  • Imlerith
    Комментарий скрыт. Показать

    для майнеров сойдёт

    надо ждать Хоппер

    1
  • astro
    Комментарий скрыт. Показать

    Стал бы рассматривать 6800 если бы она была бы чуть дешевле 3070, так в ней смысла мало для 2k гейминга в моём случае.

    1
  • Ozzmosis
    Комментарий скрыт. Показать

    у меня вопрос - в чем разница между турбиной и кулером конкретно в видеокарте?
    в гугл лазил, только запутался.
    разницу между турбиной и кулером по внешнему виду понимаю (красный турбина, черный кулер).
    по функционалу, наверное, тоже - турбина дает более точечное охлаждение?

    0
    • Galactrix
      Комментарий скрыт. Показать

      @Ozzmosis, грубо - кулер охлаждает радиатор, турбина тупо гонит горячий воздух из кожуха.

      2
    • Комментарий скрыт. Показать

      @Ozzmosis, турбина в видяхе - это только для некоторых компактных сборок имеет смысл.
      В обычных случаях - ни в коем случае не бери турбину, если не хочешь наслаждаться симулятором взлетающего самолета )

      *Кулер - это совокупность радиатора и вентиляторов системы охлаждения CPU.
      В данном случае - вентиляторы.

      4
    • Hunter_on_deer
      Комментарий скрыт. Показать

      @Ozzmosis, на видеокарты устанавливают одну турбину - она гонит воздух через видеокарту и выкидывает с зади корпуса. Из минусов - громкая, если в корпусе жара турбира берет горячий воздух прогоняет через вк и выкидывает из корпуса, что снижает кпд охлаждения.

      Плюсы у турбины один - красиво.

      Классическое охлаждение кулером более эффективнее, меньше шума.

      4
    • DarckNEZ
      Комментарий скрыт. Показать

      @Ozzmosis, турбина это высокоскоростной вентилятор который увеличивает скорость воздушного потока, при этом создавая и большую шумность.
      От скорости воздушного потока зависит качество охлаждения радиатора - чем выше скорость, тем лучше охлаждается. При одинаковых условиях нагрева воздуха внутри корпуса турбина будет чуть лучше охлаждать чем обычный вентилятор, но и шуметь будет так же - сильнее. Ещё один + в сторону турбины - более качественное изготовление чем у вентилятора.
      Обычно в серверах используют турбины для создания охлаждающего воздушного потока - там наверное не идиоты это проектируют.
      В домашних условиях лучше использовать жидкостную систему охлаждения: тишина и высокая эффективность, минус - высокая стоимость.

      1
    • Комментарий скрыт. Показать

      @DarckNEZ, СВО - слишком высокий риск и по сути сегодня - это понты. Если там не разгонять до диких значений CPU.
      Уже бегу ставить перед своей 3080 СВО на проц )
      Протечет и прямо на карту стоимостью в 80к, вот будет веселуха.
      3080 кстати брал модель без вот этой модной ныне фичи выдувать горячий воздух прямо перед кулером проца, добавляя ему несколько градусов )
      Пусть Nvidia уберет такие модели обратно, откуда их вытащила )
      И 12-пиновые разьемы туда же, в топку )

      По температурам все в норме. Выше 70-74 не видел, это если карту на 100% нагрузить. Дикого шума нет. Радиатор правда массивный и карта тот еще увесистый кирпич, но есть металлическая подпорка в комплекте. MSI Gaming X Trio. Отверстий для выдува горячего воздуха с видяхи перед процом нет. Правда подсветка с этой странной полоской крайне на любителя, но я ее отключил через Dragon Center, оставив светиться только логотип.

      Турбина в обычной видяхе в обычном корпусе, для домашнего ПК - перебор. В PS4 Pro вот стоит турбина. Ревет под нагрузкой, ого-го.
      Спасибо, не надо )

      Нет, ну и 3 вентилятора могут реветь не хуже турбины, если обороты прямо на максималки выкрутить, но этого не требуется, в обычных условиях.

      1
    • Rom4n
      Комментарий скрыт. Показать

      @H3BO3,

      кстати брал модель без вот этой модной ныне фичи выдувать горячий воздух прямо перед кулером проца, добавляя ему несколько градусов

      Сомнительным тоже для меня выглядело, ну они наверн всё же шаристее нас.

      0
    • Комментарий скрыт. Показать

      @Rom4n,

      ну они наверн всё же шаристее нас

      Зная то, что во всяких именитых корпорациях и прочих очень крутых конторах далеко не все гении, мягко говоря, я бы не был столь уверен в их 100% компетентности )
      Хотя конечно, кто непосредственно занят в разработке архитектуры собственно самих GPU. Именно кристалла, то те да, крутые спецы.

      0
  • Комментарий скрыт. Показать

    В том году AMD конкурировала только с 2070S, и то 5700XT догнала ее только пару месяцев назад после ряда обновлений драйверов. В этом уже подобралась вплотную к топу. В следующем году борьба явно будет особенно интересной, когда и если AMD нормально отработает софт.

    1
  • Serjik22
    Комментарий скрыт. Показать

    С этим новым поколением гпу вообще двоякая ситуация. Вроде и скачок производительности, все хорошо, лучи. Но провал по поставкам и завышенные цены до небес сводят на нет желание и возможность их приобрести. Буду ждать марта - апреля, глядишь наладится. Взял бы или 6800 или 3070, был бы ценник в 40-45...

    1
  • Комментарий скрыт. Показать

    Нужно дождаться ответа в виде аналога dlss от amd, тогда можно будет делать выводы

    2
  • Комментарий скрыт. Показать

    Ну,я бы подождал все таки когда выидет аналог длсс и лучей,сомневаюсь что отрыв тогда будет такой.Тогда уже можно сравнить,а так амд молодцы

    0
  • Комментарий скрыт. Показать

    dlss очень крутая штука, не помешала бы некоторым недавно несколько лет назад вышедшим играм, картинка более четкая, чем в нативном разрешении, так еще и фпс добавляет в районе +20 +25фпс

    1
  • Rom4n
    Комментарий скрыт. Показать

    А всё же выйдут модели с приставкой Super или Ti (н видиа запутала с этим супер), и будут ли карты н видии с увеличенным объемом памяти (3070 12-16Гб)???
    Где то читал новость что после НГ они снова начнут к услугам TSMC обращаться, если так то получается карточки на 7нм техпроцессе начнут производить.

    0
  • RazZzor
    Комментарий скрыт. Показать

    По поводу RTX, будет так же как и с freesync vs g sync, амд идет по пути открытого кода и простоты внедрения + на консолях их начинка и там будут использоваться их наработки. На данный момент NVIDIA в этом направлении преуспели, но тут всё зависит от разработчиков игр и какие инструменты будут использовать они. А DLSS аналог они тоже сделают. Факт в том, что в грубой производительности АМД сделала гигантский скачек и ворвалась в высший дивизион рынка. Если смотреть правде в глаза, фишки NVIDIA на данный момент оооочень мало где есть, но в проектах где они есть они могут, с другой стороны есть куча проектов которых большинство где этих фишек нет и там АМД теперь конкурент, так что нельзя сказать что выбор теперь очевиден в выборе карты с учетом того что мы ещё не видели работу аналогов этих технологий от АМД и по какому пути пойдут разработчики с учетом начинки консолей нового поколения и рейтрейсинга на них.

    p.s. Я не фанат ни тех ни других, но время наступает интересное, наконец то действительно конкуренция назревает на ПК рынке.

    1
Войдите на сайт чтобы оставлять комментарии.