Слух: Характеристики AMD RX 6000 указывают на высокие частоты GPU

Слух: Характеристики AMD RX 6000 указывают на высокие частоты GPU

До официального анонса видеокарт AMD RX 6000 еще месяц, но благодаря коду macOS Big Sur уже стали известны характеристики будущих новинок. Данные обнаружил реддитор stblr.

В ходе анализа пользователь наткнулся на спецификации для графических процессоров AMD Navi 21, Navi 22 и Navi 23. Согласно полученным данным, у Navi 21 будет 80 вычислительных блоков CU, у Navi 22 — 40, а у Navi 23 — 32. Что касается шейдерных процессоров, то это 5120, 2560 и 2058 соответственно.

На фоне 10 тысяч ядер CUDA у RTX 3090 количество процессоров даже у Navi 21 не впечатляет. Однако RX 6000 могут оказаться производительными по части частот. У старшей модели 2050-2200 МГц, у Navi 22 — 2500 МГц.

При этом энергопотребление не превышает 240 Вт.

Кроме того, в коде набора AMD ROCm 3.8 было обнаружено и упоминание GPU Navi 31 с теми же 80 блоками CU. Что это за графический процессор и почему его характеристики уже есть, несмотря на то, что Navi 21 ещё даже не был представлен, неясно.

AMD собирается официально представить новую серию игровых графических карт Radeon RX 6000 через месяц — 28 октября. За две недели до этого ожидается анонс новых процессоров Ryzen на базе архитектуры Zen 3.

Ранее директор игрового направления компании Фрэнк Эйзор намекнул, что анонс Radeon RX 6000 не будет "бумажным".

Видео от Shazoo

Подписаться

31 Комментарий

  • Комментарий скрыт. Показать

    При этом потребление небольшое, впрочем как обычно всё майнеры скупят, но хоть от RTX отстанут.

    По факту ждём - верим - надеемся. В трассировке конечно вряд ли выиграют, но если в чистой производительности будут на уровне и в цене на ~50$ дешевле, то это наверное вин, хотя я если честно готов 50-60$ докинуть за лучи и DLSS

    4
    • Комментарий скрыт. Показать

      @Rumpel, когда железка стоит 700 баксов, +-50 долларов уже особого значения не имеют (глупо так экономить на топе, предтопе если уж решил покупать, иначе получится что скупой платит дважды), т.к. тут уже важно качество, качество и еще раз качество + долговечность изделия.

      8
    • Комментарий скрыт. Показать

      @H3BO3, Вот я того же мнения и поэтому жду Азус стрикс(хотя горят таф тоже ок), гигабит аорус и прочих топов, а там уже определять смысл переплаты и сравнивать с аналогами АМД. Планировал взять видюху в октябре-ноябре, но судя по всему лучше до января-февраля выжидать.

      Есть небольшая пословица - "Мы не настолько богаты, что бы покупать дешевые вещи", она какраз означает что иной раз лучше переплатить, нежели пожалеть о возможных последствиях "Экономии".

      3
  • Napalm39
    Комментарий скрыт. Показать

    Более чем уверен, что в играх топовая нави 21 даже не сможет обойти 3080, не говоря уж про 3090.
    Все что сделает амд, это как обычно составит конкуренцию нвидиа в среднем и начальном сегменте.

    5
    • GAAndalf
      Комментарий скрыт. Показать

      @Napalm39, 3090 - вроде же как для работы, а не для игр?

      6
    • FEARboy
      Комментарий скрыт. Показать

      @Napalm39, давайте проссто подождем выхода полноценных тестов для рдна2... Кожанка просто так что ли ценники такие поставил по сравнению с 2000 серией, а он явно побольше нашего знает... ))
      И потом выбор - длсс или нормально работающий фрисинк... ((

      6
    • Комментарий скрыт. Показать

      @FEARboy, я за фрисинк. на длсс 2.0 только скриншотики делать - при движении, на тонких объектах такие мерцания, что нафиг надо.

      1
    • kelevra
      Комментарий скрыт. Показать

      @GAAndalf, ну там прирост относительно 3080 в играх меньше, чем в рабочих аспектах, но для работы прям работы есть quadro с 48 гб на борту за 500к+ деревянных.

      0
    • stix2323
      Комментарий скрыт. Показать

      @Principus, у меня на dlss 2 никакого мерцания нет, о чём речь вообще не понимаю.

      5
    • Комментарий скрыт. Показать

      @GAAndalf, Титан тоже для работы, но тем не менее для игр это тот же максимум, Это как Спорткар против Болида - смысл тот же, при этом болит быстрее, но используется только для гонок.

      0
    • FEARboy
      Комментарий скрыт. Показать

      @stix2323, видео от Digital Foundry про Control и DLSS глянь, там идет разбор технологии и сравнивают 1.9 и 2.0 - прогресс очень заметен, меньше всяких недостатков...
      с тайминга 3-15 смотри...

      Control vs DLSS 2.0: Can 540p Match 1080p Image Quality? Full Ray Tracing On RTX 2060?

      2
  • Комментарий скрыт. Показать

    Интересна тема, но я далёк от неё, к сожалению. Вот бы в конце статьи была фрпза: "а теперь для тех, кто в танке - переводим на простой русский"!
    Ну, либо рыцарь в доспехах в комментариях объяснит про шрейдерные процессоры, блоки CU и так далее. Понимаю, что отражают мощность, но на что конкретно каждая деталь действует?

    1
  • feduk
    Комментарий скрыт. Показать

    Если это подтвердится на презентации (Энергопотребление) то зеленые уже не такое заманчивое предложение

    0
    • Napalm39
      Комментарий скрыт. Показать

      @feduk, мне например важна максимальная производительность в играх и достойная производительность в режиме трассировки лучей. Если с этими параметрами амд справится лучше чем хотя бы 3080 тогда я смело куплю их топовую биг нави

      2
    • Goddo
      Комментарий скрыт. Показать

      @feduk, я бы не надеялся, скорей всего все модели будет бюджетной прослойкой под всей серией rtx, цифры не впечатляют, ни частотые, ни количественные

      4
    • Corovaneer
      Комментарий скрыт. Показать

      @Goddo, в смысле не впечатляют? У Нвидии нет ни одной карты с 2,5 ГГц. Более того, сейчас везде пишут о том, что разгон 3080 выше 2 ГГц приводит к вылетам, черным экранам и проч.

      1
    • kelevra
      Комментарий скрыт. Показать

      @Corovaneer, берешь fe версию ну или msi и ничего это не будет. Пролюбились конкретно gigabyte/zotac решив сэкономить.
      А частота сама по себе при таком потреблении не даст ничего. Если красные внезапно не изобрели сверхэффективные решения.

      5
    • Itachi
      Комментарий скрыт. Показать

      @Corovaneer, ага, будет 2,5 ГГц на 1 секунду на рабочем столе, как было с 3-м поколением райзенов, АМД это умеют.

      2
    • Goddo
      Комментарий скрыт. Показать

      @Corovaneer, у инвидии все карты работают на 2ГГц, а бюджетная 3060 будет примерно как топ от амд по производительности

      2
    • Комментарий скрыт. Показать

      @kelevra,

      берешь fe версию ну или msi и ничего это не будет

      MSI:
      https://www.overclockers.co.uk/forums/threads/msi-geforce-rtx-3080-ventus-3x-oc-problems.18899764/

      So i recently recieved my MSI GeForce RTX 3080 Ventus 3X OC and i'm getting crashing problems with it. So basically when im in game within the first few seconds of playing it crashes (not Blue screen crashes out of the game) and i believe the problem is the factory overclock is too high, as the core clock speed boosts all the way up to 2010Mhz in game and as soon as it reaches that speed it crashes. It does this in all games. The only way i can fix this problem is by downclocking the core clock in msi after burner. Another thing that is strange is that MSI stated that the normal clock speed is 1440Mhz but it never goes that low even in idle, and the boost clock is 1740Mhz and that is the speed it sits at in idle. But as soon as you go in game its starts overclocking itself upwards towards 2010Mhz and crashes itself. I use no auto overclocking software of any kind, and haven't tried to overclock it once. the only thing i have done is downclock it to make it actully work in game. i am also using all the lastest Nvidia Drivers. Anyone have any ideas ?

      Референс от Nvidia:
      https://www.igorslab.de/en/gddr6x-am-limit-ueber-100-grad-bei-der-geforce-rtx-3080-fe-im-chip-gemessen-2/

      It’s no secret that memory modules can become significantly hotter inside than the outer surface on the top of the package or the bottom of the board would suggest. If you now set the maximum Tjunction to 110 °C for GDDR6, the remaining 6 degrees until the suspected throttling are really not a big cushion. But even such a high value is no reason for hasty panic when you understand the interrelationships of all temperatures.

      Unfortunately, NVIDIA and their board partners are very cautious about the exact use of this value for performance control (throttling down) or safety features like shutdown, but you won’t have bothered to do it for nothing. I for my part will also read the memory temperatures of the GDDR6(X) of the new ampere cards in all upcoming tests.

      5
    • Corovaneer
      Комментарий скрыт. Показать

      @Goddo, как будет - не знает никто. Речь была про частотные характеристики, и они у АМД заявлены заметно более высокие.

      3
    • kelevra
      Комментарий скрыт. Показать

      @H3BO3, про msi лол не знал. Смотрел видос у парня(jayztwocents), который разбирал многие версии и показывал всю эту историю с конденсаторами, вроде говорил что там не было экономии. А в нвидиа только в fe версии доставила mlcc(а у всех идет перегрев от их отсутствия) в количестве 2 штук и потому проблем также не должно быть.

      1
    • Комментарий скрыт. Показать

      @kelevra, ты по второй ссылке почитай (https://www.igorslab.de) там указано, что некоторые чипы памяти у референса (т.е. "эталонная" карта от самой Nvidia) греются до 104 градусов, при том что максималка вроде как 110. Всего 6 градусов в запасе. Что-то маловатый запас прочности.

      Впрочем решается, если вот так сделать - https://www.igorslab.de/en/simple-pad-mod-for-the-force-rtx-3080-founders-edition-slowers-the-gddr6x-temperature-by-a-whopping-8-degrees/
      Но карта-то относится к предтоп/топ сегменту (!?). Это странно, что нужно ручками там колхозить за такую цену.

      0
    • Goddo
      Комментарий скрыт. Показать

      @Corovaneer, в смысле никто не знает? как раз все всё уже знают, небольшая неточность может быть только в частотах амд

      -2
    • Corovaneer
      Комментарий скрыт. Показать

      @Goddo, пока есть только сливы и слухи, официально расскажут о характеристиках через месяц. По факту сравнивать можно будет только после выхода самих карт.

      2
  • feduk
    Комментарий скрыт. Показать

    RTX 3080 сейчас можно сравнивать только с обогревателями.

    Может новое решение от amd и не будет топом по производительности но зато ты будешь уверен что у тебя нигде ничего не загорится.

    7
    • FEARboy
      Комментарий скрыт. Показать

      @feduk, так по тестам на gddr6x под 104 градуса, вот хз нормальная или нет температура, правда производитель заявляет потолок то ли 110 то ли 120 градусов...

      1
    • feduk
      Комментарий скрыт. Показать

      @FEARboy, Как по мне это явно не нормально.

      2
  • Комментарий скрыт. Показать

    Кому интересно вот ТТХ всех новых GPU от AMD (в т.ч. и того, что будет в PS5):
    PS5 - https://www.techpowerup.com/gpu-specs/playstation-5-gpu.c3480 (16 гигов видеопамяти, интересно)
    RX 6500 XT - https://www.techpowerup.com/gpu-specs/radeon-rx-6500-xt.c3696
    RX 6700 XT - https://www.techpowerup.com/gpu-specs/radeon-rx-6700-xt.c3695
    RX 6800 XT - https://www.techpowerup.com/gpu-specs/radeon-rx-6800-xt.c3694
    RX 6900 XT - https://www.techpowerup.com/gpu-specs/radeon-rx-6900-xt.c3481

    Кстати, если косвенно смотреть получается, что RX 6900 XT будет где-то в 2 раза мощнее PS5 (но как на самом деле будет ясно, когда все выйдет в релиз). Но и TDP там будет >=300 Ватт, что в принципе недалеко от новых обогревателей от Nvidia )

    Топ AMD - RX 6900 XT с 16 гигами GDDR6 судя по всему будет слабее 10 гиговой 3080 с GDDR6X (вопрос в том насколько слабее) и мощнее 2080 Ti. Интересно какова будет цена на RX 6900 XT.
    ТТХ 3080 - https://www.techpowerup.com/gpu-specs/geforce-rtx-3080.c3621

    0
    • Комментарий скрыт. Показать

      @H3BO3, "Based off of speculation/reddit and other sources online."
      16 гигов видеопамяти чем вас удивило, если уже официально это озвучено, и она общая там, а не только для видеокарты, и так было всегда на консолях.

      0
Войдите на сайт чтобы оставлять комментарии.