Архитектура RDNA 2 станет основой для трассировки лучей и сжатия при затенении

Архитектура RDNA 2 станет основой для трассировки лучей и сжатия при затенении

AMD оказала большое влияние на рынок графических процессоров, выпустив серию видеокарт RX 5000 с архитектурой RDNA. В следующем году компания готовит чипы на базе RDNA 2, которая станет основой для новых технологий.

Речь идет о трассировке лучей и технологии сжатия при затенении с переменной скоростью (VRS).

TGA 2019: Анонсирована консоль нового поколения Xbox Series X
Только что на церемонии The Game Awards 2019 Microsoft анонс... Далее

Подобные нововведения коснутся консоли Xbox Series X, анонсированной на The Game Awards 2019. Вероятно, эти же технологии станут частью настольных видеокарт. В первую очередь речь идет об аппаратном ускорении трассировки лучей. RT-блоки не исключение, но в рамках гибридного решения.

Что касается VRS, технология уже внедрена в API DirectX 12. По словам Microsoft, она разработала два уровня: первый — поддерживается архитектурами Intel Gen11 и Nvidia Turing, а второй — только Turing. Текущая версия RDNA не работает с VRS.

Описание принципа работы VRS:

Как правило, в процессе шейдинга каждый пиксель просчитывается один раз. Подобная точность требуется далеко не всегда — многие участки на протяжении нескольких кадров не меняются. Здесь как раз и пригодится Variable Rate Shading.

В случае VRS кадр разделяется на несколько блоков. В зависимости от контента кадра и скорости, с которой объект меняется на следующих кадрах, размер блоков может меняться.

Видеокарты AMD на графических процессорах с архитектурой RDNA 2 должны выйти в следующем году. Первые подробности от самой компании могут быть озвучены уже в январе на мероприятии CES 2020.

Видео от Shazoo

Подписаться

56 Комментариев

  • Комментарий скрыт. Показать

    Дружеский совет: не пытайтесь переводить термины, суть которых не понимаете. VRS не имеет никакого отношения к сжатию, с затенением тоже не все так однозначно.

    8
  • Zenux
    Комментарий скрыт. Показать

    Игры 2020-2027г - здесь замылим, тут схалтурим, половину инфы возьмем из прошлого кадра и пустим пол лучика )

    3
  • Imlerith
    Комментарий скрыт. Показать

    Бл... Я так и не понял что будет представлять из себя трассировка АМД, это будет альтернативная реализация на уровне api или чё? Главный вопрос: как это скажется на играх? Будет ли трассировка Нвидии работать на картах АМД и наоборот? Или разработчики игр снова будут срать потребителям за шиворот? Типа: "вот, мы реализовали в игре трассировку методами АМД, хочешь её - беги в магазин за картой АМД, на Нвидии она работать не будет"?

    Такая себе конкуренция

    4
    • Beardisawesome
      Комментарий скрыт. Показать

      @Imlerith, Будет, раз Microsoft реализовал ее в DX12.

      2
    • MAX207
      Комментарий скрыт. Показать

      @Imlerith, Такая же как и у RTX, через DXR...на базе универсальных ядер или с выделенными блоками, раз в RDNA не будет её в полной мере, значит устройство чипа станет другим в RDNA 2.
      Выделенные блоки всегда лучше универсальных, но съедают площадь чипа полезную.

      0
  • John_Locke
    Комментарий скрыт. Показать

    Как раз собираюсь покупать карту 6000 серии от AMD.

    0
  • Oncore
    Комментарий скрыт. Показать

    @Imlerith,
    Да скорее всего будет единая вводная для железа. То есть код написан что как куда и откуда.
    А вот само железо будет уже прорабатывать его по своему.

    0
  • MAX207
    Комментарий скрыт. Показать

    То есть AMD на год примерно отстаёт от Nvidia в GPU...мда.
    RTX второе поколение выпустит на 7+ нм, с доработанными технологиями VRS и DXR , а AMD только первую с поддержкой этих технологий, хорошо что не взял RX 5700 XT. А ещё говорили что RTX проходняк...

    3
    • Beardisawesome
      Комментарий скрыт. Показать

      @MAX207, RTX проходняк. Сейчас все игры нормально идут на 1060, 1070, 1080 и 1080Ti. RTX серия ничего нового не предлагает и брать её крайне глупо, только если ты не сейчас прям вот собираешь комп и он тебе нужен.

      АМД не спешат, они обкатывают новую архитектуру и попутно с Сони и Майками делает поддержку лучей. Тем более у них давно есть технология их реализации через RenderPro.

      10
    • pape4
      Комментарий скрыт. Показать

      @MAX207, сколько игр с лучами ты прошёл за этот год?

      6
    • John_Locke
      Комментарий скрыт. Показать

      @MAX207, по ценам идоступности АМД далеко впереди. RX 570 стоит как GTX 1050 Ti, но в 570 +4 гига видеопамяти больше и до +10-30 фпс больше в играх.

      3
    • Zenux
      Комментарий скрыт. Показать

      @MAX207,
      АМД еще 1080 Ti обогнать не могут в большинстве игр, а это карта 2017 года, так что отстали прилично.
      Мин. и средний фпс (24 теста).
      1080 Ti FE-----73.4 - 88.4
      Radeon VII---63.7 - 77.4
      2070-----------62.8 - 74.9
      5700XT-------60.6 - 75.6
      2060----------54.3 - 64.5
      5700----------54.0 - 67.3

      3
    • MAX207
      Комментарий скрыт. Показать

      @Beardisawesome, Как раз таки это Nvidia обкатывает DXR от MS, AMD ничего не делает пока кроме разработки своей технологии на базе DXR, на базе технологии которую уже внедрили в игры и разработали инструментарии...вы фанатики AMD и потанцевала что ли ? Если начнут внедрять VRS массово и игры перейдут в DX12 ?) Что смогут эти карты ?

      @pape4, Четыре а ты ?

      @John_Locke, А причём тут бюджетный то сегмент ?? 90% в бюджетных RDNA2 не будет трассировки аппаратной, а такой же принцип как у Nvidia.
      И чего не сравниваешь 5500 XT и 1650 Super ?) Нафига почти в 2020 году нужна RX 570 ?)
      1650S стоит от 12к до 15к...как и RX 570
      https://www.youtube.com/watch?v=4x4sUf3OKOA наслаждайся, карта за 12к на уровне RX 590...ваши рекомендации с RX 570 устарели.

      2
    • pape4
      Комментарий скрыт. Показать

      @MAX207, ты угараешь?
      Б/у 570 стоит 5к рублей. :)
      Как и 580.
      И обе видеокарты лучше чем затычка 1650.

      Охренеть! Карта 2019 года ЛУЧШЕ (нет), чем карта 2017 года. Спешите видеть!
      Чувак, не позорься.
      Эра нвидии прошла вместе с релизом халтурной серии RTX, которая никому не нужна.

      0
    • MAX207
      Комментарий скрыт. Показать

      @pape4, Для даунов 1650 S на уровне разогнанной 590 )) по ссылке всё видно, но не в маня мирке да ?)
      А то что GTX 1650S лучше RX 5500 XT по цене и производительности на том же уровне тебя не смущает ?)
      Я знаю ты немного на голову слабоват, давно заметил на шазу)) ссылки чекать не научился, а нести херню да.
      Эра DXR только начинается, а RDNA по этой новости и все 5500 и 5700 уже устарели.

      1
    • Комментарий скрыт. Показать

      @Beardisawesome,

      Сейчас все игры нормально идут на 1060, 1070, 1080 и 1080Ti

      Расскажи об этом моему 4к монитору

      1
    • MAX207
      Комментарий скрыт. Показать

      @Zenux, Тут уже дело не в тупой мощности, а в технологичности...например с VRS Тюринги и RDNA 2 получат буст фпс, просто за счёт программной технологии на базе API, то есть больше КПД с тех же мощностей...а RDNA 1 уже не сможет в это

      1
    • pape4
      Комментарий скрыт. Показать

      @MAX207, у тебя реально интеллект не мейн характеристика.
      Покупать устаревшую затычку от зеленых 1650 "супер-пупер" за фуллпрайс.
      Когда можно купить 580/590 Б\у за два рубля три копейки, причем 8ГБ версии.
      Пофикси восприятие реальности, адепт зеленых.
      Оч смешно брыкаешься.

      0
    • Beardisawesome
      Комментарий скрыт. Показать

      @MAX207, С учётом того что у меня Intel+Nvidia, голословно на человека вещать ярлык, немного некрасиво.

      Ещё раз повторю. AMD давно уже использует DXR в RenderPro. Просто у неё сейчас нет устройств на рынке, которые используют их ОТДЕЛЬНЫМИ ядрами. Так что Nvidia и AMD вполне работают с DXR. Разница в том что АМД решили сконцентрироваться на процессорах и в следующем году выпустить уже видеокарты, а не как Хуанг поспешил со своими лучами и в итоге нигде толком они не используются. А где используются то это курам насмех. Если говорить не про игры, то в некоторых программах добавили в рендер эти лучи через тензерные ядра и это хорошо.

      С учётом того что Nvidia всегда выпускает сырой продукт и потом пытается его "внедрить"(привет GameWorks, Gsync и другие), то лучше дождаться что привнесёт АМД с ОТКРЫТЫМИ стандартами. Надеюсь Nvidia сможет с новыми картами в полноценный DX12 и Vulcan. Спасибо кстати за открытый стандарт сказать АМД, которые начали весь движ с Mantle и это ускорило внедрение низкоуровнего API на ПК.

      Плюс всё-таки ресурсов у Nvidia гораздо больше чем у АМД и последним приходится расставлять приоритеты.

      @n2o_dark, Расскажу. У меня GTX 1080. Есть 4к монитор, 4к телек и 2к 144Ghz монитор. В 4к карта некоторые игры в 60фпс может, остальные все в 40 фпс и это на ультре. Всегда можно уменьшить и получить 60фпс. Вот только 2080Ti не может в 60фпс везде так же, а это самая дорогая карта у NVidia. Даже 1080ti гораздо дешевле была, хотя для своего времени была монстром. Да и сейчас отличная карта.

      1
    • Reym
      Комментарий скрыт. Показать

      @Beardisawesome, так gpu обычно и покупают, чтобы обновить старье, или собрать новый... Никто в здравом уме не будет менять карту каждое поколение, а 2к и без rt лучше тысячной серии.
      @MAX207, зеленые, как и многие другие, уже давно работают над лучами в реальном времени. Единственная разница в том, что зеленые выкатили сырую технологию, дабы срубить бабла. А вообще, если кто-то и привнес огромный вклад во все это, то только brigade.

      0
    • Beardisawesome
      Комментарий скрыт. Показать

      @Reym, Я планировал поменять карту, но Turing вышел с минимальным отрывом от 10-й серии. Сейчас 20-я показывает себя лучше в этом году потому что Nvdia сами говорили что приоритет оптимизации отдают 20-й. По мне таже 1080Ti настолько удачная, как в своё время 8800GT(я про производительность, а не проблемы с отвалом чипа) была.

      0
    • Zenux
      Комментарий скрыт. Показать

      @MAX207,
      Логично, нельзя получить буст там, где бустить нечего.

      1
    • Reym
      Комментарий скрыт. Показать

      @Beardisawesome, ну для рядового пользователя, выбор стоит между имеющейся затычкой и новой картой. А переход с 1к на 2, это уже про энтузиастов. Так что если выбирать, то лучше последнее поколение.

      1
    • MAX207
      Комментарий скрыт. Показать

      @pape4, Господи так вот те лохи которые берут убитые жёлтые карты с ферм, фанатики) мы говорим про новое железо, про бу...за 15к можно 1080 найти и нахер твои RX не нужны если они уже слабее "затычки от зелёных"...чё же ты пропускаешь то мимо ушей про новенькую RX 5500 XT то ?))

      @Beardisawesome, Ну так у AMD цель консоли, а не GPU, в текущих реалиях политики AMD, GPU это побочный продукт изготовления полузаказных решений для консолей. На консолях я уверен выйдет годно, потому что там чёткая цель и своя среда разработки...а вот GPU я не уверен.
      И речь в том что Nvidia не прогадали с RTX, это развивает Sony и MS, игры под это будут, в 2020 выйдет новое поколение RTX, которое уже имеет РЕАЛЬНЫЙ опыт работы с DXR, у Nvidia как бы тоже есть API для трассировки давным давно свой) Так что RTX это дальновидный шаг который по сути увёл их от AMD на поколение вперёд.

      3
    • Beardisawesome
      Комментарий скрыт. Показать

      @Reym, Ну и 10-е поколение уже не так легко найти в продаже, если не рассматривать вторичку. поэтому да, кто сейчас собирает и не может ждать, будет брать 20-е поколение. Просто не нужно тешить себя, что берёшь прорывные технологии.

      @MAX207, Ну представь как они загружены сейчас. Выпустили удачные процессоры в нескольких сегментах, карты успевать разрабатывать и нужно удовлетворить заказы Сони и Майков . Эти компании сами где-то говорили, что вместе разрабатывают лучи для консолей. В любом случае нужно ждать работу лучей на базовом уровне, чтобы можно было улучшать. Те что сейчас это больше про баловство в играх. Вот в рабочих задачах там уже это интереснее.

      1
    • Grombrindal
      Комментарий скрыт. Показать

      @Zenux, амд разве ставила себе цель выпустить карту выше уровня 1080ti? Они и не замахивались так высоко, там же 5700xt не стоит 1200 долларов как стоила 1080ti, да и сейчас 1080ti (не б/у) стоит дороже.

      0
    • MAX207
      Комментарий скрыт. Показать

      @Beardisawesome, Я говорю что GPU скорее всего выйдут не особо лучше текущих, так как их основные ресурсы направлены на APU консолей. А ты думаешь что-то новое что ли случиться ?) RTX работают в среде DXR и все улучшения и изменения, они сразу смогут использовать и для себя...только RDNA не смогут использовать новые фишки API, как и Pascal. Уже сейчас даже в DX12 Pascal проигрывают Turing.

      2
    • Zenux
      Комментарий скрыт. Показать

      @Grombrindal,
      Если бы речь шла про 2080 Ti, то слова "так высоко.." были бы уместны, а так получается АМД в 2019г не смогли сделать то, что Нвидиа сделала в 2017г.
      PS: Когда презентовали 5700XT, я думал ценник будет в районе 300$, примерно столько должно стоить 85% производительности 1080Ti спустя 2.5 года, но нет, АМД решила срубить $$ вслед за Нвидиа.

      2
    • Grombrindal
      Комментарий скрыт. Показать

      @Zenux, опять, слово "не смогли" не уместно здесь, потому что 5700xt не является картой хай энд класса, она по производительности позициионируется как конкурент 2070, и она обошла 2070 по производительности. Карты более высокого класса, уровня 2080 (считай 1080ti) и 2080ti амд еще не представляли.
      А касательно ценника, карта стоит 5700xt стоит дешевле 2070 и 2070super, являясь при этом их прямым конкурентом. Странно упрекать их в завышенных ценах, когда более бюджетного конкурента с той же производительностью у них попросту нет.

      1
    • Zenux
      Комментарий скрыт. Показать

      являясь при этом их прямым конкурентом..

      Без лучевая карта не может быть прямым конкурентом карте с лучами и никакая более низкая цена этого не изменит, АМД это сделала ток для того, что бы можно было влупить повыше ценник.
      PS: Симпатий к какой то одной компании у меня нету, Нвидиа и АМД в ГПУ сегменте обнаглели обе.

      2
    • pape4
      Комментарий скрыт. Показать

      @Zenux, лучи ни одна игра нормально не использует, парируй. Никто серьезно не относится к этой технологии из разработчиков. Иначе все новые проекты уже бы с этой технологией были.

      1
    • Комментарий скрыт. Показать

      @MAX207, чтобы трассировка массово пришла в геймдев, мало выпустить одну линейку видеокарт с аппаратным ускорением, нужно пересадить на подобные карты подавляющее большинство геймеров, а на это нужны годы. К тому же пока не ясно, является ли добавление блоков аппаратного ускорения оптимальным решением, ибо это ведет к увеличению стоимости кристалла, а выхлоп дает в крайне узком количестве задач.

      0
    • Zenux
      Комментарий скрыт. Показать

      @pape4,
      Когда в 2001 году появились шейдеры, их тоже почти не использовали (вышло всего пара игр), но со временем игр с ними становилось все больше, и без шейдерные карты стали второсортными (и даже некоторые игры не запускались). К технологии РТ серьезно относятся, иначе бы не добавляли ее в DX и приставки. Отсутствие аппаратного РТ у 5ххх серии, это серьезное техническое различие, никаких "равна" тут и близко не будет, снимите лапшу АМД с ушей.
      PS: Но текущей производительности РТ вряд ли хватит на новые проекты, все это уже не раз проходили за 20 лет.
      @HlebSizumom,
      Все так, пока видимо будут юзать отдельные блоки, а там возможно придумают, как это унифицировать.
      @dimidrum,
      История помнит о тех, кто не хочет идти в ногу с прогрессом, привет 3Dfx и ставка на 16 битный цвет ((

      2
    • dimidrum
      Комментарий скрыт. Показать

      @pape4,

      лучи ни одна игра нормально не использует, парируй. Никто серьезно не относится к этой технологии из разработчиков. Иначе все новые проекты уже бы с этой технологией были.

      5G ни один смартфон нормально не использует, парируй. Никто серьезно не относится к этой технологии из компаний. Иначе все новые смартфоны уже бы с этой технологией были.

      ...во времена повсеместного использования спрайтов...
      

      Детализированные трехмерные модели персонажей ни одна игра нормально не использует, парируй. Никто серьезно не относится к этой технологии из разработчиков. Иначе все новые проекты уже бы с этой технологией были.

      5
    • MAX207
      Комментарий скрыт. Показать

      @HlebSizumom, Для этого нужно что бы консоли были с трассировкой, где более 50% рынка игр...что и будет.
      Прогресс не будет ждать пока у всех пользователей ПК будут GPU под трассировку, шейдеры не ждали...
      Если будут консоли с трассировкой то это уже огромный рынок для которого надо делать проекты с трассировкой.

      2
    • pape4
      Комментарий скрыт. Показать

      @dimidrum, 10 тайтлов, где трассировка нереально круто изменяет картинку.
      @Zenux, только вот шейдеры разительно изменяли картинку. РТ вообще почти не оказывает влияния на неё. Уже высказывалось не раз, что все эти лучи это в первую очередь маркетинг чистой воды. И самые красивые на данный момент проекты сделаны без всяких лучей.

      0
    • dimidrum
      Комментарий скрыт. Показать

      @pape4,

      10 тайтлов, где трассировка нереально круто изменяет картинку.

      10 смартфонов где 5G нереально повышает скорость интернета.

      И самые красивые на данный момент проекты сделаны без всяких лучей.

      Дум на момент выхода был одним из самых красивых проектов, и сделан без каких-то там 3D моделек.

      Мы так и будем продолжать играть в эту игру?
      Поймите уж, что лучи банальным образом рано ввели на рынок, да, чтобы впаривать карты. Я не смогу вам назвать даже 5 тайтлов, где присутствует супер трассировка. По банальной причине, даже современные RTX карты нвидиа не особо справляются с рейтрейсингом, а разработчики не шибко парятся над работой над тем, что еле работает у скольких процентов игроков, 1%? 2%?
      Только каким образом это хоть что-то говорит о самой технологии, мне не ясно.

      Да и к слову лучи не вчера придуманы, технологию уже лет 20 с хвостиком применяют, а принцип работы аж в 70 вывели. разница лишь в том, что только сейчас "домашние" карты смогли таки хотя бы частично использовать рейтрейсинг в реалтайме, без шумов и артефактов.

      Говорить, что технология никому не нужна, это тупо сразу равноценно "я ничего на самом деле о ней не знаю, но с дивана мне виднее".

      Лучи это будущее игростроя, будущее, не настоящее. В настоящем их будут внедрять постепенно. Но внедрять их будут, ибо это выгодно не только игрокам, но и разрабам, которым как только установятся стандарты, будет меньше работы. Пихай себе источники света, прописывай свойство материалов, а дальше уж лучи сами сделают реалистичное освещение.

      Ну хоть немного выйдите за рамки "сегодня" и поймите, что есть "завтра".

      3
    • pape4
      Комментарий скрыт. Показать

      @dimidrum, так речь как раз про сегодня. Человек говорит, что видеокарта с лучами это нереальное преимущество перед красными картами. По факту никакого преимущества нет, потому что технология сырая и делает первые шаги. Внедрили ее только ради маркетинга и не более.

      0
    • dimidrum
      Комментарий скрыт. Показать

      @pape4, ах, ну сейчас оно реально скорее маркетинг. Хотя кто раньше начнет развивать это направление и предоставит также инструменты и стандарты для работы... преимущество вполне себе будет иметь.
      Но тупо запуска мало. Nvidia пока сама ничего особенного вроде как не открыла. При желании AMD, думаю, смогла бы предоставить аналогичные карты.
      Nvidia по любому создала RTX линейку, чтобы поддерживать иллюзию инноваций и оправдать рост цен... но. Но, они все же также обкатывают явно потенциальную технологию, и склоняют разработчиков начинать работать с нею. Так что быть может преимущество они и получат. А может нет. Но физически правильное освещение явно будет входить в игрострой.

      0
    • Zenux
      Комментарий скрыт. Показать

      @pape4,
      Не надо выдумывать, аппаратный RT это не "нереальное преимущество", а более расширенный функционал dx12, которого у конкурента на данный момент нет, как появиться, тогда и будет прямым конкурентом 2ххх или 3ххх серии НВ, а пока безлучевая 5ххх АМД конкурент только безлучевой 1ххх НВ, маркетологи могут идти в Ж.
      PS: Мне на данный момент лучи тоже не интересны, но меня коробит, когда 2 технически разных устройства объединяют в одну группу.

      1
  • EDDISON
    Комментарий скрыт. Показать

    речь идет об аппаратном ускорении трассировки лучей. RT-блоки не исключение, но в рамках гибридного решения.

    так уже писали же что полнцонные РТ блоки и их будет дофига

    0
  • Shazec
    Комментарий скрыт. Показать

    походу лучи неизбежно пытаются стать мейнстримом с 2020.

    0
  • Vik
    Комментарий скрыт. Показать

    Процы в самом деле будут в 2020-2021 годах уже намного мощнее сегодняшнего "лучшего процессора для игр" интела с его 4 ядрами. Будет многа ядер, частота у всех ядер одновременно под 5 ГГц и возможно выше. Так почему бы не сделать монструозный ГПУ под него, который сможет лучи не только на тени пустить, но и ещё на пару фич. Хотя на весь кадр с хотя бы 60 кадр/сек всё равно ещё не хватит скорее всего, для игры класса ААА.

    0
    • MAX207
      Комментарий скрыт. Показать

      @Vik, Частота не самый важный параметр, может вырасти количество выполняемых команд за такт, появиться аппаратное ускорение математических вычислений, сделав FPU в 10 раз быстрее или иные решения, а частота будет такая же, ядер столько же но холоднее и компактнее, а вычислительные возможности многократно выше.
      Потому что грубая мощь бесполезна в технологиях, нужна грамотная реализация кадра и технологии для его построения с трассировкой...грубая мощь устареет очень быстро.

      2
  • Комментарий скрыт. Показать

    @scavenz, вы, я полагаю, сами текст по ссылке не читали? Если вам все-таки интересно, насколько глубока кроличья нора, то стукните в личку и я на пальцах объясню, как работает VRS и что на самом деле означает shading, который у нас упорно называют "затенением".

    1
  • Комментарий скрыт. Показать

    Я так понимаю, Shading от слова Shader, то есть шейдер, а не затенение. Переменная частота шейдера, кадр обновляется не целиком, а частично. Почему у нас все поголовно начали писать про какие-то затенения, хз.

    0
    • Vik
      Комментарий скрыт. Показать

      @ultrafx, У шейдера нет частоты в прямом смысле, это просто инструкция. Ну, или скрипт, или там формула. У шейдерного конвейера, естественно, есть частота - он же "кремневый".

      0
    • MAX207
      Комментарий скрыт. Показать

      @ultrafx, shader «затеняющий».
      @Vik, Шейдер это программа определения окончательных параметров объекта или изображения, может включать в себя описание поглощения и рассеяния света, наложения текстуры, отражения и преломление, затенение, смещение поверхности и множество других параметров, которые используются для построения кадра. Их три типа вершинный, геометрический и пиксельный.
      VRS это технология для пиксельных шейдеров, Shading Rate эт число операций пиксельных шейдеров, выполняемых для каждого пикселя, больше операций лучше картинка и выше требования к железу...VRS помогает менять число этих операций для РАЗНЫХ частей одного кадра, к блоку пикселей 4 на 4 например в разных частях кадра.

      Вы вообще не о том думаете и говорите

      0
    • Комментарий скрыт. Показать

      @MAX207, Частота и есть количество операций, о чем я и написал. В кадре зачастую содержится огромное чисто пикселей, которые определенное количество кадров подряд могут вообще не меняться. Даже если это какой-то динамический объект, но этот объект занимает большую часть экрана либо находится в фиксированном положении (допустим как марио всегда находится в центре экрана), большое количество пикселей в области этого объекта могут быть неизменными или вообще не меняться в принципе.
      Во времена восьмибитной графики похожий принцип использовался для экономии памяти, чтобы картинка вообще влезала в память. Изображение делится на сегменты, собирается информация о пикселях одинакового цвета и сохраняется информация о них. По такому же принципу работает сжатия как таковое. Взять, к примеру, текстовый документ. Чем больше одинаковых символов в нем будет, тем эффективней будет сжатие.

      0
    • Vik
      Комментарий скрыт. Показать

      @ultrafx, Продолжаю настаивать, что у шейдеров нет частоты. Даже если в какой нибудь шейдерной технологии присутствует слово частота, как в VRS. Повторяю, шейдер - это инструкция.
      А насчёт VRS, так прямо тут вверху же разъяснено

      Речь идет о трассировке лучей и технологии сжатия при затенении с переменной скоростью (VRS).

      Нвидия так описывает этот ваш VRS

      Variable Rate Shading is a new, easy to implement rendering technique enabled by Turing GPUs

      И это на самом деле означает что (взято с того же сайта Нвидии)

      Операции затенения с одним пикселем теперь можно применять к блоку пикселей, что позволяет приложениям эффективно изменять скорость затенения в разных областях экрана.

      Т.e. шейдер пишется к одному пикселю (как обычно), а потом применяется к группе других (что тоже обычно). Короче, маркетологи опять изобрели велосипед и раскручивают эту фичу как прорыв. Шейдерные же конвейеры изначально со своего появления оптимизируют под определённые шейдеры, что вполне логично. :)

      P.S. Для начала, тем кому всё это интересно, могу дать ссылку где в общих чертах, но самое главное
      https://docs.microsoft.com/ru-ru/windows/win32/direct3d11/overviews-direct3d-11-graphics-pipeline

      0
    • MAX207
      Комментарий скрыт. Показать

      @ultrafx, Зачем ты мне сказал тоже самое другими словами ?

      0
  • Комментарий скрыт. Показать

    5700xt в игре deus ex mankind divided в разрешении 2 к уделывает 1080ti ,и вплотную подбирается к 2080, вопросы остались ещё кто здесь топ? Если лоханулись и купили rtx , хоть не советуйте другим это брать! AMD топ и в процах сейчас и в видяхах

    2
Войдите на сайт чтобы оставлять комментарии.