Утечка: В новых видеокартах Nvidia будет до 20 ГБ видеопамяти GDDR6

Утечка: В новых видеокартах Nvidia будет до 20 ГБ видеопамяти GDDR6

В ближайшее время Nvidia может представить новое поколение своих видеокарт Ampere. Китайский ресурс mydrivers (via gizchina) опубликовал предполагаемые характеристики будущих моделей RTX 3080 и 3070.

Все видеокарты нового поколения будут производиться по 7-нм техпроцессу, что скажется на повышении частот GPU и памяти. При этом у поколения Ampere снизится энергопотребление, а производительность возрастет.

RTX 3080

  • Графический процессор GA103.
  • 60 вычислительных блоков.
  • 3480 ядер CUDA.
  • 320-битная шина.
  • Память GDDR6 объемом 10 или 20 ГБ в зависимости от модели.

RTX 3070

  • Графический процессор GA104.
  • 48 вычислительных блоков.
  • 3072 ядер CUDA.
  • 256-битная шина.
  • Память GDDR6 объемом 8 или 16 ГБ в зависимости от модели.

Также упоминается процессор GA103, который предположительно будет установлен в RTX 3080 Ti. Однако характеристики данного чипа пока неизвестны.

По слухам, презентация видеокарт пройдет в марте на выставке GPU Technology Conference.

113 Комментариев

  • Вот это мощь, шах и мат радеон.))

    9
    • @Sherlock89, ты думаешь что он не сможет лучше?
      Или ты "болельщик"? Тебе то что от того что Нвидея "победила"?
      Ты делал ставки? Жаль что я пока что не могу ставить минусы :с

      0
    • @reint, никогда не мог, а здесь чудо случиться, ага.))
      Насчет болельщика, ну я не фанат, но один раз напоролся на великолепную багованную карту радиков и больше никогда с ними не имел дело слава богу.
      Насчет минусов, да хорош, у меня больше 5000 плюсов, надоест. Да и зачем это вам, моего мнения на счет радионов ваш минус не изменит. Себя потешить циферкой, тогда ради бога, как дитё малое.)

      0
    • @Sherlock89, да я бы тоже минус поставил, а то так кто-то смотрит на "+9" и думают, вах какой молодец, крутой коммент. Так то да все эьи циферки для детей, и реальную оценку комментария они как раз таки не отражают, за счёт невозможности ставить минус, у многих. Ну а так ваш коммент кстати очень детский, не несущий вообще ничего в себе. Когда эти карты выйдут и выйдут ли вообще никому не известно, и что это лично вам даст не понятно. Какая вам карта "забагованная" попалась скажите, интересно. Это как купить просроченное молоко, и из-за этого больше никогда молочное не покупать, бред ребёнка. "больше никогда с ними не имел дело слава богу", очередной бред фанатика, как ты можешь радоваться за то, чего не случилось? То есть ты не знаешь был бы твой опыт с ними положительный или отрицательный. Такую вот личную неприязнь лучше при себе оставлять, это никому не интересно.

      1
    • @F1LA, я на циферки чужие вообще внимания не обращаю и вам советую, меньше бреда, как вот этот, печать будите.

      0
    • @Sherlock89, ты бы писать научился для начала, "будЕте", так я жду рассказа про "забагованные" радеоны. Ты же сам тут упоминаешь свои 5000плюсов, каждый день наверное. И вообще, ты хоть сам понимаешь что значат эти циферки? Их не надо зарабатывать тупыми комментами вроде "Вот это мощь, шах и мат радеон.))", это показатель мнения пользователей относительно комментария, или тебе лучше, когда каждый будет писать "согласен"/"да". И ещё вопрос, для кого ты вообще тут свой изначальный бесполезный комментарий оставил? Серьёзно, ты строишь из себя умного, которому пофиг на плюсики/минусики, почему бы тебе просто не пройти мимо, и не писать о своём клоунском мнении на счёт видеокарт. Давай рассказывай про забагованный радеон, только не сливайся, и не говори что тебе лень меня читать вдруг стало.

      0
    • @F1LA, опять тонна текста которого я даже читать не стану. Краткость сестра таланта, удачи вам и отвалите. Мне вы неинтересны от слова совсем

      0
    • @Sherlock89, я тебе и написал кратко, если для тебя 4 предложения это не кратко, то тебя ждут большие проблемы в жизни, дальше сидения у мамки на шее и кудахтанья в комментах ты не уедешь, до свидания)))

      0
    • @F1LA, кто еще и кудахтает почем зря, пытаясь меня задеть совершенно детским способом, вангуя в холостую, не зная меня и фактов. Удачи, далеко пойдешь по жизни, со скобочками своими.

      0
  • RTX 3070 на 16 Gb мой выбор! Ждем новостей и разумеется ценников)

    14
  • Интересны цены на это вот все. А то хотелось взять 2070rtx super,но что-то появились сомнения.

    9
    • @AndrewVishnevsky, сколько на старте продаж стоила 2070 прибавь процентов 10-15 и получишь цену.

      0
    • @LASTNIGHT, не факт. 7 нм дешевле выйдет, т.к. площадь меньше

      1
    • @ReiJey, в нашем мире что-то дешевле может стоить только при условии хорошей конкуренции. Но на рынке видеокарт пока слабая конкуренция, так что чуток да дороже но будет.

      26
    • @ReiJey, что-то не очень аргумент. Сильнее бьет новизна техпроцесса и ограниченное количество карт на старте. Вот это повышает стоимость.

      2
    • @ReiJey, зеленые же говорили на презентации прошлых карт, что отныне ценник никогда не будет ровняться на прошлые поколения, а будет зависеть от производительности.

      0
    • @Beardisawesome, даже если будет хорошая конкуренция, новый продукт никогда не будет стоить столько же или меньше того, что был до него. с учетом того, что в технологиях поняти "новое" в основном несет за собой улучшения. а улучшения с точки зрения маркетинга, это всегда означает дороже.

      0
  • Утечка мусор !!!!

    Поясню почему: Не может быть у одной модели столь большой разброс по видеопамяти ! Может 2 максимум 4, но не х2. Так что это фэк 100%

    10
    • @ReiJey, может, учитывая современные тенденции. По сути, они могут сделать подобный скачок предлагая карты для контент-мейкеров и более скромные варианты для геймеров. Избыточная память как раз таки нужна для контент-мейкеров.

      1
    • @ReiJey, физически, в железе это не вызовет трудностей, нужно будет только заменить 8-Гбитные микросхемы на 16-Гбитные. Возможно такой разброс вызван сложностью совместимости в одновременной работе 8 и 16-Гбитных микросхем.

      0
    • @ReiJey, Особенно если это жадная до памяти Нвидиа.

      0
  • и будет оно стоить снова 1000

    5
    • @demyxx, имеют полное право гнуть цену, потому как только они двигают индустрию вперед. Радеон только вбросы кидает, на деле же ничего не имеем толкового.

      12
    • @Sherlock89, Например тот же mantle, наработки которого ушли в vulcan, после чего nvidia подключилась к процессу да так, что до сих пор поддержка не очень того же dx12. Freesync в массы, а не проприетарный g-sync никому не нужный и так можно долго продолжать. Обе компании двигают индустрию, просто у нвидии больше денег для того чтобы быстрее наращивать мощь видеокарт.

      15
    • @Beardisawesome, с начала появился g-sync и после этого AMD в ответ выпустили Freesync. Если бы не Nvidia сидели бы на видюхах с 1Гб и шиной 64 бит, без физики, фри синка, лучей и много другого. Nvidia делает новую технологию, а AMD и другие уже эту технологию копируют, называют по своему и стандартизируют.

      4
    • @Itachi, большой объём видеопамяти это как раз всегда была фишка амд, нвидиа наоборот часто маловато памяти клали, а с 970-й вообще скандал, когда обнаружилось, что памяти там гораздо меньше чем заявлено.

      2
    • @Itachi, Так я и написал что AMD смогли В МАССЫ двинуть это, в отличие от Nvidia.

      Как я люблю речи если бы не эта фирма(нужно вставить самостоятельно) то того бы не было. Было бы просто сделанное другой фирмой и под другим названием. Я говорю о том что ОБЕ компании двигают индустрию и не нужно приплетать всё только одной. Мы же не фанатики какой-то фирмы, верно?

      P.S. Сижу на Intel + Nvidia, что не мешает мне трезво размышлять.

      0
    • @Beardisawesome, верно, также можно сказать, если бы не AMD то и у NVIDIA не было бы стимула развивать технологии и снижать цены, потому что и так бы все купили. Конкуренция фирм это двигатель прогресса.

      0
    • @Beardisawesome, в данном случае без зеленых не чего бы не было. Как пример думаешь в новых консолях был бы rtx если бы не nvidia? AMD в спешном порядке начала разработку лучей для консолей после релиза rtx 20xx серии.

      @Grombrindal, Nvidia не видит в AMD конкурента.

      1
    • @Itachi, технологии трассировки лучей существуют уже много лет, нвидиа не изобретала эту технологию, у нее нет на нее никаких патентов, как на хаир воркс например или физикс. Все что нвидиа сделала это добавила аппаратные блоки. В новых консолях трассировка была бы и без rtx, амд ее собирались добавить на уровне драйверов, софтверную трассировку они зарегистрировали еще в 2014 году. Но на тот момент мощности потребительских видеокарт просто не хватало для вычисления лучей в реальном времени. Даже 20-й серии с отдельными блоками ее еще недостаточно. Выпуск rtx это просто маркетинговый ход нвидии.

      9
    • @Itachi, Вы очень примитивно мыслите. Технологии не выходят на рынок за месяц и то что g-sync вышел на рынок раньше freesync-а, не означает что последний начали разрабатывать после выхода первого на рынок.

      1
    • @Grombrindal, да лучи придумали в 80-х годах, начали использовать в 90-х годах, но в реал тайме первые начали использовать nvidia, да они хайпанули но они развивают технологии.

      1
    • @Itachi, в новых консолях rtx, потому что нвидиа очень сильно это прорекламировала фразочками типа "только дурак купит карту без rtx в 2019". Именно поэтому в спешном порядке их туда и всунули, а не потому что это "ВАУ КРУТО", если бы не rtx, скорее всего консоли получили бы больше памяти и/или терафлопс, грубо говоря не обломались бы. Ну а так конечно, какой дурак купит консоль без такой "фишки", доступной лишь неудачникам на ПК.

      0
    • @F1LA, да nvidia разрекламировала, но теперь эту технологию доведут до ума и стандартизируют, через 2-3 года rtx будет в большинстве игр, если бы не nvidia то rtx еще не скоро начали бы использовать в реалтайме, как и много других технологий которые стандартизировали после того как nvidia их начала использовать.

      0
    • @Itachi, Ну то есть вы согласны, что они разрекламировали, а не придумали её, так как не они её придумали на самом деле, посмотрим что дальше будет, пока что это смонительный плюс, и многие выбирают доплатить за производительнось нежели за лучи.
      Вот кстати зря вы бросаетесь такими фразами "Nvidia не видит в AMD конкурента.", если бы это было так, сейчас бы цены были в разы выше на карты нвидиа. Пару лет назад, фанатики интела то же самое говорили, хотя они всегда были конкурентами.
      Нет, не надо говорить, что реалтайм лучи без нвидиа не завезли бы ещё долго, этим грозились ещё 10 лет назад, но тогда не хватало мощностей конечно, так что всё к этому шло в любом случае. Ну сделали, молодцы да, но пока что это "такое себе", если честно в некоторых играх картинка даже хуже с ними, на мой взгляд, но посмотрим что дальше будет.
      Кстати на счёт фрисинка, скажите спасибо амд, что нвидиа ввела поддержку фрисинк для своих карт, наверное потому что конкуренция, и я этому рад. У самого нвидиа карта и моник фрисинк.

      0
    • @F1LA, а я и не говорил что nvidia все технологии лично создает. Разница между g-sync и freesync в том что первая технология закрытая и производителям мониторов надо платить nvidia за лицензию, а freesync открытая технология и ее могут использовать все. Нам года так с 2008 обещают графику уровня cgi но ее как не было так и нет. Nvidia создает / берет уже существующую технологию, показывает что можно делать вот так, а потом amd и другие подхватывают, развивают эти технологии и стандартизируют их что бы этими технологиями могли пользоваться все.

      0
    • @Itachi, дада, про x86-64 не слышали наверное, сейчас бы на 32битах сидели со своей нвидией хвалёной, если бы не AMD. Вы слишком однобоко смотрите, пофиг всем на эти лучи, вы во уверены что АМД реально не знали что так можно делать? Или эе просто они считали что это не так нужно? Но реклама от нвидиа сделала эту "фишку" маст-хев для дурачков, и амд просто пришлось это прикручивать и к своим продуктам. По-вашему в амд сидят китайчат, которе только и могут что копировать всё, ясно фанатик, до свидания, про амд64 погугли и окстишься сразу. Я знаю в чём разница фрисинк гсинк, фрисинк лучше и не надо тут чёто оправдываться, нвидиа не просто так добавила её поддержку, лично для меня при выборе видеокарты, наличие фрисинк было очень большим плюсом, а гсинк в топку. Я вам хочу сказать, с ума не сходите, обе компании друг для друга конкуренты, и те и другие что-то делают и воруют друг у друга, неужели думаете нвидиа не вынюхивает чем заняты в амд? Мне вот пофигу, я рад любым достижениям обоих компаний, и трезво оцениваю ситуацию, так как не являюсь фанатом.

      0
    • @F1LA, AMD клала болт на видиокарты, для них приоритет процессоры и консоли, если бы не консоли то AMD уже бы умерла. Погугли кто создал для AMD Athlon 64, благодаря которому и появилась архитектура x64-x86 и кто создал Ryzen. Спойлер этот человек щас работает в Intel и создает им процессор нового поколения.

      0
    • @Itachi, если бы да кабы, жди дальше смерти амд, тупой хейтер.

      Ещё про дюроны и первые атлоны расскажи мне, что амд где-то там повезло и у них были гораздо более выгодные процы чем у интел. Амд прям короче на везении всю жизнь существуют, а в нвидиа и интел весь штат состоит из эйнштейнов, до свидания, можете монолог продолжать.

      0
    • @F1LA, это факт, с процессорами им помогли, а с видиокартами красыне всегда отставали, да весной они выпустят "убийцу rtx 2080" вот только незадача, nvidia той же весной выпустит rtx 3080.

      0
    • @Itachi, господи, ты так говоришь как-будто ты из будущего и знаешь всё наверняка, ДО СВИДАНИЯ неадекватный фанатик

      0
    • @F1LA, да Athlon 64 был отличным процессором который был намного лучше того что было у Intel, вот только его как и Ryzen создали не штатные инженеры, а человек со стороны, а потом эти гении решили создать свой fx и бульдозер чем и угробили свое преимущество. А неадекват тут только ты, раз не хочешь верить фактам.

      0
    • @Itachi, ты это себе про факты скажи, клоун который говорит как нвидиа весной всех победит, ну самому не смешно заранее такое говорить? Я думаю весной выйдёт карточка Наруто228 322Гб и уничтожит нвидиа с амд, извини если ошибься, не знаю кто там самый крутой у тебя в фантазиях, бб, факты хахаха.

      0
  • Пора обновляться мне, но чуть подождать, в общем жду, так как ресурсов становится маловато, особенно для gpu рендеринга
    @Sherlock89, опасно такое говорить в наше время, набегут как андроиды на яблочки))

    0
  • Сомнительно. Такой резкий скачок в объеме видеопамяти ? Ставлю на то, что в 3080 TI будет 16 гб. В 3080/3070 11 гб, а в 3060 8 гб.

    2
    • @artxays, насколько я помню, объем памяти должен делиться на битность без остатка, т.е. если память 256-битная, то может быть только 8/12/16Gb, если 320-битная то 10/15/20Gb(точнее 10240/15360/20480Mb).

      1
    • @n0th1ng, Ок, спс. Буду знать.

      0
  • Очень сомнительно - в этом году запуск новых консолей на GDDR6 памяти и цены на неё взлетят из-за спроса.

    0
  • у меня иррациональное) предложение — предлагаю убрать из всех возможных словарей термин оптимизация)
    ненуачо?! памяти скоро будет стоять в РС под сотню гб, видео память будет насчитывать десятки гб), винты будут объемом под десять тб ссд))) зачем же что то в таких условиях оптимизировать.

    1
    • @Ozzmosis, во-первых, давайте придумаем новую архитектуру и способы паковать данные так, чтобы объем их уменьшался как минимум вдвое. Т.е. я сам ЗА оптимизацию, но понимаю что не всё так просто в этом мире как хотелось бы. По сути, единственным способом уменьшить память на пользовательском ПК, можно только если кто-то с тобой поделится этой памятью или предложить держать часть файла у себя. Это обычная распределительная сеть. Так же можно уйти в сторону облачного гейминга, но опять же, нужны технологии и установка серверов в как можно большем количестве стран и регионов.
      Если заниматься оптимизацией с теми технологиями что сейчас есть, которая хотя бы в полтора раза уменьшит объем потребляемых ресурсов, то ААА проектов вы не будете видеть годами. Повезёт если раз в пятилетку они будут выходить.

      1
  • Почему такой скепсис по отношению к видеопамяти. Стоит вспомнить, что на складах у сборщиков памяти на конец 2019 года находится достаточно много оперативы самого разного типа. Поэтому цена на неё падала в течении продолжительного времени. Твертотелов наклепали очень много и по сути все их до сих пор не реализовали и при этом производят еще и будут производить еще больше, потому что на рынок массово выходят автопилотируемые машины, объемы памяти в которых могут достигать терабайтов.
    Конечно, всё это может оказаться фуфлом, а может просто разброс связан с тем, что АМД очень точно целятся в сегмент контент-мейкеров, взять ту же самую VII, которая исчезла буквально за пол года после анонса и только сейчас о продолжении линейки стало что-либо известно, плюс не забываем внезапный взрыв процессоров с опять же избыточным количеством ядер, которые большинству не нужны, но большинство раскупает и желает еще больше ядер.

    1
  • @Ozzmosis,

    зачем же что то в таких условиях оптимизировать.

    Попробуй запустить Crysis или Сталкер и что бы они у тебя шли в 100+ FPS, и тогда поймёшь зачем нужна оптимизация.

    3
    • @Haqty_Mikael, @ManaBanana, ребят, вы, блин, чего такие серьезные? это потому что понедельник утро, да?

      1
    • @Haqty_Mikael, Crysis будет лагать то тех пор пока не выйдет процессор с частотой 10 000 Мгц или больше на одно ядро. Crysis не умеет в мультипоток вообще.

      1
    • @Itachi, просто https://www.moddb.com/mods/crysis-ultra-config/downloads/crysis-ultra-config-v10

      0
  • ну разве что для игр в 8к, а так по сути немнужно от слова совсем, тотже ас оригинс на ультранастройках в 4к ест вроде в районе чуть больше 4гб видео,т.е меньше 5, а если играть в 1080р или 1440р и то меньше, тогда зачем обычному игроку 16гб? не дцмаю что в ближайшие годы графика в играх будет фотореалистичной неотличимой от реальности, поэтому на ближайшие годы смысла в видюхе больше 8гб для простых игроков нет.

    -2
  • Если характеристики настоящие, то интересно узнать, цены на 3070 с 16гб и 3080 с 10гб, насколько цена и возможности разнатся.

    1
  • Если правда, то отлично. Огромный скачек, который продвинет индустрию игр. Еще бы цены приятные сделали (мечты) :)

    0
  • @mashaividova,

    тогда зачем обычному игроку 16гб? не дцмаю что в ближайшие годы графика в играх будет фотореалистичной неотличимой от реальности

    Чувак это ты ещё не знаешь о онлайновой текстовой игре AI Dungeon, для оффлайновой версии которой нужны целых 12 Gb, ведь ИИ нужно как то просчитывать что написать, а с этими 12 ГБ, оно может думать уже меньше минуты. Характеристики и другое

    0
  • Я только неделю назад купил 2080 ti для Киберпанка, а его перенесли, каналья!
    Что, начинаю копить деньги на 3080 ti :)

    2
    • @Fortuna, я только купил 2060с и собираюсь на ней сидеть до 4000-й серии, Амперы пропускаю.

      4
    • @Grombrindal, Вот тоже самое,ближайшие 2 года ничего брать не буду,да и игр толком нет под такие видюхи,если только для 4к и выше.

      0
    • @Fortuna, Буквально вчера взял RTX 2060 super. Для игры 1440p 60fps (Для 1080p так вообще производительности пипец как много) на ближайшие пару тройку лет должно хватить, так что 3000 серия скорее всего пройдет мимо.
      @Phantom82, RDR2 нагибает всё.

      2
    • @DickJohnson, Я вот запустил рэйтрейсинг в Батлфилд 3 на 1920х1080, проверить производительность 2080 ti и когда бегаешь по уровню все нормально, а вот при просмотре синематиков или если стоишь на высокой горе, когда видно весь уровень, заметны явные тормоза. И к слову сказать у меня 32гб оперативки ддр3.

      0
    • @Fortuna, Рэйтрейсинг меня в принципе не интересует, хотя если ты покупаешь 2080 ti за цену приближающуюся к 100к и имеешь глюки в играх на 1080p то это наверное обидно.

      0
    • @DickJohnson, в 1080p настройки высокие-ультра, 60фпс играю на i59400f и rtx2060s, меня вполне устраивает.

      0
    • @Fortuna, ддр3? Наверно потому что проц старый? Для рейтрейсинга в 5-й батле рекомендуется 12 потоков.

      0
    • @n0th1ng, @Phantom82, у меня Intel Core i7 4770k на 3.5 GHz
      @DickJohnson, Я купил за 69к.

      0
    • @n0th1ng, 6 за глаза,i5 9400f rtx2060s 60-120 fps c трассировкой.

      0
    • @Fortuna, возможно тормоза из за оперативки DDR3 или процессора, а не из за видеокарты. С трудом верится, что 2080ti может тормозить где-то в разрешение 1080. Ну или игра местами кривая или еще какая-то причина.

      0
  • На эти деньги проще купить новую консоль и пачку игр по предзаказу :D

    0
  • И будут они стоять в 2 раза дороже 20 линейки.

    0
    • @zxe_zuma, в сравнение со стартовой ценой 20-ки в два раза не будут, на момент выхода 20-ая серия конечно подешевеет и разница как раз в два раза и будет.

      0
  • https://www.youtube.com/watch?v=Rs2OCUcOaCo

    0
  • Графический процессор GA103.
    60 вычислительных блоков.
    3480 ядер CUDA.
    320-битная шина.
    Память GDDR6 объемом 10 или 20 ГБ в зависимости от модели.

    А чуть дальше

    Также упоминается процессор GA103, который предположительно будет установлен в RTX 3080 Ti. Однако характеристики данного чипа пока неизвестны.

    Я твоя не понимать
    Да и вообще это все похоже на фейк. Я возможно не спец в вопросах архитектуры графических микропроцессоров, но разве количество ядер в рамках одного вычислительного блока, в рамках одной архитектуры, не должно быть одинаковым? А то у нас на GA103 выходит 58 ядер на блок, а на GA104 аж 64 ядра на блок.

    Имхо, лучше запишите новость как "Слух", а не как "Утечка".

    1
    • @I0GER, никогда такого не было? стандартная практика, отключать блоки на чипах и ставить в младшие модели

      0
    • @Quark, Одно дело отключать блоки на чипах (хотя тут два разных чипа, ну да ладно), и совсем другое отключать ядра в блоках - смысл такого изврата?

      0
    • @I0GER, а в чем проблема? брак в одном из ядер, отключаем, получаем младшую модель ГПУ. собирать отдельную линию для разных моделей карт, не выгодно, проще делать так

      0
    • @Quark, на сколько я знаю - а реале дела обстоят несколько иначе, и отключаются именно блоки, а не отдельные ядра (если говорить о графических процессорах).

      0
    • @I0GER, хз, обычно блоки, что будет на этот раз не понятно, обычно 64 ядра на блок, возможно авторы ошиблись и должно быть 3840 а не 3480, опечатка

      0
  • Ну начинается, только купил карту с 8 гигами видеопати, а они уже всё, в следующем году будут не хватать из-за криворуких разработчиков, которые экономят на мемори менеджменте

    2
    • @Imlerith, ну когда появились первые 8 гиговые карты, то 4 гиговых еще хватало долго. Не думаю что 8 гигов уже через год будет не хватать, только если в 4К разве что.

      0
    • @Imlerith, так не только V памяти видеокарты важен, но и частоты + тип памяти GDDR5/GDDR6/HBM и т.п. А еще зависит от того, какой у тебя БП (чтоб мощности хватило), проц и RAM.

      0
  • Сейчас карты с 8гб уже мало для 2к гейминга, не говорю уже о 4к. Сам недавно взял карту с 8гб. Через пару лет придется менять, это неизбежно.

    0
  • А потом покажут космические цены + лучики 2.0, которые всю эту предполагаемую мощь закатают в асфальт, ну или случиться чудо и мы может действительно увидим хоть какие то движения в плане изменения картинке не только увеличением разрешения экрана.

    0
  • Даже не знаю, сколько это будет стоить у нас. Сейчас хочу что-нибудь простое собрать (относительно этого). Свой старый i4460+1060 увезу на дачу

    0
  • Так утечка или слух?
    Если утечка, то почему характеристики ПРЕДПОЛАГАЕМЫЕ?

    0
  • Я так понимаю, что уже через месяца 2 надо выставлять свою карту на Авито, потому что она вот вот станет тыквой. 1.5 года всего получается :)

    0
    • @scandall, что вы за глупости пишите про тыкву все? Люди по несколько поколений сидят на одних картах (как консольщики по 7 лет на своих консолях), а тут смена одного поколения уже тыква у них. Вот избалованные стали и с жиру беситесь уже)

      0
    • @Grombrindal, так глупости или с жиру бесимся?:) При выходе нового чего-то прошлая версия это тыква не в силу технических характеристик, а снижения цены ввиду большого засилия на вторичном рынке. Моя 2080 и так отыквилась после выхода супер версии, а сейчас и вовсе станет послехэллоунской двухдневной версией себя.

      0
    • @scandall, ну так это с любым продуктом происходит, когда выходит что-то более новое. Мне лично все равно сколько моя карта в цене потеряет, главное что бы производительности хватало, я ведь покупаю карту не для перепродажи, а что бы использовать несколько лет. Хотите менять видеокарты каждое новое поколение и не терять много денег, то не берите топовые карты или ждите когда цена на них сильно упадет и потом покупайте.

      0
  • Выглядит как фейк, ибо столько видеопамяти в потребительских картах не нужно. Только если нвидиа не собираются представить такой объем памяти как революцию и не увеличить ценник на старте в полтора раза, как было с rtx.

    0
    • @HlebSizumom, в 2013 вышли на массовый рынок карты с 2 гигами видеопамяти

      В 2019 на массовый рынок вышли карты с 8 гигами видеопамяти, которых на момент выхода уже было мало для разрешений больше 1080р

      За 6 лет потребление видеопамяти играми выросло в 4+ раза

      Выводы:

      0
  • Ну Н видеа всегда на коне , видео карты всегла от них беру и доволен .)) Вот вам , карточка . Так что консоли уже устарели не успев выйти . А сколько в них терафлопс в этих картах 20 больше 20 , я думаю возьму.

    0
  • @Itachi, физика не фича хуанга, вообще-то.
    Как и рейтресинг, как и все остальное. Они пропихивают технологии путем слива дорогущие плохо работающие на тот момент.
    Gsync - идея норм, но подача уровня мажоров. С минимальной разницей от общедоступных Амд-вариаций. В гробу я видал такие инновации.

    0
    • @Mercurionio, да эти технологии были придуманы раньше, но nvidia их реализует, а потом остальные эти технологии стандартизируют, если бы не nvidia, игроки еще очень не скоро увидели бы эти технологии.

      0
  • Об оптимизации в играх можно забыть. А зачем, видюха все вывезет.

    0
  • @ManaBanana,

    зять ту же самую VII, которая исчезла буквально за пол года после анонса

    Потому что наклипали их очень мало, достаточно вспомнить релиз и сколько дали на обзоры))
    Но ты решил просто ляпнуть)

    0
    • @PC_Master, дело в том что её просто выпустили и забыли нафиг на полтора года как страшный сон, хотя карта была популярна. Возьми такое же с нормальной поддержкой и создай другое, более приземленное решение и ты будешь богом продаж.

      0
  • @Itachi, далеко не факт. Тот же физика мог бы уже в каждой дырке быть, а не быть проприетарным дерьмом.

    0
  • буквально вчера взял rx570

    0
  • @Zenux, завтра сделаю скрин, что не жрёт она 5.5гб на ультра в 4к

    0
  • Ну цены точно не будут меньше, новый будут стоить на 10к рубликов дороже точно, а иначе не будут покупать прошлое поколение, тем более они недавно супер линейку выкатили, так что это элементарная экономика. Будет ЧУДО, если они подумают о потребителе и цены останутся хотя бы на таком же уровне как у прошлого поколения, но это как это так, это невозможно) Так что опять оверрейтед цена. Жду.

    0
  • @ManaBanana, ничего ты не знаешь про релиз карты или вообще про железо. Потому что про худший релиз знал бы и как они опозорились. Карты на обзор топовым блогерам давали поштучно и их было единицы, читай сам и не пиши ерунду

    0
    • @PC_Master,

      ничего ты не знаешь про релиз карты или вообще про железо

      Поясняйте со своего пьедестала, пожалуйста.

      Карты на обзор топовым блогерам давали поштучно и их было единицы, читай сам и не пиши ерунду

      И всё-таки они зачем-то поступили в продажу одной партией. И в новом году о них внезапно вспомнили и решили повторить "успех". Обновленная версия была заявлена во время годовой отчётности, в конце 2019.

      0
  • @ManaBanana, пожалуйста почитай сам или посмотри первые обзоры и все будет понятно

    0
  • @Zenux, где ты увидел жор 5.5+ гб видео в ас оригинс в 4к?

    0
    • @mashaividova, показания этих ползунков и реальный процесс -совершенно разные вещи. у меня в GRW тоже показывает 4гб потребления, хотя на полных ультрах игра сразу же упирается в 6гб

      1
    • @mashaividova,
      В игру пол часа хотя бы поиграй, побегай немного по разным местам, потом покажи потребление Vram. Я выложил именно такие скрины, а не "зашел - заскринел - вышел".

      0
Войдите на сайт чтобы оставлять комментарии.