Утечка: В новых видеокартах Nvidia будет до 20 ГБ видеопамяти GDDR6

Утечка: В новых видеокартах Nvidia будет до 20 ГБ видеопамяти GDDR6

В ближайшее время Nvidia может представить новое поколение своих видеокарт Ampere. Китайский ресурс mydrivers (via gizchina) опубликовал предполагаемые характеристики будущих моделей RTX 3080 и 3070.

Все видеокарты нового поколения будут производиться по 7-нм техпроцессу, что скажется на повышении частот GPU и памяти. При этом у поколения Ampere снизится энергопотребление, а производительность возрастет.

RTX 3080

  • Графический процессор GA103.
  • 60 вычислительных блоков.
  • 3480 ядер CUDA.
  • 320-битная шина.
  • Память GDDR6 объемом 10 или 20 ГБ в зависимости от модели.

RTX 3070

  • Графический процессор GA104.
  • 48 вычислительных блоков.
  • 3072 ядер CUDA.
  • 256-битная шина.
  • Память GDDR6 объемом 8 или 16 ГБ в зависимости от модели.

Также упоминается процессор GA103, который предположительно будет установлен в RTX 3080 Ti. Однако характеристики данного чипа пока неизвестны.

По слухам, презентация видеокарт пройдет в марте на выставке GPU Technology Conference.

114 Комментариев

  • Sherlock89
    Комментарий скрыт. Показать

    Вот это мощь, шах и мат радеон.))

    9
    • Комментарий скрыт. Показать

      @Sherlock89, ты думаешь что он не сможет лучше?
      Или ты "болельщик"? Тебе то что от того что Нвидея "победила"?
      Ты делал ставки? Жаль что я пока что не могу ставить минусы :с

      0
    • Sherlock89
      Комментарий скрыт. Показать

      @reint, никогда не мог, а здесь чудо случиться, ага.))
      Насчет болельщика, ну я не фанат, но один раз напоролся на великолепную багованную карту радиков и больше никогда с ними не имел дело слава богу.
      Насчет минусов, да хорош, у меня больше 5000 плюсов, надоест. Да и зачем это вам, моего мнения на счет радионов ваш минус не изменит. Себя потешить циферкой, тогда ради бога, как дитё малое.)

      0
    • Комментарий скрыт. Показать

      @Sherlock89, да я бы тоже минус поставил, а то так кто-то смотрит на "+9" и думают, вах какой молодец, крутой коммент. Так то да все эьи циферки для детей, и реальную оценку комментария они как раз таки не отражают, за счёт невозможности ставить минус, у многих. Ну а так ваш коммент кстати очень детский, не несущий вообще ничего в себе. Когда эти карты выйдут и выйдут ли вообще никому не известно, и что это лично вам даст не понятно. Какая вам карта "забагованная" попалась скажите, интересно. Это как купить просроченное молоко, и из-за этого больше никогда молочное не покупать, бред ребёнка. "больше никогда с ними не имел дело слава богу", очередной бред фанатика, как ты можешь радоваться за то, чего не случилось? То есть ты не знаешь был бы твой опыт с ними положительный или отрицательный. Такую вот личную неприязнь лучше при себе оставлять, это никому не интересно.

      1
    • Sherlock89
      Комментарий скрыт. Показать

      @F1LA, я на циферки чужие вообще внимания не обращаю и вам советую, меньше бреда, как вот этот, печать будите.

      0
    • Комментарий скрыт. Показать

      @Sherlock89, ты бы писать научился для начала, "будЕте", так я жду рассказа про "забагованные" радеоны. Ты же сам тут упоминаешь свои 5000плюсов, каждый день наверное. И вообще, ты хоть сам понимаешь что значат эти циферки? Их не надо зарабатывать тупыми комментами вроде "Вот это мощь, шах и мат радеон.))", это показатель мнения пользователей относительно комментария, или тебе лучше, когда каждый будет писать "согласен"/"да". И ещё вопрос, для кого ты вообще тут свой изначальный бесполезный комментарий оставил? Серьёзно, ты строишь из себя умного, которому пофиг на плюсики/минусики, почему бы тебе просто не пройти мимо, и не писать о своём клоунском мнении на счёт видеокарт. Давай рассказывай про забагованный радеон, только не сливайся, и не говори что тебе лень меня читать вдруг стало.

      0
    • Sherlock89
      Комментарий скрыт. Показать

      @F1LA, опять тонна текста которого я даже читать не стану. Краткость сестра таланта, удачи вам и отвалите. Мне вы неинтересны от слова совсем

      0
    • Комментарий скрыт. Показать

      @Sherlock89, я тебе и написал кратко, если для тебя 4 предложения это не кратко, то тебя ждут большие проблемы в жизни, дальше сидения у мамки на шее и кудахтанья в комментах ты не уедешь, до свидания)))

      0
    • Sherlock89
      Комментарий скрыт. Показать

      @F1LA, кто еще и кудахтает почем зря, пытаясь меня задеть совершенно детским способом, вангуя в холостую, не зная меня и фактов. Удачи, далеко пойдешь по жизни, со скобочками своими.

      0
    • Комментарий скрыт. Показать

      @Sherlock89, съел -_- , шах и мат, тьфу
      https://shazoo.ru/2020/02/25/91064/sluh-big-navi-ot-amd-poluchit-24-gb-pamyati-i-propusknuyu-sposobnost-v-2-tb

      0
  • XPYCT
    Комментарий скрыт. Показать

    RTX 3070 на 16 Gb мой выбор! Ждем новостей и разумеется ценников)

    14
  • AndrewVishnevsky
    Комментарий скрыт. Показать

    Интересны цены на это вот все. А то хотелось взять 2070rtx super,но что-то появились сомнения.

    9
    • Комментарий скрыт. Показать

      @AndrewVishnevsky, сколько на старте продаж стоила 2070 прибавь процентов 10-15 и получишь цену.

      0
    • ReiJey
      Комментарий скрыт. Показать

      @LASTNIGHT, не факт. 7 нм дешевле выйдет, т.к. площадь меньше

      1
    • Beardisawesome
      Комментарий скрыт. Показать

      @ReiJey, в нашем мире что-то дешевле может стоить только при условии хорошей конкуренции. Но на рынке видеокарт пока слабая конкуренция, так что чуток да дороже но будет.

      26
    • ManaBanana
      Комментарий скрыт. Показать

      @ReiJey, что-то не очень аргумент. Сильнее бьет новизна техпроцесса и ограниченное количество карт на старте. Вот это повышает стоимость.

      2
    • Reym
      Комментарий скрыт. Показать

      @ReiJey, зеленые же говорили на презентации прошлых карт, что отныне ценник никогда не будет ровняться на прошлые поколения, а будет зависеть от производительности.

      0
    • Комментарий скрыт. Показать

      @Beardisawesome, даже если будет хорошая конкуренция, новый продукт никогда не будет стоить столько же или меньше того, что был до него. с учетом того, что в технологиях поняти "новое" в основном несет за собой улучшения. а улучшения с точки зрения маркетинга, это всегда означает дороже.

      0
  • ReiJey
    Комментарий скрыт. Показать

    Утечка мусор !!!!

    Поясню почему: Не может быть у одной модели столь большой разброс по видеопамяти ! Может 2 максимум 4, но не х2. Так что это фэк 100%

    10
    • ManaBanana
      Комментарий скрыт. Показать

      @ReiJey, может, учитывая современные тенденции. По сути, они могут сделать подобный скачок предлагая карты для контент-мейкеров и более скромные варианты для геймеров. Избыточная память как раз таки нужна для контент-мейкеров.

      1
    • SkyFox
      Комментарий скрыт. Показать

      @ReiJey, физически, в железе это не вызовет трудностей, нужно будет только заменить 8-Гбитные микросхемы на 16-Гбитные. Возможно такой разброс вызван сложностью совместимости в одновременной работе 8 и 16-Гбитных микросхем.

      0
    • Zenux
      Комментарий скрыт. Показать

      @ReiJey, Особенно если это жадная до памяти Нвидиа.

      0
  • demyxx
    Комментарий скрыт. Показать

    и будет оно стоить снова 1000

    5
    • Sherlock89
      Комментарий скрыт. Показать

      @demyxx, имеют полное право гнуть цену, потому как только они двигают индустрию вперед. Радеон только вбросы кидает, на деле же ничего не имеем толкового.

      12
    • Beardisawesome
      Комментарий скрыт. Показать

      @Sherlock89, Например тот же mantle, наработки которого ушли в vulcan, после чего nvidia подключилась к процессу да так, что до сих пор поддержка не очень того же dx12. Freesync в массы, а не проприетарный g-sync никому не нужный и так можно долго продолжать. Обе компании двигают индустрию, просто у нвидии больше денег для того чтобы быстрее наращивать мощь видеокарт.

      15
    • Itachi
      Комментарий скрыт. Показать

      @Beardisawesome, с начала появился g-sync и после этого AMD в ответ выпустили Freesync. Если бы не Nvidia сидели бы на видюхах с 1Гб и шиной 64 бит, без физики, фри синка, лучей и много другого. Nvidia делает новую технологию, а AMD и другие уже эту технологию копируют, называют по своему и стандартизируют.

      4
    • Grombrindal
      Комментарий скрыт. Показать

      @Itachi, большой объём видеопамяти это как раз всегда была фишка амд, нвидиа наоборот часто маловато памяти клали, а с 970-й вообще скандал, когда обнаружилось, что памяти там гораздо меньше чем заявлено.

      2
    • Beardisawesome
      Комментарий скрыт. Показать

      @Itachi, Так я и написал что AMD смогли В МАССЫ двинуть это, в отличие от Nvidia.

      Как я люблю речи если бы не эта фирма(нужно вставить самостоятельно) то того бы не было. Было бы просто сделанное другой фирмой и под другим названием. Я говорю о том что ОБЕ компании двигают индустрию и не нужно приплетать всё только одной. Мы же не фанатики какой-то фирмы, верно?

      P.S. Сижу на Intel + Nvidia, что не мешает мне трезво размышлять.

      0
    • Grombrindal
      Комментарий скрыт. Показать

      @Beardisawesome, верно, также можно сказать, если бы не AMD то и у NVIDIA не было бы стимула развивать технологии и снижать цены, потому что и так бы все купили. Конкуренция фирм это двигатель прогресса.

      0
    • Itachi
      Комментарий скрыт. Показать

      @Beardisawesome, в данном случае без зеленых не чего бы не было. Как пример думаешь в новых консолях был бы rtx если бы не nvidia? AMD в спешном порядке начала разработку лучей для консолей после релиза rtx 20xx серии.

      @Grombrindal, Nvidia не видит в AMD конкурента.

      1
    • Grombrindal
      Комментарий скрыт. Показать

      @Itachi, технологии трассировки лучей существуют уже много лет, нвидиа не изобретала эту технологию, у нее нет на нее никаких патентов, как на хаир воркс например или физикс. Все что нвидиа сделала это добавила аппаратные блоки. В новых консолях трассировка была бы и без rtx, амд ее собирались добавить на уровне драйверов, софтверную трассировку они зарегистрировали еще в 2014 году. Но на тот момент мощности потребительских видеокарт просто не хватало для вычисления лучей в реальном времени. Даже 20-й серии с отдельными блоками ее еще недостаточно. Выпуск rtx это просто маркетинговый ход нвидии.

      9
    • Комментарий скрыт. Показать

      @Itachi, Вы очень примитивно мыслите. Технологии не выходят на рынок за месяц и то что g-sync вышел на рынок раньше freesync-а, не означает что последний начали разрабатывать после выхода первого на рынок.

      1
    • Itachi
      Комментарий скрыт. Показать

      @Grombrindal, да лучи придумали в 80-х годах, начали использовать в 90-х годах, но в реал тайме первые начали использовать nvidia, да они хайпанули но они развивают технологии.

      1
    • Комментарий скрыт. Показать

      @Itachi, в новых консолях rtx, потому что нвидиа очень сильно это прорекламировала фразочками типа "только дурак купит карту без rtx в 2019". Именно поэтому в спешном порядке их туда и всунули, а не потому что это "ВАУ КРУТО", если бы не rtx, скорее всего консоли получили бы больше памяти и/или терафлопс, грубо говоря не обломались бы. Ну а так конечно, какой дурак купит консоль без такой "фишки", доступной лишь неудачникам на ПК.

      0
    • Itachi
      Комментарий скрыт. Показать

      @F1LA, да nvidia разрекламировала, но теперь эту технологию доведут до ума и стандартизируют, через 2-3 года rtx будет в большинстве игр, если бы не nvidia то rtx еще не скоро начали бы использовать в реалтайме, как и много других технологий которые стандартизировали после того как nvidia их начала использовать.

      0
    • Комментарий скрыт. Показать

      @Itachi, Ну то есть вы согласны, что они разрекламировали, а не придумали её, так как не они её придумали на самом деле, посмотрим что дальше будет, пока что это смонительный плюс, и многие выбирают доплатить за производительнось нежели за лучи.
      Вот кстати зря вы бросаетесь такими фразами "Nvidia не видит в AMD конкурента.", если бы это было так, сейчас бы цены были в разы выше на карты нвидиа. Пару лет назад, фанатики интела то же самое говорили, хотя они всегда были конкурентами.
      Нет, не надо говорить, что реалтайм лучи без нвидиа не завезли бы ещё долго, этим грозились ещё 10 лет назад, но тогда не хватало мощностей конечно, так что всё к этому шло в любом случае. Ну сделали, молодцы да, но пока что это "такое себе", если честно в некоторых играх картинка даже хуже с ними, на мой взгляд, но посмотрим что дальше будет.
      Кстати на счёт фрисинка, скажите спасибо амд, что нвидиа ввела поддержку фрисинк для своих карт, наверное потому что конкуренция, и я этому рад. У самого нвидиа карта и моник фрисинк.

      0
    • Itachi
      Комментарий скрыт. Показать

      @F1LA, а я и не говорил что nvidia все технологии лично создает. Разница между g-sync и freesync в том что первая технология закрытая и производителям мониторов надо платить nvidia за лицензию, а freesync открытая технология и ее могут использовать все. Нам года так с 2008 обещают графику уровня cgi но ее как не было так и нет. Nvidia создает / берет уже существующую технологию, показывает что можно делать вот так, а потом amd и другие подхватывают, развивают эти технологии и стандартизируют их что бы этими технологиями могли пользоваться все.

      0
    • Комментарий скрыт. Показать

      @Itachi, дада, про x86-64 не слышали наверное, сейчас бы на 32битах сидели со своей нвидией хвалёной, если бы не AMD. Вы слишком однобоко смотрите, пофиг всем на эти лучи, вы во уверены что АМД реально не знали что так можно делать? Или эе просто они считали что это не так нужно? Но реклама от нвидиа сделала эту "фишку" маст-хев для дурачков, и амд просто пришлось это прикручивать и к своим продуктам. По-вашему в амд сидят китайчат, которе только и могут что копировать всё, ясно фанатик, до свидания, про амд64 погугли и окстишься сразу. Я знаю в чём разница фрисинк гсинк, фрисинк лучше и не надо тут чёто оправдываться, нвидиа не просто так добавила её поддержку, лично для меня при выборе видеокарты, наличие фрисинк было очень большим плюсом, а гсинк в топку. Я вам хочу сказать, с ума не сходите, обе компании друг для друга конкуренты, и те и другие что-то делают и воруют друг у друга, неужели думаете нвидиа не вынюхивает чем заняты в амд? Мне вот пофигу, я рад любым достижениям обоих компаний, и трезво оцениваю ситуацию, так как не являюсь фанатом.

      0
    • Itachi
      Комментарий скрыт. Показать

      @F1LA, AMD клала болт на видиокарты, для них приоритет процессоры и консоли, если бы не консоли то AMD уже бы умерла. Погугли кто создал для AMD Athlon 64, благодаря которому и появилась архитектура x64-x86 и кто создал Ryzen. Спойлер этот человек щас работает в Intel и создает им процессор нового поколения.

      0
    • Комментарий скрыт. Показать

      @Itachi, если бы да кабы, жди дальше смерти амд, тупой хейтер.

      Ещё про дюроны и первые атлоны расскажи мне, что амд где-то там повезло и у них были гораздо более выгодные процы чем у интел. Амд прям короче на везении всю жизнь существуют, а в нвидиа и интел весь штат состоит из эйнштейнов, до свидания, можете монолог продолжать.

      0
    • Itachi
      Комментарий скрыт. Показать

      @F1LA, это факт, с процессорами им помогли, а с видиокартами красыне всегда отставали, да весной они выпустят "убийцу rtx 2080" вот только незадача, nvidia той же весной выпустит rtx 3080.

      0
    • Комментарий скрыт. Показать

      @Itachi, господи, ты так говоришь как-будто ты из будущего и знаешь всё наверняка, ДО СВИДАНИЯ неадекватный фанатик

      0
    • Itachi
      Комментарий скрыт. Показать

      @F1LA, да Athlon 64 был отличным процессором который был намного лучше того что было у Intel, вот только его как и Ryzen создали не штатные инженеры, а человек со стороны, а потом эти гении решили создать свой fx и бульдозер чем и угробили свое преимущество. А неадекват тут только ты, раз не хочешь верить фактам.

      0
    • Комментарий скрыт. Показать

      @Itachi, ты это себе про факты скажи, клоун который говорит как нвидиа весной всех победит, ну самому не смешно заранее такое говорить? Я думаю весной выйдёт карточка Наруто228 322Гб и уничтожит нвидиа с амд, извини если ошибься, не знаю кто там самый крутой у тебя в фантазиях, бб, факты хахаха.

      0
  • Normal
    Комментарий скрыт. Показать

    Пора обновляться мне, но чуть подождать, в общем жду, так как ресурсов становится маловато, особенно для gpu рендеринга
    @Sherlock89, опасно такое говорить в наше время, набегут как андроиды на яблочки))

    0
  • artxays
    Комментарий скрыт. Показать

    Сомнительно. Такой резкий скачок в объеме видеопамяти ? Ставлю на то, что в 3080 TI будет 16 гб. В 3080/3070 11 гб, а в 3060 8 гб.

    2
    • Комментарий скрыт. Показать

      @artxays, насколько я помню, объем памяти должен делиться на битность без остатка, т.е. если память 256-битная, то может быть только 8/12/16Gb, если 320-битная то 10/15/20Gb(точнее 10240/15360/20480Mb).

      1
    • artxays
      Комментарий скрыт. Показать

      @n0th1ng, Ок, спс. Буду знать.

      0
  • Dalek
    Комментарий скрыт. Показать

    Очень сомнительно - в этом году запуск новых консолей на GDDR6 памяти и цены на неё взлетят из-за спроса.

    0
  • Ozzmosis
    Комментарий скрыт. Показать

    у меня иррациональное) предложение — предлагаю убрать из всех возможных словарей термин оптимизация)
    ненуачо?! памяти скоро будет стоять в РС под сотню гб, видео память будет насчитывать десятки гб), винты будут объемом под десять тб ссд))) зачем же что то в таких условиях оптимизировать.

    1
    • ManaBanana
      Комментарий скрыт. Показать

      @Ozzmosis, во-первых, давайте придумаем новую архитектуру и способы паковать данные так, чтобы объем их уменьшался как минимум вдвое. Т.е. я сам ЗА оптимизацию, но понимаю что не всё так просто в этом мире как хотелось бы. По сути, единственным способом уменьшить память на пользовательском ПК, можно только если кто-то с тобой поделится этой памятью или предложить держать часть файла у себя. Это обычная распределительная сеть. Так же можно уйти в сторону облачного гейминга, но опять же, нужны технологии и установка серверов в как можно большем количестве стран и регионов.
      Если заниматься оптимизацией с теми технологиями что сейчас есть, которая хотя бы в полтора раза уменьшит объем потребляемых ресурсов, то ААА проектов вы не будете видеть годами. Повезёт если раз в пятилетку они будут выходить.

      1
  • ManaBanana
    Комментарий скрыт. Показать

    Почему такой скепсис по отношению к видеопамяти. Стоит вспомнить, что на складах у сборщиков памяти на конец 2019 года находится достаточно много оперативы самого разного типа. Поэтому цена на неё падала в течении продолжительного времени. Твертотелов наклепали очень много и по сути все их до сих пор не реализовали и при этом производят еще и будут производить еще больше, потому что на рынок массово выходят автопилотируемые машины, объемы памяти в которых могут достигать терабайтов.
    Конечно, всё это может оказаться фуфлом, а может просто разброс связан с тем, что АМД очень точно целятся в сегмент контент-мейкеров, взять ту же самую VII, которая исчезла буквально за пол года после анонса и только сейчас о продолжении линейки стало что-либо известно, плюс не забываем внезапный взрыв процессоров с опять же избыточным количеством ядер, которые большинству не нужны, но большинство раскупает и желает еще больше ядер.

    1
  • Haqty_Mikael
    Комментарий скрыт. Показать

    @Ozzmosis,

    зачем же что то в таких условиях оптимизировать.

    Попробуй запустить Crysis или Сталкер и что бы они у тебя шли в 100+ FPS, и тогда поймёшь зачем нужна оптимизация.

    3
  • Комментарий скрыт. Показать

    ну разве что для игр в 8к, а так по сути немнужно от слова совсем, тотже ас оригинс на ультранастройках в 4к ест вроде в районе чуть больше 4гб видео,т.е меньше 5, а если играть в 1080р или 1440р и то меньше, тогда зачем обычному игроку 16гб? не дцмаю что в ближайшие годы графика в играх будет фотореалистичной неотличимой от реальности, поэтому на ближайшие годы смысла в видюхе больше 8гб для простых игроков нет.

    -2
  • Комментарий скрыт. Показать

    Если характеристики настоящие, то интересно узнать, цены на 3070 с 16гб и 3080 с 10гб, насколько цена и возможности разнатся.

    1
  • PavelDraco
    Комментарий скрыт. Показать

    Если правда, то отлично. Огромный скачек, который продвинет индустрию игр. Еще бы цены приятные сделали (мечты) :)

    0
  • Haqty_Mikael
    Комментарий скрыт. Показать

    @mashaividova,

    тогда зачем обычному игроку 16гб? не дцмаю что в ближайшие годы графика в играх будет фотореалистичной неотличимой от реальности

    Чувак это ты ещё не знаешь о онлайновой текстовой игре AI Dungeon, для оффлайновой версии которой нужны целых 12 Gb, ведь ИИ нужно как то просчитывать что написать, а с этими 12 ГБ, оно может думать уже меньше минуты. Характеристики и другое

    0
  • Fortuna
    Комментарий скрыт. Показать

    Я только неделю назад купил 2080 ti для Киберпанка, а его перенесли, каналья!
    Что, начинаю копить деньги на 3080 ti :)

    2
    • Grombrindal
      Комментарий скрыт. Показать

      @Fortuna, я только купил 2060с и собираюсь на ней сидеть до 4000-й серии, Амперы пропускаю.

      4
    • Phantom82
      Комментарий скрыт. Показать

      @Grombrindal, Вот тоже самое,ближайшие 2 года ничего брать не буду,да и игр толком нет под такие видюхи,если только для 4к и выше.

      0
    • DickJohnson
      Комментарий скрыт. Показать

      @Fortuna, Буквально вчера взял RTX 2060 super. Для игры 1440p 60fps (Для 1080p так вообще производительности пипец как много) на ближайшие пару тройку лет должно хватить, так что 3000 серия скорее всего пройдет мимо.
      @Phantom82, RDR2 нагибает всё.

      2
    • Fortuna
      Комментарий скрыт. Показать

      @DickJohnson, Я вот запустил рэйтрейсинг в Батлфилд 3 на 1920х1080, проверить производительность 2080 ti и когда бегаешь по уровню все нормально, а вот при просмотре синематиков или если стоишь на высокой горе, когда видно весь уровень, заметны явные тормоза. И к слову сказать у меня 32гб оперативки ддр3.

      0
    • DickJohnson
      Комментарий скрыт. Показать

      @Fortuna, Рэйтрейсинг меня в принципе не интересует, хотя если ты покупаешь 2080 ti за цену приближающуюся к 100к и имеешь глюки в играх на 1080p то это наверное обидно.

      0
    • Phantom82
      Комментарий скрыт. Показать

      @DickJohnson, в 1080p настройки высокие-ультра, 60фпс играю на i59400f и rtx2060s, меня вполне устраивает.

      0
    • Комментарий скрыт. Показать

      @Fortuna, ддр3? Наверно потому что проц старый? Для рейтрейсинга в 5-й батле рекомендуется 12 потоков.

      0
    • Fortuna
      Комментарий скрыт. Показать

      @n0th1ng, @Phantom82, у меня Intel Core i7 4770k на 3.5 GHz
      @DickJohnson, Я купил за 69к.

      0
    • Phantom82
      Комментарий скрыт. Показать

      @n0th1ng, 6 за глаза,i5 9400f rtx2060s 60-120 fps c трассировкой.

      0
    • Grombrindal
      Комментарий скрыт. Показать

      @Fortuna, возможно тормоза из за оперативки DDR3 или процессора, а не из за видеокарты. С трудом верится, что 2080ti может тормозить где-то в разрешение 1080. Ну или игра местами кривая или еще какая-то причина.

      0
  • rumit
    Комментарий скрыт. Показать

    На эти деньги проще купить новую консоль и пачку игр по предзаказу :D

    0
  • zxe_zuma
    Комментарий скрыт. Показать

    И будут они стоять в 2 раза дороже 20 линейки.

    0
    • Grombrindal
      Комментарий скрыт. Показать

      @zxe_zuma, в сравнение со стартовой ценой 20-ки в два раза не будут, на момент выхода 20-ая серия конечно подешевеет и разница как раз в два раза и будет.

      0
  • EvgenElfSorokin
    Комментарий скрыт. Показать

    https://www.youtube.com/watch?v=Rs2OCUcOaCo

    0
  • I0GER
    Комментарий скрыт. Показать

    Графический процессор GA103.
    60 вычислительных блоков.
    3480 ядер CUDA.
    320-битная шина.
    Память GDDR6 объемом 10 или 20 ГБ в зависимости от модели.

    А чуть дальше

    Также упоминается процессор GA103, который предположительно будет установлен в RTX 3080 Ti. Однако характеристики данного чипа пока неизвестны.

    Я твоя не понимать
    Да и вообще это все похоже на фейк. Я возможно не спец в вопросах архитектуры графических микропроцессоров, но разве количество ядер в рамках одного вычислительного блока, в рамках одной архитектуры, не должно быть одинаковым? А то у нас на GA103 выходит 58 ядер на блок, а на GA104 аж 64 ядра на блок.

    Имхо, лучше запишите новость как "Слух", а не как "Утечка".

    1
    • Quark
      Комментарий скрыт. Показать

      @I0GER, никогда такого не было? стандартная практика, отключать блоки на чипах и ставить в младшие модели

      0
    • I0GER
      Комментарий скрыт. Показать

      @Quark, Одно дело отключать блоки на чипах (хотя тут два разных чипа, ну да ладно), и совсем другое отключать ядра в блоках - смысл такого изврата?

      0
    • Quark
      Комментарий скрыт. Показать

      @I0GER, а в чем проблема? брак в одном из ядер, отключаем, получаем младшую модель ГПУ. собирать отдельную линию для разных моделей карт, не выгодно, проще делать так

      0
    • I0GER
      Комментарий скрыт. Показать

      @Quark, на сколько я знаю - а реале дела обстоят несколько иначе, и отключаются именно блоки, а не отдельные ядра (если говорить о графических процессорах).

      0
    • Quark
      Комментарий скрыт. Показать

      @I0GER, хз, обычно блоки, что будет на этот раз не понятно, обычно 64 ядра на блок, возможно авторы ошиблись и должно быть 3840 а не 3480, опечатка

      0
  • Imlerith
    Комментарий скрыт. Показать

    Ну начинается, только купил карту с 8 гигами видеопати, а они уже всё, в следующем году будут не хватать из-за криворуких разработчиков, которые экономят на мемори менеджменте

    2
    • Grombrindal
      Комментарий скрыт. Показать

      @Imlerith, ну когда появились первые 8 гиговые карты, то 4 гиговых еще хватало долго. Не думаю что 8 гигов уже через год будет не хватать, только если в 4К разве что.

      0
    • Комментарий скрыт. Показать

      @Imlerith, так не только V памяти видеокарты важен, но и частоты + тип памяти GDDR5/GDDR6/HBM и т.п. А еще зависит от того, какой у тебя БП (чтоб мощности хватило), проц и RAM.

      0
  • Комментарий скрыт. Показать

    Сейчас карты с 8гб уже мало для 2к гейминга, не говорю уже о 4к. Сам недавно взял карту с 8гб. Через пару лет придется менять, это неизбежно.

    0
  • Human2016
    Комментарий скрыт. Показать

    А потом покажут космические цены + лучики 2.0, которые всю эту предполагаемую мощь закатают в асфальт, ну или случиться чудо и мы может действительно увидим хоть какие то движения в плане изменения картинке не только увеличением разрешения экрана.

    0
  • Комментарий скрыт. Показать

    Даже не знаю, сколько это будет стоить у нас. Сейчас хочу что-нибудь простое собрать (относительно этого). Свой старый i4460+1060 увезу на дачу

    0
  • Korotu_n
    Комментарий скрыт. Показать

    Так утечка или слух?
    Если утечка, то почему характеристики ПРЕДПОЛАГАЕМЫЕ?

    0
  • scandall
    Комментарий скрыт. Показать

    Я так понимаю, что уже через месяца 2 надо выставлять свою карту на Авито, потому что она вот вот станет тыквой. 1.5 года всего получается :)

    0
    • Grombrindal
      Комментарий скрыт. Показать

      @scandall, что вы за глупости пишите про тыкву все? Люди по несколько поколений сидят на одних картах (как консольщики по 7 лет на своих консолях), а тут смена одного поколения уже тыква у них. Вот избалованные стали и с жиру беситесь уже)

      0
    • scandall
      Комментарий скрыт. Показать

      @Grombrindal, так глупости или с жиру бесимся?:) При выходе нового чего-то прошлая версия это тыква не в силу технических характеристик, а снижения цены ввиду большого засилия на вторичном рынке. Моя 2080 и так отыквилась после выхода супер версии, а сейчас и вовсе станет послехэллоунской двухдневной версией себя.

      0
    • Grombrindal
      Комментарий скрыт. Показать

      @scandall, ну так это с любым продуктом происходит, когда выходит что-то более новое. Мне лично все равно сколько моя карта в цене потеряет, главное что бы производительности хватало, я ведь покупаю карту не для перепродажи, а что бы использовать несколько лет. Хотите менять видеокарты каждое новое поколение и не терять много денег, то не берите топовые карты или ждите когда цена на них сильно упадет и потом покупайте.

      0
  • Комментарий скрыт. Показать

    Выглядит как фейк, ибо столько видеопамяти в потребительских картах не нужно. Только если нвидиа не собираются представить такой объем памяти как революцию и не увеличить ценник на старте в полтора раза, как было с rtx.

    0
    • Imlerith
      Комментарий скрыт. Показать

      @HlebSizumom, в 2013 вышли на массовый рынок карты с 2 гигами видеопамяти

      В 2019 на массовый рынок вышли карты с 8 гигами видеопамяти, которых на момент выхода уже было мало для разрешений больше 1080р

      За 6 лет потребление видеопамяти играми выросло в 4+ раза

      Выводы:

      0
  • sss77
    Комментарий скрыт. Показать

    Ну Н видеа всегда на коне , видео карты всегла от них беру и доволен .)) Вот вам , карточка . Так что консоли уже устарели не успев выйти . А сколько в них терафлопс в этих картах 20 больше 20 , я думаю возьму.

    0
  • Mercurionio
    Комментарий скрыт. Показать

    @Itachi, физика не фича хуанга, вообще-то.
    Как и рейтресинг, как и все остальное. Они пропихивают технологии путем слива дорогущие плохо работающие на тот момент.
    Gsync - идея норм, но подача уровня мажоров. С минимальной разницей от общедоступных Амд-вариаций. В гробу я видал такие инновации.

    0
    • Itachi
      Комментарий скрыт. Показать

      @Mercurionio, да эти технологии были придуманы раньше, но nvidia их реализует, а потом остальные эти технологии стандартизируют, если бы не nvidia, игроки еще очень не скоро увидели бы эти технологии.

      0
  • MerserEX
    Комментарий скрыт. Показать

    Об оптимизации в играх можно забыть. А зачем, видюха все вывезет.

    0
  • PC_Master
    Комментарий скрыт. Показать

    @ManaBanana,

    зять ту же самую VII, которая исчезла буквально за пол года после анонса

    Потому что наклипали их очень мало, достаточно вспомнить релиз и сколько дали на обзоры))
    Но ты решил просто ляпнуть)

    0
    • ManaBanana
      Комментарий скрыт. Показать

      @PC_Master, дело в том что её просто выпустили и забыли нафиг на полтора года как страшный сон, хотя карта была популярна. Возьми такое же с нормальной поддержкой и создай другое, более приземленное решение и ты будешь богом продаж.

      0
  • Mercurionio
    Комментарий скрыт. Показать

    @Itachi, далеко не факт. Тот же физика мог бы уже в каждой дырке быть, а не быть проприетарным дерьмом.

    0
  • Комментарий скрыт. Показать

    буквально вчера взял rx570

    0
  • Комментарий скрыт. Показать

    @Zenux, завтра сделаю скрин, что не жрёт она 5.5гб на ультра в 4к

    0
  • HikkiHaker
    Комментарий скрыт. Показать

    Ну цены точно не будут меньше, новый будут стоить на 10к рубликов дороже точно, а иначе не будут покупать прошлое поколение, тем более они недавно супер линейку выкатили, так что это элементарная экономика. Будет ЧУДО, если они подумают о потребителе и цены останутся хотя бы на таком же уровне как у прошлого поколения, но это как это так, это невозможно) Так что опять оверрейтед цена. Жду.

    0
  • PC_Master
    Комментарий скрыт. Показать

    @ManaBanana, ничего ты не знаешь про релиз карты или вообще про железо. Потому что про худший релиз знал бы и как они опозорились. Карты на обзор топовым блогерам давали поштучно и их было единицы, читай сам и не пиши ерунду

    0
    • ManaBanana
      Комментарий скрыт. Показать

      @PC_Master,

      ничего ты не знаешь про релиз карты или вообще про железо

      Поясняйте со своего пьедестала, пожалуйста.

      Карты на обзор топовым блогерам давали поштучно и их было единицы, читай сам и не пиши ерунду

      И всё-таки они зачем-то поступили в продажу одной партией. И в новом году о них внезапно вспомнили и решили повторить "успех". Обновленная версия была заявлена во время годовой отчётности, в конце 2019.

      0
  • PC_Master
    Комментарий скрыт. Показать

    @ManaBanana, пожалуйста почитай сам или посмотри первые обзоры и все будет понятно

    0
  • Комментарий скрыт. Показать

    @Zenux, где ты увидел жор 5.5+ гб видео в ас оригинс в 4к?

    0
    • Комментарий скрыт. Показать

      @mashaividova, показания этих ползунков и реальный процесс -совершенно разные вещи. у меня в GRW тоже показывает 4гб потребления, хотя на полных ультрах игра сразу же упирается в 6гб

      1
    • Zenux
      Комментарий скрыт. Показать

      @mashaividova,
      В игру пол часа хотя бы поиграй, побегай немного по разным местам, потом покажи потребление Vram. Я выложил именно такие скрины, а не "зашел - заскринел - вышел".

      0
Войдите на сайт чтобы оставлять комментарии.