СМИ: Стали известны характеристики и время релиза графических карт NVIDIA Ampere

СМИ: Стали известны характеристики и время релиза графических карт NVIDIA Ampere

NVIDIA планирует запустить новое поколение видеокарт уже в этом сентябре. Официально пока ничего не заявлено, однако издание wccftech сообщает, что источники поделились некоторой информацией относительно видеокарт на архитектуре Ampere. 

По данным источников, NVIDIA пока не определилась с названием, но большинство инсайдеров считают, что карты будут относиться к линейке RTX 3000. 

Источники сообщают, что NVIDIA выпустит три модели видеокарт в сентябре, одну в октябре и время запуска еще двух не решено. 

ID КартыЗамена в классеvRAMШирина шиныВремя запуска
PG132-10 2080 Ti 24 GB 384 bit 2-ая половина сентября
PG132-20 2080 Super 20 GB 320 bit 1-ая половина октября
PG132-30 2080 Super 10 GB 320 bit Середина сентября
PG142-0 2070 Super 16 GB TBD Не решено
PG142-10 2070 Super 8 GB 256 bit 2-ая половина сентября
PG190-10 2060 Super 8 GB 256 bit Не решено


Как видно, сразу две модели видеокарт, которые заменят 2080 Ti/Super получат более 20 ГБ VRAM. Это может быть связано с тем, что видеокарты AMD Big Navi могут получить около 16 ГБ VRAM, поэтому NVIDIA пошла на такое расширение. Какие игры смогут использовать такой объем памяти, пока не очень ясно.

Учитывая, что AMD также должна анонсировать новую линейку в сентябре, конкуренция за потребителя в этом году будет интересной. В конечном счете, геймеры только выиграют. 

Насколько мощнее будут новые видеокарты в сравнении с прошлым поколением, пока не ясно. Однако майская презентация профессиональных решений порадовала значительным приростом производительности.

Видео от Shazoo

Подписаться

83 Комментария

  • sandrosar
    Комментарий скрыт. Показать

    Где там моя вторая почка. Надеюсь бОльшее число игр будет поддерживать DLSS 2.0, очень перспективная технология у Nvidia получилась. Тогда и смысл обновиться будет на этих монстров

    9
  • Fabio
    Комментарий скрыт. Показать

    Думаю наступила пора заменить 1080ti на что-то новое.

    9
    • gunbi
      Комментарий скрыт. Показать

      @Fabio, Деньги на ветер.

      12
    • BradScusate
      Комментарий скрыт. Показать

      @Fabio, я бы подождал 31 серию, я считаю, она будет более продумана для нового поколения. А 1080ti еще года 2 прекрасно послужит. Но деньги конечно твои)

      8
    • Napalm39
      Комментарий скрыт. Показать

      @BradScusate, смотря в каком разрешении будет играть он на своей 1080ти
      Для 1080р ее конечно хвалит на ближайшие 2 года, а в том же 1440р разрешении уже сейчас даже есть просадки ниже 60 фпс в некоторых играх

      4
    • Комментарий скрыт. Показать

      @BradScusate,

      я бы подождал 31 серию

      Аргументы? Что будет в 31-серии? И почему 3000-я будет сырой на твой взгляд? Задаю вопрос не ради спора, интересно мнение.

      6
    • Orlov
      Комментарий скрыт. Показать

      @Fabio, полностью поддерживаю

      0
    • Febll
      Комментарий скрыт. Показать

      @Fabio, Если играете на 4к, тогда да, иначе пока можно не спешить.

      1
    • BradScusate
      Комментарий скрыт. Показать

      @H3BO3, аргументы простые) у человека 1080ti, ну какой смысл брать сейчас? Прям некстген игр ближайший год не предвидется, вспомните 2014, игры тогда выглялели так себе, это был первый год некстгена.
      От себя. Я на старте 8 покаления не брал 700серию, а подождал 1.5 года и купил 970, мне хватило уже на ВСЕ поколение, до сих пор работает как часы. Я буду брать новую карту года через 2-3, а пока на PS5 посижу.

      3
    • Комментарий скрыт. Показать

      @BradScusate, разумно

      0
    • Zart
      Комментарий скрыт. Показать

      @BradScusate, у 30ой серии как минимум 2 преимущества будут над 10ой. Это 2.1 hdmi для 4к120, не для ааа игр, конечно, но многие вещи уже будут радовать таким фреймрейтом. Ну и vrr тоже обошел 10ую серию. У кого 1080ти 100% владеет 4к телеком, у кого есть планы на 30ую серию опять хай-енд, имеет новые телеки/планы на него. А ждать 40ую можно очень долго, а получится она может как и 20ая, т.к. принцип тиктака интела, в последнее время и у нвидии закрепился.

      0
    • Комментарий скрыт. Показать

      @Zart, У меня 1080ти и нет телика вообще...

      3
    • Andreww2009
      Комментарий скрыт. Показать

      @Fabio, думаю пора заменить мою gtx 980м на что-нибудь новее))))

      0
    • Zart
      Комментарий скрыт. Показать

      @AndreyTsy, ну слушай, телек это я имею дисплеи ввиду. Там уж додумывай).
      PS У меня 1080ti и нет монитора...

      0
    • Комментарий скрыт. Показать

      @Fabio, имхо надо обновляться ради игр, а не просто ради новой серии. Игр сейчас лично я не вижу никаких для обновления, разве что для 4к 100фпс+.

      0
    • Комментарий скрыт. Показать

      @BradScusate, это для какого там разрешения твоя 1080ti там еще 2 года прослужит? для 1280x1024? в кс играть? Сам юзаю эту видяху и конечно смысла переходить на 20хх поколения не видел. Но уже подпирает 2к разрешение, настройки приходится убавлять близко к средним и это в связке с 9900k. (P.S. ни о каком сглаживании речи быть не может) Старичку явно уже ПОРА на пенсию, он доблестно выстоял уже достаточно.

      1
    • Комментарий скрыт. Показать

      @Limewax163, эммм, у меня 1080 не TI, и её вполне хватает на 90% проектов в ультрах в 2к играть, а где не хватает, то либо плохо оптимизировано, либо это одисея ассассинов. Я пока не увидел нигде проблем с фпс. оно стабильно на уровне 70+- с редкими просадками до 50, причём благо у амд подобные моменты просадок заметны только на датчике фпс, а микрофризов не надблюдаю совсем. у меня конфиг - 3700x, gtx1080, 64гб оперы(за 20к урвал, потом друг 32 из них заберёт) на таймингах 16|18|16|34|3600 и вот я не знаю что ещё для счастья нужно, подтормаживнаия заметны разве что WOW на ультрах при 200% разрешении, а это уже почти близко к 4к.

      Horizon и rdr2 я ещё не пробовал, но думаю и там особых проблем не будет, может хватит убавить/отключить пару параметров, типа излишнего сглаживания(для меня важно что бы не было мерцания, а редкие незаметные лесенки я переживу, я не разглядываю какие то углы, а смотрю на картинку в целом).
      Из последнего что идёт на 70-90 фпс это FarCry 5(обе части) Ассассин крид ориджин в 60 фпс(залочил), RE2 в 90-100 фпс стабильно. Destiny 2 120фпс. Grounded без микрофризов с 80 до 50 прыгает, что вообще не заметно.

      Хотя конечно имея 2к моник и 120фпс, то хочется всётаки приближенный к 100фпс геймплей.
      Пока расчитываю на "3080" 20гб (думаю этой памяти хватит на годы вперёд), но если цена будет выше 60к, то пережду, так как 1080 я взял за 16 с авито.

      0
    • Комментарий скрыт. Показать

      @Rumpel, rdr2 стабильно под 60 идет только на средних. Оперативки у меня конечно 8гб 4000 тайминги я не трогал потому что это обоссаный hyperX. Но если вся проблема будет в оперативке, то это очень странно. RE2 в настройках жрёт на максималках выше 8гб видеопамяти. Я не знаю в чем проблема у меня или в чем прикол у Вас, но это все очень странно.
      9900k/Aorus Master Z390/HyperX 8Gb 4000Mhz/1080 Ti FE
      в этом спеке я думаю только оператива покажет в чем проблема

      0
    • Комментарий скрыт. Показать

      @Limewax163, я вам скажу что 8гб оперативки мало, 16гб сейчас и минимум и максимум, я себе взял 32гб+32гб(друга, пока ждём zen3, я думаю брать, а другу 3700X перепродать), в общем 32гб мне нужно тупо потому что я виртуалками балуюсь и предпочитаю что бы около 30-40% оперативки всегда было в запасе. Ещё нашёл небольшой выход- взял с авито за 1000р ссд на 120гб и использую его целиком под файл подкачки.
      Диву даюсь как можно взять 9900k+отличная мать+1080ti и сэкономить на оперативке ) ССД хоть есть ? не обязательно nvme)

      Хотя недавно на работе у юзера сын собирал себе комп и впихнул 2 ссд на 1тб + 9700k, а видяху 1650)

      Кстати об оперативке, зачастую XMP профели выбирают ужасные тайминги в угоду большей частоте.
      К примеру у меня были 16гб, которые изначально имели 18-19-19-42-3000, а спокойно выставили те же самые 16-18-16-34, при 1.35v. Меня очень порадовало что новые 32+32гб встали как родные с теми же таймингами, я попробовал взять 15-17-16-34-3600, но начались синии экраны и вылеты там где их обычно не было. Сейчас стоит 4 плашки памяти, думаю если поставить 2(амд лучше работает на b1-b2 слотах), то получится снизить тайминги или частоту до 3733 поднять, жаль что после 3800 она начинает работать 2:1 и это немного снижает производительность в играх вплоть до 4200.

      0
    • Комментарий скрыт. Показать

      @Rumpel,

      Диву даюсь как можно взять 9900k+отличная мать+1080ti и сэкономить на оперативке ) >

      Бюджет закончился

      ССД хоть есть ? не обязательно nvme)

      120Гб EVO750 на систему
      512Гб Transcend MTE220S для игр брал

      0
    • Комментарий скрыт. Показать

      @Limewax163, ну сейчас оперативка дико дешевая, советую либо докупить, либо комплектом взять на 16/32гб (можно 10-12к) найти

      0
    • Комментарий скрыт. Показать

      @Rumpel, я уже присматриваюсь к GSkill или Crucial. на userbenchmark видно кто в топе. Докупать HyperX для двухканалки я не собираюсь - вторая оперативка от этих ребят, впечатления ужасные, работает в 3600. С 4000 какая то мутная история происходит... в шоке с этих ребят.

      0
    • Комментарий скрыт. Показать

      @Limewax163, с GSkill у меня плохой опыт 2 раза подряд на фризы натыкаюсь. Crucial более чем доволен. Ты ещё и в одноканале ??!?!? я чуть соком не подавился из за тебя!

      0
  • Galactrix
    Комментарий скрыт. Показать

    О, совсем скоро. Очень интересуют цены конечно :) И доступность. Чего там сейчас у майнеров творится?

    0
  • AlexB
    Комментарий скрыт. Показать

    Я бы взял с 20\16гб карту под нейросетки - та же DAIN на 8Гб VRAM даже 720p без разрезания не вытягивает.

    3
  • Napalm39
    Комментарий скрыт. Показать

    Так понимаю будет сразу две версии 3080 и 3070, с разным объемом видеобуфера.

    Буду однозначно брать 3070 на 16 гб, взамен своей текущей 2070с

    3
  • Paladin
    Комментарий скрыт. Показать

    почему у зелёных такая маленькая шина? ну сделали бы 512 или 1024.

    0
  • Dalek
    Комментарий скрыт. Показать

    Думаю замена 2080 Ti с 24 гигами памяти спокойно возьмет планку в 3К $, память ведь не дешевеет.

    5
  • Комментарий скрыт. Показать

    О какой конкуренции идет речь? Вы серьёзно думаете, что АМД будет конкурировать с выше перечисленными флагманами? Недавно была новость, что в 2021 году они только «попробуют» конкурировать с флагманами двухтысячного поколения.

    6
    • CohenCohen
      Комментарий скрыт. Показать

      @Alexos, AMD может и не будет с флагманами конкурировать, но на низко-среднем диапазоне до 500 долларов — вполне. Это же самый жирный кусок аудитории. Флагманы использует очень небольшой процент геймеров

      8
    • artman
      Комментарий скрыт. Показать

      @Cohen, но флагманы толкают всю линейку, хоть и продаются не таким количеством. Так было всегда... Как простой пример - паскали и полярис... какие карты до сих пор самые популярные? Пользователь покупая условную 1070-3070 прикоснулся к топовой линейке короля рынка, со всеми его наработками и фишками :)
      И главный вопрос - это РТ, на нв картах будут доработки и улучшения 2го поколения... а шо там у амд еще предстоит узнать. И то шо они молчат до сих пор, как то не особо вселяет оптимизма...

      2
    • Комментарий скрыт. Показать

      @artman, РТ очень в зачаточном состоянии. АМД ждёт или даже работает с майками над дх12. Хочешь не хочешь а Хуангу придётся лучи переписывать под дх12.

      3
    • artman
      Комментарий скрыт. Показать

      @TTPartizan, рей трейсинг никто ни под что переписывать не будет :)

      0
    • HikkiHaker
      Комментарий скрыт. Показать

      @Cohen, почему в таблице карты 2000 серии?

      0
    • CohenCohen
      Комментарий скрыт. Показать

      @HikkiHaker, это те, какой класс заменят. Написано «замена в классе»

      0
    • MAX207
      Комментарий скрыт. Показать

      @TTPartizan, Для справки RTX и так работает на базе DX12, Nvidia лишь предоставили API и инструменты для своей среды для работы с Ray Tracing DX12

      0
  • Easmear
    Комментарий скрыт. Показать

    Ещё б знать как карты расходуют энергию.

    1
  • kevin_rayt
    Комментарий скрыт. Показать

    Ну, лично мне если и целиться во что-то - то только в 3060-ю , 3070+ - будут стоить как паровоз, так что мимо.
    Думаю, для FullHD - 3060-й должно оказаться более чем достаточно, дабы выдавать 60 fps и трассировку.

    5
    • Alex-Petr
      Комментарий скрыт. Показать

      @kevin_rayt, Кто играет в fullhd каком то в 2к20 году и далее в 9 гене будет?) Это сейчас чуть ли не как 720p в прошлом, для высокого фпс только пойдет использовать. 3060 спокойно 1440 - 1620p разрешение потянет(а с реконструкцией DLSS 2.0 - 3.0 - и 4к) как и 1060 в этом поколении, 1080p нет необходимости использовать совсем.

      0
    • TanatosX
      Комментарий скрыт. Показать

      @Alex-Petr, По опросу в стиме... 65% конфигураций имеют разрешение 1080p.

      8
    • Alex-Petr
      Комментарий скрыт. Показать

      @TanatosX, Очень так себе показатель это боюсь, все кто имеет возможность выставить разрешение выше 1080p - должны были это попробовать сделать и остаться на хайрезе.

      0
    • kevin_rayt
      Комментарий скрыт. Показать

      @Alex-Petr, ну я вот - играю в FullHD. И, "внезапно" - мне такого разрешения для игр более чем достаточно. Почему?

      Да хотя бы потому что ни одна "адекватная" карточка среднего ценового диапазона - стабильные 60 fps при Высоких/Ультра настройках графики и в нативном 4K-разрешении - банально не потянет ( 2080-я - и та не везде это может, а уж про RTX можно вообще молчать). Да даже в FullHD - ТОПовые представители 20-й серии 60 fps с лучами - если и вывозят то с пеной у рта. А уж средняя условная 2060 - тем более не справляется.
      К тому же, при +- одинаковых настройках качества графики - лично я выберу стабильные 60 fps а не более высокое разрешение . Просто потому что от более высокой частоты - профит больше чем от повышения разрешения.

      К тому же, есть проблема диагонали монитора. Условно: у человека - один монитор (нет у него денег или места на то чтобы комфортно разместить у себя два).
      Для 24'' - 4K неадекватный выбор, банально из-за того что плотность пикселей слишком уж большая и в итоге текст/иконки и всё остальное - разве что под лупой рассматривать (и не надо рассказывать сказки про масштабирование, ибо работает оно - через одно место ...).
      Для 27'' - ситуация уже получше, но всё-равно не панацея/очень мало/разве что в 10-ти сантиметрах от лица монитор ставить.
      А от 32'' и выше - уже далеко не всегда воткнуть можно на рабочее место.
      А ещё можно вспомнить и про то, что FullHD-контент на мониторе с разрешением в 4K (и соответствующей диагональю) - смотрится, как бы помягче выразиться, не сказать что комильфо.

      И в сухом остатке - получается что FullHD и 24'' - всё ещё идеальный вариант если у человека "один монитор и для всего" (и браузер, и работа с текстом, и игры). Опять-таки, для 27'' - FullHD уже становится мало, тут нужно на что-то среднее смотреть (между FullHD и 4K), но, опять-таки, есть свои недостатки.

      Идеальный вариант (по крайней мере, на мой взгляд) - иметь два монитора (24'' FullHD под обычную работу и 4K для игр и прочих задач). Но тут мы снова вспоминаем про то что текущее поколение видеокарт - 4K банально не тянет, а что там будет в будущем - меня мало волнует, т.к. играю я сдесь и сейчас.

      15
    • Easmear
      Комментарий скрыт. Показать

      @kevin_rayt, по-моему оптимальный вариант 2К 27 дюймов.

      5
    • kevin_rayt
      Комментарий скрыт. Показать

      @Easmear, да. Но есть существенный минус - и касается он видео. Разумеется, я могу ошибаться. Но, если ничего не путаю - FullHD видео на 2K (вы же под этим - подразумеваете 2560x1440?) мониторах - мылится ощутимо, кратность же не совпадает ... Так что ...

      0
    • Комментарий скрыт. Показать

      @Alex-Petr, вот ведь квадратноголовый, простите меня за мой "французский".

      1
    • Easmear
      Комментарий скрыт. Показать

      @kevin_rayt, не слышал. Если есть полные выкладки, почитал бы.

      Точнее это верно для любого просмотра изображения меньшего разрешения на мониторе большего разрешения.

      0
    • kevin_rayt
      Комментарий скрыт. Показать

      @Easmear, не совсем так.

      К примеру, FullHD будет на Ultra HD мониторе смотреться лучше чем на 2K-мониторе. Потому что 3840 × 2160 - кратно FullHD, а 2560 x 1440 - нет. И в результате - интерполяция сделает своё грязное пошлое дело. Поэтому (кратность) FullHD видео (фильм, сериал, да что угодно) на 3840 × 2160 - мониторе - смотрится ощутимо лучше чем на 2560 x 1440-мониторе. Такая вот подстава.

      В итоге (по крайней мере на мой взгляд): если монитор используется "для всего" (и, помимо прочего, за ним предполагается просмотр фильмов/сериалов) - 2560 x 1440 (2K) не подходит от слова совсем. И мы возвращаемся к проблеме: для 24'' - 4K слишком много (как и для 27''), FullHD же для 27'' - уже мало ... Замкнутый круг. Ну и ещё, в довесок, держим в уме тот факт что большая диагональ - означает большую удалённость монитора от глаз что, в свою очередь, нивелирует преимущество от увеличения разрешения.

      P.S. Ну, вроде бы, по крайней мере я - так эту проблему понимаю ... )))

      0
    • Easmear
      Комментарий скрыт. Показать

      @kevin_rayt, ставишь в плеере растягивать изображение пропорционально(как-то так называется настройка) и всё.

      Для 2К 27 дюймов монитора масштабирование не нужно. А чтобы не применять масштабирование на 4К мониторе надо то ли 32 дюйма то ли 40 дюймов.

      0
    • kevin_rayt
      Комментарий скрыт. Показать

      @Easmear,

      ставишь в плеере растягивать изображение пропорционально(как-то так называется настройка) и всё.

      Нет, не всё. У тебя всё-равно разрешение видео - остаётся не кратным разрешению монитора. Какие настройки (и где) не выставь - в любом случае эффект будет плачевным. Изображение никак "пропорционально" не растянется, т.к. кратность разная.

      Если только вы не говорите о настройке, которая в том же MPC называется "нормальный размер" и выводит картинку именно такой какое разрешение у видео-файла. Но в таком случае - на выходе получим чёрные полосы и по нижнему краю, и по верхнему краю, и по бокам (т.е. со всех четырёх сторон Света) - сие редкостное извращение ... Жирный такой "компромисс".

      0
  • Комментарий скрыт. Показать

    Какие-то нереалистичные объёмы памяти. С другой стороны на CPU поле битвы АМД такого подсрачника отсыпала интелу, что "формула" ядер/потоков, которая не менялась 7 поколений, в последних трёх меняется и меняется, и то что раньше относилось к HEDT теперь вполне себе "просто домашние". Может и впрямь наступит эра "Fork Yey 60 FPS".

    2
    • Fleming
      Комментарий скрыт. Показать

      @TittyHedgehog, вполне реалистичные, учитывая 4К и то что карточки покупаются с запасом на несколько лет вперед. Тут и новое поколение консолей подходит.

      0
  • diN
    Комментарий скрыт. Показать

    Толку решать что и зачем вы будете брать, не зная как они реально себя показывают. Архитектура влияет больше чем любые цифры.
    К таким гигабайтам памяти лучше думать 4к моник брать или 2к с HDR, с 100+ герцовкой, если еще нет.

    0
  • Комментарий скрыт. Показать

    Что-то мне подсказывает, что на 16гб будет такой конский ценник, что 3070-16 будет дороже всей пс5 целиком

    0
  • Alex-Petr
    Комментарий скрыт. Показать

    Сейчас жадный Хуанг кинется по 16 - 24гб видеопамяти встраивать в новые видеокарты, ага.X) Он и в 2080 то пожалел 11 гб поставить а в 2080ti - 16 в прошлый раз тогда как у АМД была карта с 16гб которая с 2080 конкурировала(хотя зачем то сняли с производства всего через 4 месяца после выпуска, тупость какая то). Это слух очередной?
    Цену еще интересно посмотреть учитывая какими ''дешевыми'' Тьюринги были на релизе.)

    0
    • artman
      Комментарий скрыт. Показать

      @Alex-Petr, радеон 7 - это был понт (беспонтовый), а не видеокарта для продажи. Их на старте было единицы на прилавках, худший релиз для типа массового рынка. Этой карте 16гиг, как...... в общем до одного места.

      4
    • Alex-Petr
      Комментарий скрыт. Показать

      @artman, Ну сейчас то Нвидиа зацарит за счет одного только DLSS 2.0 и нового 3.0, даже если с видеопамятью пожадничает как обычно.) Очень прям хвалят как реконстукция до 4к выглядит по сравнению с читыми 4к, сравнения тоже посмотрел. Радеон 7 заменили типа новыми RX 5700 и 5700xt, он стал не нужен(хотя 16гб памяти потерялись при этом, на RX такой щедрости не дождались люди), смысл тогда было выпускать вообще и с его ценой пытаться с Нвидиа конкурировать(больше убытков будет с такого выпуска в течении 4 месяцев лишь)? Позже ведь вышли RX с почти такой же мощностью и намного просто дешевле, странный очень поступок АМД...

      0
    • artman
      Комментарий скрыт. Показать

      @Alex-Petr, не просто дешевле, архитектура другая. Прежде чем писать, ты бы хоть загуглил как минимум :)

      5
  • Imlerith
    Комментарий скрыт. Показать

    похоже на план очередного создания искусственного дефицита чипов памяти

    за счёт объёма чипов цену накинет на карты + ещё за дефицит чипов накинет, Хуанг снова всех переиграл

    а ещё новый проприетарный 12 пиновый разъём питания, который не совместим с двумя обычными 6 пиновыми, за него тож цену накинет и ещё надо будет лицензированный блок питания наверняка покупать к новой видеокарте

    5
    • artman
      Комментарий скрыт. Показать

      @Imlerith, ага, коплектом продовать будут с БП :)
      Положать переходник с 2х8пин, делов то...

      3
    • Imlerith
      Комментарий скрыт. Показать

      @artman, смысл изобретать велосипед, если можно просто так взять и воткнуть переходник? Уже давно есть 6 пиновые VGA разъёмы и 8 пиновые VGA разъёмы, которые комбинируются в любом количестве и конфигурации

      не... чёт тут не то, всё так просто, очевидно, не будет

      2
    • artman
      Комментарий скрыт. Показать

      @Imlerith, фигней страдают, вот и придумывают какие то "новшества". Потом на али эти переходники по 2 бакса пачками будут продавать :)

      0
  • Jesset
    Комментарий скрыт. Показать

    Скорее всего разорюсь на 3080 с 20 гигами памяти к след лету. Т.к. играю в 4К и еще монтирую, а там память видеокарты полностью используется, так что много высоко скоростной памяти не бывает, не все же только для игрушек такие карты берут. Осталось только понять прирост производительности в сравнении с моей 1080ti

    1
  • Комментарий скрыт. Показать

    Теперь осталось дожить до октября.

    2
  • Комментарий скрыт. Показать

    Все письками мереются у кого длиннее и толще. Цены бы на карты делали для народа, а не для мажоров.

    1
  • TomaHawk
    Комментарий скрыт. Показать

    Это уже не карточки, а целые компьютеры на одной плате. Видеопамяти уже больше, чем ОЗУ среднестатистического игрового компа. Ты уже не карточку вставляешь в PCI, а материнку в видюху и собираешь вокруг комп)

    2
    • Комментарий скрыт. Показать

      @TomaHawk, да, это довольно забавно, что требования к ОЗУ росли очень медленно последнее десятилетие. Ещё в 2011-2013 поставил 16 гигов оперативы. С тех пор сменил пару компов, но до сих пор стоит 16 гигов оперативы, и при этом на все игры хватает с головой.

      0
  • Комментарий скрыт. Показать

    Меня терзают смутные сомненья, что памяти местами накидали ради "купи-купи". У "PG132-20" на замену 2080 Super 20 GB vRAM, но шина 320 bit, в тоже время у RTX 2080 Ti с ее "всего лишь" 11 GB шина 352 bit.

    0
Войдите на сайт чтобы оставлять комментарии.