Слух: Nvidia RTX 30 получат новый 12-пиновый разъём питания

Слух: Nvidia RTX 30 получат новый 12-пиновый разъём питания

Последнее время слухи о высоком энергопотреблении Nvidia RTX 30 поколения Ampere подтверждаются разными источниками. На сайте fcpowerup появилась информация, что новые видеокарты получат 12-пиновый разъем питания.

Все из-за повышенного энергопотребления, связанного с возросшей производительностью.

Согласно параметрам Molex Micro-Fit, на который и будет похож новый разъем, видеокарта будет обеспечена до 600 Вт мощности. Учитывая что по слухам, RTX 30 будут потреблять не менее 300 Вт, это выглядит логичным решением со стороны Nvidia.

Утечка: Неизвестная видеокарта Nvidia Ampere мощнее RTX 2080 Ti на 30%
Портал Videocardz опубликовал утечку, согласно которой ... Далее

Однако остается вопрос для чего компании потребовался новый разъем, а не применение двух стандартных 8-пиновых. Также неясно, для чего нужен дополнительные 4-пиновый коннектор, о котором указал источник fcpowerup.

Анонс видеокарт состоится в сентябре. Релиз ожидается осенью.

Видео от Shazoo

Подписаться

74 Комментария

  • Комментарий скрыт. Показать

    А почему не поставить два 6-ти пиновых?

    6
  • Zombieller
    Комментарий скрыт. Показать

    300!? Это что мне 550 не хватит и к новой видеокарте придется и бп покупать?

    5
    • MrHaus
      Комментарий скрыт. Показать

      @Zombieller, хватит,но в впритык,если "ЛГБТ" подсветку ставить не будешь,и проц который жрет не больше 100 ватт.

      7
    • Fortuna
      Комментарий скрыт. Показать

      @Zombieller, Если учесть, что часть идет на системный блок и монитор(ы), то такая нагрузка на такой блок не желательна, хоть и не критична.

      1
    • ReiJey
      Комментарий скрыт. Показать

      @Zombieller, там новый разъем будет, так что Да, нужно будет брать новый бп на 750 желательно

      но ты можешь поступить более разумно и взять 3070 у которой будет старая питалка и которой хватит 550 блока.
      Лучше менять Мидл каждые 2 года, чем сидеть на Топе 5 лет, Имхо.

      3
    • uxsir
      Комментарий скрыт. Показать

      @Zombieller, Епрст БП на 1200 ватт это новая реальность, посмотри сколько жрут процы интелл, ну и видяхи, что бы быть убер мощными в условия кончины закона Мура девайся будут больше жрать.

      1
    • Mercurionio
      Комментарий скрыт. Показать

      @uxsir, и на кой сидеть на интеле?))

      5
    • Комментарий скрыт. Показать

      @Mercurionio, например, чтобы не иметь секса с разгоном памяти вручную, не делать в обязательном порядке даунвольт и не мучиться с профилями охлаждения.

      0
    • Mercurionio
      Комментарий скрыт. Показать

      @arhshed, Ничего из этого не делаю и всё прекрасно работает в районе 50-60 градусов и 70Вт. ЧЯДНТ???

      2
    • Q4ard
      Комментарий скрыт. Показать

      @arhshed,

      чтобы не иметь секса с разгоном памяти вручную

      Так не мучайся, купи память с XMP профилем, включи его в Биосе (одну кнопку нажать надо только) и все, живи спокойно.

      не делать в обязательном порядке даунвольт и не мучиться с профилями охлаждения.

      А это уже какие-то сказки пошли, сейчас железо умнее пользователей и вполне способно стабильно работать из коробки без лишнего геморроя.

      2
    • PixelSPB
      Комментарий скрыт. Показать

      @Zombieller, боярин, уймись и иди за новой железкой ) сам ПКшник и Плоечник

      0
    • uxsir
      Комментарий скрыт. Показать

      @Mercurionio, Я кстати не сижу, у меня AMD 3600 :)

      0
    • Комментарий скрыт. Показать

      @Mercurionio, молодец, осталось учесть тот факт, что человек, все это делающий, выжимает максимум из того, за что он заплатил, а ты нет.

      0
    • Reym
      Комментарий скрыт. Показать

      @Zombieller, смотря еще какого стандарта блок.

      0
    • Zombieller
      Комментарий скрыт. Показать

      @ReiJey, На 3070 как раз нацелен, хорошо если она будет не такой прожорливой.

      0
  • CohenCohen
    Комментарий скрыт. Показать

    Какая жесть. Ну и энергопотребление

    7
    • John_Locke
      Комментарий скрыт. Показать

      @Cohen, очень странно. По идее, энергопотребление должно падать от поколения к поколению, а у нас наоборот. Сколько же будет жрать 3080Ti? 350?

      6
    • Q4ard
      Комментарий скрыт. Показать

      @John_Locke,

      Сколько же будет жрать 3080Ti?

      Включил пк - отопил квартиру зимой, гениально ведь)

      4
    • Комментарий скрыт. Показать

      @John_Locke, моя 2080ti под разгоном на воде потребляет до 370 Ватт

      1
    • John_Locke
      Комментарий скрыт. Показать

      @Principus, в характеристиках указано 250 в стоке.

      1
    • Galactrix
      Комментарий скрыт. Показать

      @Cohen, Может это для уникальной системы охлаждения столько нужно :)

      1
    • DamonHill
      Комментарий скрыт. Показать

      @Cohen, Разве это жесть?Я для GTX 285 покупал блок питания на 800 ВТ так как только одна она жрала 550.Вы слишком много кушать)).

      1
    • Vyrvyglaz
      Комментарий скрыт. Показать

      @John_Locke, почему падать то? чем меньше тех процесс, тем больше транзисторов, тем больше они потребляют и сильнее греются.(насколько я это понимаю)

      1
    • CohenCohen
      Комментарий скрыт. Показать

      @Vyrvyglaz, когда одна видяха жрет больше, чем вся система целиком — что-то тут не так ))

      3
    • Fortuna
      Комментарий скрыт. Показать

      @John_Locke, 5080ti будет жрать 550 ватт, а 9080ti будет кушать 1 киловатт. :)))

      2
    • Vyrvyglaz
      Комментарий скрыт. Показать

      @Cohen, ну так с ростом сложности всегда растет энергопотребление, бактерии в сравнении с ядерными клетками потребляют в сотни тысяч раз меньше энергии, а 1 грам человеческой биомассы производит в 200. тыс раз больше энергии, чем 1г солнечной массы(N. Lane-Vital question) современным технологиям еще ой как далеко до тех, по которым сделаны мы.

      0
    • Sherlock89
      Комментарий скрыт. Показать

      @Vyrvyglaz, это ты где такое прочёл?

      2
    • Ardni
      Комментарий скрыт. Показать

      @Vyrvyglaz, это если бы у тебя мощьность видюхи обосновывалась тупо в два раза большим размером чипа, только вот это не так, технологическое развитие позволяет снизить потребление и 7нм в частности этому способствует. Жрет она собственно не больше 3080 хотя мощьность больше.

      4
    • Vyrvyglaz
      Комментарий скрыт. Показать

      @Sherlock89, я указал источник-N.Lane-The Vital question, известный британский клеточный и микробиолог, биохимик.

      1
    • Sherlock89
      Комментарий скрыт. Показать

      @Vyrvyglaz, спасибо.

      1
    • DarckNEZ
      Комментарий скрыт. Показать

      @Cohen, скоро будем ставить отдельный БП для видеокарты и думается мне, он будет помощнее чем для материнки и проца ...
      может под это дело и "заводят" новый разъём - типа управление на вкл / выкл от видеокарты будет идти, а то как синхронизировать включение двух БП в одной системе?

      1
    • Комментарий скрыт. Показать

      Если кратко, 1 12нм транзистор жрёт больше 1 10нм транзистора. А уж сколько они туда впихнут, и какой величины весь кристалл будет, это и определит общее энергопотребление, ведь никто не мешает сделать метровую видеокарту на 1нм чипах к примеру, и ясно что там будет овердофига ватт потребление.

      1
  • Q4ard
    Комментарий скрыт. Показать

    Учитывая что по слухам, RTX 30 будут потреблять не менее 300 Вт

    Мда, а я то думал, что новые технологии должны быть все больше и больше энергоэкономными....

    4
  • Lionthorn
    Комментарий скрыт. Показать

    Надеюсь производители блоков питания (модульных) смогут просто предложить к покупке соответствующий кабель. И не придется покупать полностью новый блок питания.

    А ведь там еще и новый разъем питания матплат на подходе - 10-контактный ATX12VO.

    5
    • scandall
      Комментарий скрыт. Показать

      @Lionthorn, я тоже в недоумении немного. У меня модульный straight power, за который отдал денег немалых. И если сейчас снова покупать еще один блок за 20 тысяч, то это пздц.

      5
    • PixelSPB
      Комментарий скрыт. Показать

      @Lionthorn, ага, такие они недомаркетологи, чтобы упустить таеой шанс впарить тебе новую железяку. Держи карман шире.

      1
  • mixael
    Комментарий скрыт. Показать

    Видимо не зря я 2 года назад взял на 750W у be quiet! )))
    Теперь осталось поголодать полгодика, чтобы на новую видюху накопить, ахахаха)

    2
    • FerrisMacWheel
      Комментарий скрыт. Показать

      @mixael, так без переходника ты не подключишь карту с таким разъёмом

      8
    • David_Gray
      Комментарий скрыт. Показать

      @FerrisMacWheel, Привет! А когда переходники были проблемой?)
      К тому же, базовые переходники практически всегда были в комплектации с видеокартой.
      По крайней мере у ASUS это было так.

      4
    • PixelSPB
      Комментарий скрыт. Показать

      @mixael, боже, у меня в 2011 году термалтейк на 800WT с модульными кабелями был. Даже слов нет... "бояре"

      0
    • mixael
      Комментарий скрыт. Показать

      @PixelSPB, это типа похвастался?) 800ватт на систему, которая жрет 300?)

      1
    • PixelSPB
      Комментарий скрыт. Показать

      @mixael, про разгон и стабильность слыхал? У меня тогда Q6600 вместо штатной 2.4 GHz работал на частоте 3.6 GHz. Процент разгона сам посчитай, но факт остается фактом - нужно было стабильное питание с запасом. И кстати, это даже не 11й год. Комп собирал под Crysis. Это 2008-2009й..

      0
    • HappyEgg
      Комментарий скрыт. Показать

      @PixelSPB, действительно, зачем брать фирменный, нормальный БП на 600+- ватт если можно взять шлак на овер "12312312" ватт...
      Logic

      0
    • PixelSPB
      Комментарий скрыт. Показать

      @HappyEgg, thermaltake тот еще шлак, ага. Проработал скотина до 2017 и сдох в результате КЗ, которое жена устроила... И то, частично (не выдерживал нагрузки на видеокарту, а винда, фильмец, браузер - ноу проблем).
      Железо в тот раз топовое брал, даже материнка была Asus Maximus Formula, та самая, первая.

      На, поплюй на свой logic
      https://www.citilink.ru/catalog/computers_and_notebooks/parts/powersupply/601947/

      Твое остроумие (скудоумие, т.к. я написал фирму БП) потерпело фиаско ;)

      0
    • HappyEgg
      Комментарий скрыт. Показать

      @PixelSPB, Столько текста, а смысл? Я вроде ясно написал что ТТ не очень как бы, взял бы seasonic на 650ватт платинум с гарантией на 10 лет, было бы тебе счастье.

      0
    • PixelSPB
      Комментарий скрыт. Показать

      @HappyEgg, ты написал, что я взял - дословно "шлак на овер "12312312" ватт". Это с каких пор Thermaltake шлаком стал? :D Пошло классическое переобувание. Смирись, ты ляпнул хрень не разобравшись, с кем не бывает. А оправдания выглядят как бред. Еще раз - этот БП верой и правдой отпахал с 2008 по 2017 и достойно помер, когда жена в розетку запаралелленую с компом неудачно воткнула утюг и сделала яркую вспышку так, что у меня накрылась видюха и 2 hdmi порта на тв. Я думаю он до сих пор бы пахал, если бы не КЗ.
      Дай бог твоему БП отпахать столько же... Тоже мне, шлак нашел...)

      0
  • USS_Sulaco
    Комментарий скрыт. Показать

    Развод на БП, каеф.

    10
  • Комментарий скрыт. Показать

    Функция "Вскипятить кофе" во время игры не прилагается? Я бы взял.

    1
    • Комментарий скрыт. Показать

      @boublik777, кофе не нужно кипятить. А вот если как следует нагрузить, чтобы держала 90-95 градусов то вполне себе нормально сваришь.

      1
  • Imlerith
    Комментарий скрыт. Показать

    Также неясно

    производители железок сговорились сделать новый разъём, чтобы потребитель бежал покупать ещё и новый, дорогущий блок питания с таким разъёмом, спасибо тебе, дядь Хунь

    7
  • demyxx
    Комментарий скрыт. Показать

    больше напрягает не потребление, которое от года к году падает в среднем сегменте, а разъём..
    блоки питания старые сразу нахер идут, походу, переходники искать задолбаешься поначалу

    5
    • Комментарий скрыт. Показать

      @demyxx, скорее они поначалу к каждой видюхе прилагаться будут. Да и вообще карты без кабелей питания мне лично не попадались. Может конечно потому, что совсем уж ноунеймовые брал ещё в студенческие годы...

      1
    • PixelSPB
      Комментарий скрыт. Показать

      @demyxx, ты видяху для начала купи. Если сможешь, то при таком достатке, бп на сдачу купишь

      1
    • demyxx
      Комментарий скрыт. Показать

      @PixelSPB, ты для начала официальный анонс покажи)

      0
  • BruceRobertson
    Комментарий скрыт. Показать

    Нужно подстанцию на солярке ставить рядом

    6
  • Napalm39
    Комментарий скрыт. Показать

    Наконец то пригодится мой киловаттный чифтек))

    0
  • Human2016
    Комментарий скрыт. Показать

    Если для этого нужно будет покупать новый блок, хотя тут просто нужен переходник, то это будет выглядеть мягко говоря смешно.

    4
  • mrtwister33v
    Комментарий скрыт. Показать

    Ну ребят, я вообще далёк от мысли что видяхи с таким энергопотреблением будут в бюджетном сегменте. Сейчас какая нибудь 2080ti стоит в районе $1500, бп на киловатт в районе $100. Для людей, которые могут себе позволить железо такого уровня - 100$ это не конец света, даже если придётся покупать новый бп. Да и вообще это всё неофициальная информация

    Меня вот бесит, что мне нужен новый рузен, а под него мать на АМ4 + память DDR4 соответственно. Ну ничего, придётся смириться, производители железа не думают об обратной совместимости)

    2
    • scandall
      Комментарий скрыт. Показать

      @mrtwister33v, я хз какой дурачок будет брать себе БП на 1000W за 7 тысяч рублей :) и есть ли вообще такие бичевские киловатники.
      И всмысле АМ4 для нового Райзен? А что это за старый Рязань под АМ3, сказочник ? Какая еще обратная совместимость, если платформа АМ4 уже лишаем на бороде покрылась.

      4
    • mrtwister33v
      Комментарий скрыт. Показать

      @scandall, Сказочник? Я что написал что у меня старый рузен под ам3? Ты читать научись сначала, потом на личности будем переходить.

      1
  • Corovaneer
    Комментарий скрыт. Показать

    У АМД таких вопросов не стоит - у них с совместимостью железа дела на порядок лучше, чем у конкурентов.

    3
  • Serj777
    Комментарий скрыт. Показать

    Видеокарту буду покупать только зеленую,даже если будет нужен новый БП.Ничего не имею против AMD,но это не мой выбор. Почему? -Потому.)

    1
  • HikkiHaker
    Комментарий скрыт. Показать

    Новость полнейший бред. Никто не уйдёт от стандартов питания с бухты барахты. Питание от БП 6+2 будет как и всегда. Если нужно доп питание, а наверняка нужно будет, то ещё либо 6 либо 6+2 воткнут. Даже ссылки на источник этого бреда нет.

    5
  • Viktor_Freyn
    Комментарий скрыт. Показать

    Мало того, что видюха будет стоить, как хороший системник, так ещё и БП новый брать? Обойдутся. Проще взять какую-нибудь карту нынешнего поколения и пересидеть на ней ближайшие несколько лет

    1
  • Liallin
    Комментарий скрыт. Показать

    Ну мне бп хватит))

    0
  • rumit
    Комментарий скрыт. Показать

    Все?! за энергоэффективностью больше никто не гонится похоже, определенного уровня достигли и остановились, (кроме мобильных процессоров) само собой в стоке они все потребляют по минимуму, но что-то да же 7 нанометров АМД дают большой нагрев при не такой как хотелось бы производительности,
    P.S мои мысли в слух, у меня не большие флешбеки потому, что в последний раз на мощность блока (с запасом) смотрел в году так 2009-м.
    И наш золотой стандарт в 500-600 ват уже не выглядит золотым стандартом.

    0
Войдите на сайт чтобы оставлять комментарии.