CES 2020: Nvidia покажет монитор для киберспорта с G-sync и 360 Гц
В Лас-Вегасе скоро начнется выставка CES 2020, а это значит, что в ближайшие дни разные компании будут показывать свои разработки. Свой анонс сделали Nvidia и Asus, которые представят на этой неделе монитор для киберспорта.
Его особенностями стала частота обновления 360 Гц и технология G-sync.
Монитор Asus ROG Swift 360 получил 24.5 дюймовый дисплей с Full HD разрешением. Такое разрешение обусловлено тем, что даже с учетом новых технологий и производительных видеокарт не все игры способны выдавать 360 Гц на более высоком разрешении.
На этой неделе Nvidia и Asus подробнее расскажут о новом мониторе и покажут его вживую.
Больше статей на Shazoo
- Одна счастливая карта RTX 5090 получила больше ROP, чем нужно
- Глава Nvidia о будущем ИИ: "Нам понадобятся три компьютера"
- Похоже, Nvidia сокращает производство серии RTX 40 на 50% в преддверии выпуска RTX 50 на архитектуре Blackwell
Тэги:
Источники:
65 комментария
Ну, дело за "малым" - выпустить такую видеокарту, что сможет запускать что-то в стабильных, для начала, 144 кадрах в секунду при разрешении в 1440p, а "там уже и до 360 кадров рукой подать", и опять же - 1080p при 24 дюймовом разрешении - предел, сродни "лосин, на очень тучной дамсели".
@Fergus_Crayne, ну монитор как бы для киберкотлет, в КС почти любая нормальная видеокарта выдаст 300+ fps
@Fergus_Crayne, мой GTX 770 при разрешении 1920x1080 выдавал 300 FPS на карте DUST_2. это было еще в 2014 году.
@dns13980, На самых минимальных настройках я так полагаю?
@Fergus_Crayne, для киберкотлетных игор 300+фпс видимокарта в принципе не нужна, достаточно современного проца со встроенным видеоядром
@Puffy, на самых максимальных настройках так было.
вот нашел для тебя видео 2015 года с GTX 770.
учти, что сегодня в 2020 году GTX 770 не выдает 300 FPS , так как карты в CS:GO обновляются, улучшаются текстуры итд. В данное время для меня CS:GO не интересен.
https://www.youtube.com/watch?v=DUlyxRGYM3E
@dns13980, Не, не верю совершенно, не может такого быть на 770
@Puffy, эмм... я как бы наверное тебя удивлю, но в такие киберспортивные игры, в частности ксго, играют на минималках и маленьком разрешении с определённым соотношением сторон, чтобы модельки персонажей были шире. Так что любой конфиг, даже старый, будет выдавать 300+фпс.
@evekin, Удивил так удивил... Мы говорим о максимальных! настройках если что...
@dns13980, dust2 изменился =)
@Puffy, я тебе ответил, что в киберспорте ни кто не играет на максималках.
@evekin, Странное конечно понимание у тебя, ну да ладно...
@Puffy, понимание чего? Речь идёт о мониторе, который производитель позиционирует как технику в первую очередь для турниров по киберспорту.
Вы говорите о максималках в играх, при этом не понимая, что почти все киберспорт игры оптимизированны хорошо и показывают заоблочное количество фпс даже на старых конфигах и на максимальных настройках графики.
Но покажи хоть один турнир, где бы стояли не топовые пк. Поэтому твоя обеспокоенность что игры не будут выдавать 300+фпс полный бред, тк он рассчитан не для одиночных графонистых игр.
@evekin, Речь зашла о конкретной видеокарте и о конкретной игре, о конкретных настройках, чего ты мне объяснить то пытаешься я не понимаю)) Что киберспортсмены настраивают игру под себя? Я догадывался))
Очередная хрень по конским ценам
240 герцовые мониторы после выставки ))
TNка походу. Хотя у ASUS есть IPS-моник с 280 Hz ...
зачем, почему... Непонятно.
P.S. Даже для кибер-котлет. Что оно им даёт... 0_o
@MOZR, отклик в 3-5 мс у монитора вместо 30-40 мс у 60Гц моделей. Ну и в 6 раз больше информации о движущихся объектах выводится.
@AlexB, шта? Время отклика 3-5 мс вместо 30-40 на 60 Гц 0_о
Вы сами поняли что написали?!
@MOZR, что-то, да даст. В плане, крутые кеды для обычных спортиков что-то дают.
@MOZR, ну да - задержка вывода, latency - она же время отклика (не путать с временем отклика матрицы)
@AlexB, ожидаемая поправка... 30-40 мс говорите?
"не путать с временем отклика матрицы" - что бы не путать, нужно изъясняться верно.
Если хотели по умничать, то тогда приводите цифры вида:
30 fps ~ 34 ms
60 fps ~ 17 ms
120 fps ~ 8 ms
240 fps ~ 4 ms
соответственно под это и герцовка нужна (но белее 60 не всем нужно)... Посему возникает вопрос зачем 360? Ответ прост: "что-то ж продавать нужно"
P.S. монитор для кибер-котлеты в CS ? Ок. А интернет какой у них? Или они прям все возле сервера? Или это только турнирный монитор?!
Как раз в Gears играю.
@MOZR, Это время одного кадра, но большинство мониторов выдают на 1-2 кадра позже картинку, плюс двойная или тройная буферизация в API выливается в еще 2 или 3 кадра, при 60Гц например общая задержка в 3 кадра будет уже 50мс, для избавления от этого сейчас всякие ускоренные режимы вывода NVidia и AMD придумывают - Ultra Low Latency Mode или Anti-Lag что бы убрать хотя бы один кадр из очереди и уменьшить задержку. При 360Гц между кадрами 2.77мс и если 2 или 3 кадра задержка то это всего 5.54 или 8.31мс.
@MOZR, У самых крутых людишек время "отклика" 10 мсек (и это не кибер паны спортсмены), т.е. по логиге нам нужна 5 мсек отклика у монитора, т.е. достаточно 240 Гц по вашей таблице.
Но опять таки, таких быстрых людей очень мало и они должны постоянно поддерживать такой уровень физическими тренировками и на внимательность. Чего совсем не делают кибер чемпионы, у них смена пола больше на уме. :)
@AlexB, @Vik, хочу увидеть доказательство вашей математики
@MOZR, математика очень простая - всё расписал же, плюс еще очень много зависит от самой игры - вот например видео по теме, заодно можно посмотреть насколько всё плохо с RDR2 когда помимо задержки дисплея и тройной буферизации добавляется еще и задержка внутри движка игры. Цифры очень интересные.
https://youtu.be/fqMqeuwxwVg
@AlexB, О! Так это уже и от проекта зависит... Интереснее уже.
С какого места вы ее взяли? Откуда задержка в мониторе еще какая то на 1-2...;
У @Vik какой то еще "отклик" 10 мс у людей (это вообще интереснейшее утверждение).
И да, более чем 4 мс достаточно. табличка считается на раз, она не моя ;)
Хочу почитать статью.О задержках инпут лага в самом мониторе;
Ну и все что вы там за цифры написали, а то выглядит как отсебятина...
"Простая математика" откуда то берется в вашей голове?! Вот тоже хочу увидеть и почерпнуть знаний. Ну опят таки про буферизацию в API и т.д. При чем тут она и 360 Гц... В общем просветите. Не поверите, но я без сарказма если доводы аргументированы.
Вот, например я свои слова подкрепить могу:
https://habr.com/ru/post/419043/
P.S. Не знаю кто там минусует, но что не нравится в этой табличке?
Кто-то не в курсе что один кадр занимает 1/60 секунды и это 16,67 мс которые я округлил до 17? А 1/30 секунды это 33,33 мс которые я округлил до 34 мс и т.д. И это при идеальных условиях для Input Lag у соответствующей герцовки монитора. То есть у монитора в 360 Гц минимальное время Input Lag без учета кривого API и рук разрабов 2.7 мс. Кто то еще реально думает что увидит разницу не через эффект плацебо начиная с 120 Гц в 5.6 мс?! Не верю!
30 fps ~ 34 ms
60 fps ~ 17 ms
120 fps ~ 8 ms
240 fps ~ 4 ms
360 fps ~ 2.7 ms
КАК сказал @ManaBanana кому-то что-то да даст (в таком ключе - не спорю) xD
@MOZR, Это всё уже замусолили в обсуждениях на форумах ещё с конца 90-х начала 2000-х годов, про соотношение быстроты действия нервной системы человека и восприятия на экране. Т.е. "глаз-рука" задержка у крутых натренированных военных и спортсменов 12 мс, у оооочень редких индивидуумов 10 мс. В быстрых играх игроку нравится отзывчивость происходящего на экране, увидел-выстрелил или двинул мышой и увидел смену взгляда или прицела, всё мгновенно. Соответственно, для плавности происходящего нужно чтобы "монитор" хотя бы в два раза был быстрее человека, т.е. иметь лаг 4-6 мс. Выше этого уже просто идут "золочёные контакты" и "тёплый ламповый звук".
Короче, эта тема даже не на простыню, а на целую статью. Кому это интересно, повторяюсь, знают это хотя бы с начала 2000-х.
P,S, В ссылке на хабр немного про другое, там про статтеры, подтормаживания, Счас в новом Ил-2 это у некоторых конфигов просто бич. Поменял драйвера и они вернулись, или наоборот - сами вдруг исчезают непонятно почему.
@Vik, да хоть с 80-х (по факту 50-60е с появления первых сверхзвуковых) - я не против. Дайте статью на 90-е, 00-е когда вы это читали. Что вы меня своими неподтвержденными "замусоливаниями" крутите.
Банально, первая статья, по запросу, посылает к совершенно другим показателям:
"...У большинства людей она составляет 230–270 мс. Показатели от 270 мс и выше говорят о замедленной реакции. Пилоты истребителей, спортивные звезды показывают результаты 150 – 170 мс ..."
https://bbf.ru/magazine/26/6953/
P.S. В ссылке на habr вытекающие проблемы о которых начал говорить @AlexB в ответ (пусть поправит если я ошибся), из которых мОжно понять, что такое вывод кадра и Input Lag.
@MOZR, Да, перепутал за давностью реакцию глаза человека с моторикой. Но сути не меняет, 120 Гц достаточно с запасом для комфорта глаз, для надёжности умножаем на два, больше 240 уже не нужно.
Хотя в отдельных случаях отдельные люди улавливают вспышку (в 1 кадр) среди картинок в 1000 Гц, но тёмный то кадр уже никто не заметит. Т.е. не надо уже никому эти 1000 Гц. :)
@Vik, Господи, слава Богу. Хоть кто то понимает что нам "втирают какую то дичь". @Vik, я об этом и веду речь!
P.S. Отдельные люди E=mc2 придумали. Этих (конечно же не о Эйнштейне речь) особенно чувствительных в счёт не берут.
@MOZR, у дисплея всегда есть своя задержка, он не может вывести кадр без обработки, в этом же видео в самом начале говорится что у них в игровом режиме ТВ даёт задержку порядка 18мс.
Вот статья с тестами input lag мониторов: https://www.rtings.com/monitor/tests/inputs/input-lag
Ну а про тройную и двойную буферизацию что я могу еще сказать, это же очевидно что 2 или 3 кадра перед выводом держатся в буфере - что даёт прямую задержку вывода в зависимости от герцовки.
P.S. Мы вообще немного о разном как мне кажется - судя по статье на хабре, я о задержке вывода и времени реакции на действия, а вы о времени рендеринга кадра и статтерах в выводе кадра.
@AlexB, какая своя задержка? При чём тут ТВ в игровом режиме? У телевизоров и так конская задержка - консольщики подтвердят (нет :))
Статья про Input Lag. Ок. Есть. Где там речь о задержке дополнительного времени? Где там монитор с откликом 30-40 мс. Откуда вы берете дополнительные задержки? Вы их берете и API на стадии рендеринга о чём и подтверждаете приводя "технологии" AMD и nVidia LL для уменьшения возможных затыков через драйвер. Кидаете статью, в которой нет таких задержек в априори. Конские задержки в ТВ - 100% (второй скриншот подтверждает).
P.S. Мы нет. Вы да. Я говорю что 360 Гц это попытка впарить "число"; что эту разницу никто не заметит после уже 200 Гц, а вы что в нем не будет задержек как в стандартных по 30-40 мс.
Время реакции на действие вообще зависит от человека и периферии. Вы вообще в дебри полезли.
Моё мнение: это попытка оправдания ваших ошибочных 30-40 мс, которых между видеокартой и монитором (тем более в самом мониторе нет; тем более притягиваете за уши ТВ, сами проэкты и их проблемы). Прочитайте первое сообщение. Я вёл речь о задержках вывода картинки от видеокарты и до глаз пользователя (то бишь до монитора), а вы начали размазывать всю тему по софту (от этого я уже и статью с habr привел, которая доказывая что и с этого подхода конских задержек в 30-40 мс на 60 Гц нигде нет). Привел реальный скриншот со своего монитора на 60 Гц при более чем 60 fps и задержкой в 11 мс (которые даёт видеокарта, но монитор показать не может, так как он может только в 17 мс и как раз тут было бы не плохо анти-лаг функции от nVidia или AMD . Как раз тут они бы и работали (тройная, двойна и т.д.)), и тут вам не доказательство. Вы в состоянии подтвердить подобные числа? Вижу что нет. Исходя из выше сказанного считаю что вы не компетентны и вводите в заблуждение.
Считаю дальнейший диалог бессмысленным.
@MOZR, вам полный input lag никто не покажет в связке видеокарта+монитор ваш скриншот показывает время рендера кадра а не задержку вывода. Я 30-40мс при 60Гц взял не с потолка, это инпут-лаг монитора - 8-12мс + лаг от двойной буферизации при 60Гц - это +17мс, получаем примерно 30 мс, при тройной буферизации это +34мс - получаем примерно 40мс общая задержка. Вот и всё что я пытался донести про инпут-лаг, цитата "30-40 мс у 60Гц моделей" что не так?
@AlexB, что такое 8-12 мс в мониторе? И где, по вашему, происходит буферизация?
@MOZR, то что вы сами красным обвели на первом скриншоте - чистая задержка в самом мониторе при 60Гц и нативном разрешении. Буферизация происходит на видеокарте.
@AlexB, вы прикалываетесь, да? Конечно это задержка монитора! Буферизация происходит за счёт API. Железо само собой не управляет, ему как бы код нужен. Ну и вы продолжаете топить про софт. Зачем? Я, последний раз повторяю. Монитор с частотой 360 Гц бессмыслен так как в нем задержка в 2,7 мс (кто мать её заметит по сравнению 4 мс?!). В обычном мониторе 16,7 мс (это факт) и перестаньте нести пургу про 30-40 прикручиваю обработку API/видеокарты. Новость про монитор. Я писал о задержках монитора (табличка еще чёрти в каком сообщении ранее). Вы смешали всё! Коней, людей в фарш.
@MOZR, я ничего не смешивал - я изначально про задержку вывода или input-lag писал, то что вы мне кидали статьи про статтеры и скрины с временем рендера кадра - это для меня выглядит как смешивание всего в кучу.
Двойная или тройная буферизация что в драйвере что управляемая API никуда не девается - кадры рендерятся в буфер и там ожидают вывода, при 60Гц это ожидание 17мс или 34мс соответственно + добавляется лаг вывода в самом мониторе, если для вас это сложно, то увы.
@AlexB, так вы с ходу начали плюсовать показатели. Ну я и скинул о том, что монитор в 60 Гц может только 16,7. В чём проблема моих статей и таблички? Какое название новости? Представили монитор который може в 360. Я написал что нафиг не нужно и это маркетинг. Вы написали что будет меньше по факту. Так нужно тогда оптимизацией ввода/вывода заниматься, а не бессмысленные мониторы лепить. Сложно вам комментарии читать и вникать о чем собеседник ведет речь. Увы.
Вы о грешном...
P.S. Вы бы уже плюсанули время буферизации сетевого кадра. Было бы логично с учётом позиционирования кадра. Тогда мы получили бы еще + 50-70 мс (в зависимости от интернета). Плюч время мыши/клавы...
Это не я паштет тут устроил. Я О МОНИТОРЕ
@MOZR, Конечно маркетинг, но на инпут-лаг это повлияет очень сильно, когда задержка уменьшается на порядок - с 30-40 до 4-5мс это очень заметно и для тех кто играет в КС или другие шутеры это будет сильно ощущаться, даже в самом видео товарищ говорит что разница в отзывчивости лучше чем у 240Гц моделей, а у него глаз натренирован, я ему верю ;)
P.S. Сетевую задержку туда сложно плюсовать, она же параллельно идёт со временем инпут-лага.
@AlexB, о, уже маркетинг... до 4-5 никак! Только по вашим подсчётам это не сходится. Пилоты так не натренированы, а вы про школоту... Ну-ну) Эти товарищи могу за бабло что угодно говорить ;)
@MOZR, Почему - всё сходится, при такой герцовке в самом мониторе задержка будет мизерная - 1-2мс + 2.77мс на двойную буферизацию.
@AlexB, так только ж было "при тройной буферизации это +34мс"?!
@MOZR, снова здорова ) 360Гц же а не 60))) При 60Гц это 17мс и 34мс а при 360Гц это 2.77мс и 5.54мс соответственно.
@AlexB, Ну привет.
Вы писали 16,7 и буферизация - 30-40 мс. С эти монитором у вас уже 4 выходит... Интересно.
@MOZR, Калькулятор есть под рукой? 1000 разделить на 60 и 1000 разделить на 360 сможете? )
@AlexB, так воспользуйтесь и перечитайте сообщения свои и мои. Уже давно написал об этой математики.
Сколько мс на буферизацию?
@MOZR, буфер ожидает вывода на монитор, если монитор 360Гц то буфер будет выводиться каждые 2.77мс
@AlexB,
Специально для вас, хоть это и не то о чём в самом начале я вел речь.
60 Гц с учётом тройной буферизации + монитор:
1000/60х3 = 50 мс (не 30-40)
360 Гц с учётом тройной буферизации + монитор:
1000/360х3 = 8,3 мс (не 5.54)
Садись Петров - 2
P.S. И не отрывайте все эти показатели от контекста способностей видеокаты реальных пользователей не задрачивающих CS (говорю это только потому, как вы мне любезно скинули корявую RDR2)
@MOZR, двойная буферизация даёт задержку 1 кадр а тройная 2 кадра - пересчитывай. И плюс задержка в мониторе.
@AlexB, мда-а... это и есть с 2 кадрами + задержка монитора. Пора читать буквы (специально дописал "монитор", что бы не запутаться)
@MOZR, ну а прочитать чуть выше - я то везде писал про двойную или тот же эффект при тройной с ULL или Anti-Lag. Умножение х3 это не двойная и про монитор, в общем из пустого в порожнее опять - прочитайте и обдумайте все заново.
@AlexB, не нужно заниматься стрелочництвом. Обдумать какую тему начинал я и к чему поднял вопрос целесообразности (не маркетинга) в своём первом комментарии предлагал еще намного раньше именно вам. Твердолобость не позволила. Печаль.
По кругу это я объясняю о чем вел речь. Плюс постоянное приплетание с вашей стороны всё новых и новых переменных в виде Anti-Lag и т.д. Так давайте, как предлагал выше, уже и периферию с некачественным кабеле...
@MOZR, Вам просто нечем крыть, все цифры у вас на руках, при 60гц задержка в мониторе 8-12мс и двойная буферизация 16.7мс, получаем чуть меньше 30мс, та же задержка с тройной получаем чуть больше 40мс, я для простоты написал 30-40, но нет - вас это не устроило почему-то. А в новом мониторе задержка на обработку будет тоже чуть меньше кадрового времени - 1-2мс, плюс 2.77 или 5.54 мне следовало написать 4-6мс, извините ошибся на 1 мс - бывает.
@AlexB, мне нечем? Вы не привили ни одного вменяемого доказательства своих слов.
Я не стал говорить про буферизацию и вашу ошибку, что бы далее не закапывать вас, так как вы и в этом не точны. Никаких плюсований не будет и буферизации тоже если картинка 60 Гц и там только 60 fps. Подтверждение снизу.
Изучайте:
https://books.google.com.ua/books?id=2vluGlUFNaAC&printsec=frontcover&hl=ru&source=gbs_ge_summary_r&cad=0#v=onepage&q&f=false
P.S. Ошибка на 1 мс тоже важна так как мы ведем речь о разнице между 2 и 4 мс!
P.S.S. Отвечаю с подтверждениями своих слов, фактами и статьями, а вы отсебятничаете... Ну-ну.
На этом всё.
@MOZR, Опять вбок понесло, тут уже про то что ПК не успел отрисовать кадр и выводится повтор предыдущего если включен V-Sync, причем на современных мониторах это не так, особенно с G-Sync и FreeSync. На этом действительно всё. Учите матчасть. Удачи
юзабилити такой герцовки под вопросом, это как мышки с космическими значениями dpi
Ну это тупо для ко-ко-есочников. TN 360 гц fhd, хотя они там катают в 720р или еще меньше с ультра низкими настройками.
@Lotter, potato mode xD
И он будет стоить дороже самого топового PC, хех :D
@Sex_Lord, Как и любая другая новинка на рынке, а так сейчас 240 герц моник можно купить за 8к гривен.
@Lotter, жаль только на TN...
Не знаю как кому, но мой "идеальный" монитор мечты, почти готов. Жаль псевдо HDR у него и не 4К. Цена так же важна.
Ну ниче. Еще пару лет и...
Прикол в том что мы даже через ЮТУБ не можем 360герц посмотреть, лол.
Опять в комментах собрание секты "мне не надо, значит никому не надо".