Истините, митовете и особеностите на геймърските монитори – ревю

6
2111

През последните няколко години съвсем ясно се вижда тенденцията за закупуване на геймърски хардуер. Може да се каже, че с централните процесори и видеокартите нещата са сравнително ясни, но с игровите монитори това не е съвсем така. Но на пазара започнаха да се появяват маса геймърски монитори – например на CES 2020 бяха представени над десет нови модела. Но отношението на потребителите към тях е доста скептично – „след като имам FHD екран с 60 Hz кадрова честота, за какво са ми тези глезотии?„. Нека да се спрем по-подробно на тези неща.

След като окото не забелязва повече от 24 кадъра в секунда, за какво са ми 144 Hz монитори?

Когато става дума за херцовете на мониторите веднага изплуват множество митове. Най-популярният от тях е, че щом прожектират филмите на големия екран с 24 кадъра в секунда, то за човешкото око това е достатъчно, за да не вижда слайдшоу, а плавно изображение – следователно всичките тези 100 и дори 240 Hz монитори са чиста глезотия. Но тук е важно добре да се разбере, че между кадъра от киното и кадъра, който видеокартата извежда не екрана, има съществена разлика. Кадърът на филма е заснет с леко забавяне – тоест, той е леко размазан и показва движението. С други думи, във всеки кадър от филма за големия екран има информация от предишния кадър. Ето защо за мозъка тези 24 кадъра са съвсем достатъчни, за да може той да „сглоби“ от тях съвсем плавно изображение.

А кадърът, който графичната карта извежда на екрана, винаги е детайлен (освен ако не се използва motion blur ефекта) и става така, че тези компютърни 24 кадъра се разпознават от мозъка като слайдшоу. Но колко от тези компютърни кадри са необходими, за да се получи същото плавно изображение? Тук всичко е индивидуално – повечето потребители с конзоли са си доволни от предлаганите 30 fps. Но на практика всички хора забелязват разликата между 30 и 60 Hz, а прагът за разпознаване на отделните карти е далече над 100 fps. По време на своята презентация на CES 2020 Nvidia показа, че има много хора, които забелязват разликата между 240 и 360 Hz!

Естествено, не бива веднага да се нахвърляме и да купуваме 240 Hz монитор. Проблемът е в това, че всичките му прелести се проявяват ако подаденото към него видео е с подобна честота на кадрите. Или с други думи, 60 fps от YouTube ще си изглеждат по същия начин както на 60 Hz монитор, така и на 120 Hz. Като цяло, единственото съдържание, което може да има над 200 и повече кадъра в секунда са компютърните игри за киберспорт. При тях задължително са необходими бързи процесори, видеокарти и монитори с висока кадрова честота. Този хардуер е необходим, понеже при 60 fps някои бързо движещи се обекти не могат да се видят.

Може да се каже, че ако не сте киберспортист, то има смисъл да се ограничите до 100-144 Hz монитори. До около 100 кадъра в секунда при съвременните и не много съвременните игри, вече могат да покажат голям брой най-различни модели видеокарти и това си струва, понеже разликата в сравнение с 60 Hz се вижда съвсем отчетливо, а при 120 Hz очите и мозъкът не се уморяват толкова бързо.

Времето за реакция на точката е също толкова важно

Навярно всички са забелязали, че когато нещо се придвижва много бързо на екрана, то след него се образуват цветни сенки. Това се случва, понеже пикселите в течнокристалните монитори не могат моментално да променят цвета си и за тази цел им е необходимо известно време. Това е така нареченото забавяне на матрицата или време за реакция на точката.

Тя може да бъде измерена по различен начин, но основно се използва показателя grey-to-grey или GtG: това е времето, което е необходимо на пиксела за да намали яркостта на точката със сив цвят от 80-90% на 10-50% (за съжаление, всеки производител използва собствена методика). Този метод е най-полезен, понеже е по-близък до реалността – много рядко в игрите обектите сменят цвета си от бял на черен и обратно (BtW, black-to-white), но смяната на тяхната яркост става непрекъснато.

Типичното време за реакция точката при 60 Hz матрица в скъп лаптоп с Core i5 и GTX 1660

При обикновените 60 Hz матрици този показател е на ниво 30-50 милисекунди. Много ли е това или е малко? Нека да пресметнем. При 60 Hz монитор един кадър се изобразява за 1000 ms/60=17 ms. Тоест, това време на реакция съответства на показването на два, че и три кадъра. До какво води това? До нищо добро: при бързите и динамични игри матрицата просто не успява да обнови информацията на екрана, което води до известно замъгляване на изображението. При 144 Hz монитори ситуацията е още по-зле: всеки кадър е с продължителност едва 7 милисекунди.

Ето защо, когато се избира геймърски монитор е необходимо внимателно да се гледа за неговото време за реакция на точката. Не си струва да се гледат рекламните значения от 1 до 3 милисекунди, давани от производителите на монитори. Те ги измерват чрез собствени много хитри начини и това време за реакция може да бъде 5, че и 10 милисекунди. Крайно желателно е времето за изобразяване на кадъра да е по-голямо от времето за реакция на точката. По този начин цветните сенки в игрите ще бъдат минимални.

Overdrive или ускоряване на матрицата

Ето че стигнахме до чисто игровите функции. Както видяхме по-горе, голямото време за реакция на точката замазва изображението и затова производителите измислиха технология за компенсация на бавната реакция, която получи името Overdrive. Как работи това чудо? Обикновено преходът от черен към бял цвят в LCD е по-бърз в сравнение между различните градации на сивия цвят. Причината е в това, че скоростта на промяна на състоянието на пиксела зависи от приложеното към него напрежение. Ясно е, че преходът към бял цвят става чрез подаването на максималното напрежение и LCD матрицата реагира много по-бързо на него и по този начин BtW е по-малко от GtG (нещо което маркетолозите масово използват).

Оттук идва и несложната идея, че ако при всеки нов кадър се подаде съвсем кратък ускоряващ импулс, който е по-голям от необходимото напрежение за конкретния цвят, то това ще подтикне пиксела по-бързо да премине към новото състояние, като по този начин съществено се намалява скоростта на реакция на матрицата. Но и тук има лъжичка катран в меда – това рязко повишаване на напрежението води до един доста неприятен ефект. Не, пикселите не прогарят, но се появява леко светло примигване в сивите фонове на игрите с голяма динамика.

При включен режим Overdrive най-малко артефакти се получават при опцията NORMAL. Но ако се прекали, както е при EXTREME започва инвертиране на цветовете.

Това е и причината производителите на монитори да предлагат своите устройства с няколко Overdrive настройки, включително и възможността за изключването на тази технология. Ето защо трябва внимателно да бъдат разглеждани техническите характеристики на геймърските монитори и да се четат различните материали в Глобалната мрежа – ревюта, обзори и т.н.

Високата кадрова честота и бързото време на реакция на точката осигуряват най-приятния геймплей

Нека да съберем на едно място казаното досега и да пресметнем общото забавяне при игрите. Това е сумата от времето, необходимо на процесора и видеокартата да обработят вашето натискане на бутон на клавиатурата и показването на изображението на екрана на монитора. Това са около 50 ms и общо взето това време може да се счита за константа. Оттук нататък следват таймингите на дисплея и именно това е забавянето при извеждането на нов кадър плюс времето за реакция на точката.

Нека да пресметнем този показател за стандартен 60 Hz панел с време на реакция на точката 40 ms. Най-лошото и дълго забавяне при извеждането на нов кадър е когато току ще е показан един кадър и сега трябва да се изчакат 1000 ms/60 = 17 ms, за да се покаже следващия кадър. На практика не е съвсем така, но тук разглеждаме най-лошия случай. Следва още и времето за реакция на точката от още 40 ms. В крайна сметка цялото забавяне е сумата от тези три тайминга – 50 + 17 + 40 = 107 милисекунди.

Данните на Nvidia за времето за реакция на точката показват, че колкото е по-бърза е матрицата, толкова повече удачни изстрели при завъртане се осъществяват

Сега да вземем геймърска матрица с време за реакция на точката GtG от 7 ms (това е доста много, но ние и тук разглеждаме най-лошия случай). При този монитор първият тайминг ще бъде 1000 ms/144 = 7 ms. Добавяме още 7 ms време на реакция на точката. Тук общото забавяне от трите тайминга е 50 + 7 + 7 = 64 милисекунди.

В крайна сметка разликата е над един и половина пъти. Именно това дава възможност при използването на бързи матрици по-лесно и точно да се играят динамични игри и да се убиват осезателно повече врагове. Да, геймърските монитори имат право да се наричат така и това вече не е маркетинг.

AMD FreeSync и Nvidia G-Sync – премахваме начупванията на изображенията

Повечето монитори имат фиксирана кадрова честота, но при по-тежките и по-бързите игри процесорът и видеокартата осигуряват променлив брой обновявания на гейм сцената в секунда и fps при почти всички игри е променлив. До какво води това? Разбира се, до нищо хубаво: изображението се извежда на дисплея дори и ако извеждането на част от предишният кадър не е приключило – останалата част от буферната памет се използва за текущото обновяване на екрана. И това е причината при несъвпадението на кадровата честота и fps, изображението да е сглобено от два кадъра, рендирани от видеокартата.

Това се вижда като много характерно пречупване на изображението, което изобщо не е красиво:

Как можем да се преборим с това? Естествено, най-лесният начин е да се използва вертикална синхронизация – тоест принудително на екрана да се извеждат толкова кадри, колкото fps успява да рендира видеокартата. Ако видеокартата може да рендира по-голям брой fps от кадровата честота на монитора, то графичната карта няма да се товари до максимум и ще имаме едно идеално непрекъснато изображение. Но ако мониторът е 60 херцов, а видеокартата може да осигури само 30-40 Hz? В този случай някои кадри ще се изобразяват двойно повече отколкото трябва – тоест общото забавяне ще варира между 17 и 34 милисекунди. А това се усеща като много неприятно забавяне в управлението на играта – реакцията на натиснат клавиш става мудна, а това също никак не е приятно.

Какъв е изходът от тази ситуация? Принудително синхронизиране на кадровата честота на монитора с броя кадри, които успява да генерира графичната карта в съответната компютърна игра. С други думи, мониторът автоматично се настройва към fps на видеокартата и извежда всеки кадър за точно толкова време, колкото е необходимо на видеокартата да генерира следващия кадър. Резултатът от това е, че получаваме вертикална (кадрова) синхронизация при произволен fps. Е, почти.

Днес има две технологии, които премахват начупванията на обектите при динамичните игри. Това са AMD FreeSync и Nvidia G-Sync. Разликата между тях е, че първата технология използва за синхронизация на кадровата честота с fps видеокартата, като необходимите данни се подават на DisplayPort конектора. Втората технология изисква в монитора да бъде поставен специален чип, през който минава целия видеопоток от графичната карта и променя кадровата честота. Очевидно е, че вторият метод е по-скъп и понякога значително – разликата варира от $150 до над $300.

Кое е по-добре? Преди година можеше да се каже, че въпросът не е коректен: видеокартите на AMD работят само с FreeSync, а графичните карти на Nvidia поддържат само G-Sync. Но като се има предвид, че видеокартите GTX 1000 и RTX 2000 използват DisplayPort 1.2 интерфейса, за да съответстват на VESA изискванията, преди време се наложи Nvidia да добави в своите графични карти и поддръжката на FreeSync, като тази технология при Nvidia се нарича G-Sync Compatible.

Излиза, че няма смисъл да се дават грешни пари за G-Sync? Не е съвсем така. На теория FreeSync може да работи с кадрови честоти на мониторите от 9 до 240 Hz, което е повече от достатъчно. Но какво виждаме на практика? Почти всички монитори, дори и тези с цена над $1000 поддържат адаптивна кадрова честота в тесния диапазон от 40-90 Hz. И това, като се има предвид, че някои от тях са с кадрова честота 144 Hz! Тоест, губят се преимуществата на бързата матрица и си играете при 60 fps или пък забравяте за FreeSync и играете при 100 fps, но трябва да се примирите с пречупванията на обектите.

IPS монитор със 144 Hz матрица и резолюция 2К. Малките букви по-долу показват, че кадровата честота може да се променя само от 35 до 90 Hz

Естествено, има и монитори, които поддържат кадрова честота от 48 до 240 Hz, но те са съвсем малко. А при дисплеите с G-Sync подобен проблем няма – всичките монитори от подобен тип поддържат адаптивна кадрова честота от 30 Hz до максимума, който може да предложи матрицата. Няма как да не се съгласим, че това е къде по-приятно и се обхваща целия fps диапазон.

В крайна сметка се получава доста интересна ситуация: за потребителите с видеокарти на AMD избор няма: не искате да виждате прекъсвания – взимате монитор с поддръжката на FreeSync, а ако искате висок fps в синхрон с кадровата честота трябва да си намерите подходящ монитор и внимателно да се вгледате в неговите параметри. За потребителите с видеокарти на Nvidia всичко е дори и по-интересно: ако искате плавно изображение без пречупване при произволен fps – ще трябва да си вземете скъп монитор с поддръжката на G-Sync. Но ако искате да минете по-тънко и да икономисате – можете да се потопите в света на FreeSync мониторите, които към днешен ден са около 1000 модела. Драйверите на Nvidia ги поддържат всичките и кой метод ще бъде предпочетен решава потребителят.


В следващата част ще се спрем на геймърските монитори с множество зони на подсветка, вмъкването на черен кадър и други.

0 0 глас
Оценете статията
Абонирай се
Извести ме за
guest
6 Коментара
стари
нови оценка
Отзиви
Всички коментари