3.2 C
София

Дванадесет мита за видеокартите, които е време да забравим

Най-четени

Даниел Десподовhttps://www.kaldata.com/
Ежедневен автор на новини. Увличам се от съвременни технологии, оръжие, информационна безопасност, спорт, наука и концепцията Internet of Things.

Неотдавна обърнахме внимание на остарелите вече митове за процесорите и оперативната памет. Нека днес да се спрем на видеокартите, които отдавна са задължителен компонент във всеки компютър.

Колкото повече буферна памет има, толкова е по-бързa видеокартата

Изглежда логично – в по-мощните видеокарти се поставя повече памет.. Така например, GTX 1070 с 8 GB буферна памет е по-бърза от GTX 1060 с 6 GB, а GTX 1080 Ti с 11 GB е по-бърза от GTX 1080 с 8 GB. Но трябва да се има предвид, че графичната памет разбира се е важна, но софтуерът обикновено не може да използва всичката памет. Например GTX 1060 с 3 GB буферна памет е по-бавна от версията с 6 GB само с 5-10%, като разликата идва предимно от различния брой CUDA ядра.

Но има производители на видеокарти, които използват този мит в своя полза. Например, на пазара се предлага GT 740 с 4 GB GDDR5 памет. Лесно можем да се заблудим и да си помислим: топ-видеокартата от това поколение има само 3 GB буферна памет и излиза, че GT 740 е по-добра? Разбира се, че не. Ако изберем графичните настройки на играта по такъв начин, че да се използва всичката памет, тази видеокарта дава слайдшоу. А ако понижим новото на графиката, за да може все пак да се играе, ще видим, че се използват едва 1, максимум 2 GB графична памет.

Подобен пример има и при AMD. Това е моделът RX 550 със същите 4 GB GDDR5 памет. Тази памет наистина се използва при някои специфични задачи, но не прави видеокартата по-бърза.

Наистина, не могат да се правят изводи за бързината на видеокартата само по количеството инсталирана памет.

Ако на видеокартата не ѝ достигне графичната памет, в игрите задължително започват да излизат фреймове, ще има сривове и други подобни.

Това също изглежда логично: ако на видеокартата не ѝ е достигнала паметта, тя няма откъде да вземе друга и играта или програмата няма да работи коректно. Всъщност няма подобно нещо. Видеокартата има достъп до оперативната памет на компютъра, която обикновено е много повече от графичната памет. Разбира се, RAM е многократно по-бавна и времето за достъп до нея е голямо. Това би могло да създаде проблеми с плавността на изображението, но само ако недостигът на графична памет е твърде голям. Например видеокартата има 2-3 GB графична памет, а играта изисква 4-5 GB. Но ако не достигат няколко стотици мегабайта, няма проблеми. Графичният процесор може динамично да използва наличните ресурси и съхранява в оперативната памет на компютъра само информацията, която се използва рядко и не изисква мигновен достъп.

Видеокартите изгарят от овърклока

Знаем че производителите продават своите видеокарти със заводски овърклок. Разбира се, графичната карта може да се повреди от хардуерен овърклок – ако се променят например, физическите параметри, като например напрежението. Промяната на софтуерните параметри, като например честотите, не оказва влияние на хардуера на видеокартата. Най-много да се срине драйвера или да изскочи BSOD от твърде високата честота.

SLI/Crossfire увеличава производителността и буферната памет толкова пъти, колкото видеокарти са включени в масива

Всъщност, това не е точно мит, а теоретичен резултат. Уви, въпреки че SLI е вече на 20 години, а Nvidia го използва от над 10 години, в почти всички игри приръстът на производителност е нулев и дори понякога отрицателен. Само в единични геймърски проекти има ръст на производителността с 10-20% в сравнение с една видеокарта, но това разбира се е смешно, като се има предвид двукратното увеличение на цената и на консумацията на електрическа енергия.

При изчислителните алгоритми и задачи всичко е по-друго. Професионалният софтуер много добре използва няколко графични карти едновременно. Но това вече е далече от домашното използване на устройствата, а в този цикъл статии говорим само за домашни условия.

С буферната памет всичко е ясно. При използването на DirectX 11 и по-стар, в паметта на всяка видеокарта се записва еднаква информация – тоест, при свързването на няколко карти в общ масив, буферната памет, която може да се използва е всъщност паметта само на едната графична карта. Но при API DirectX 12 вече има възможност за ефективно използване на Split Frame Rendering, където всяка видеокарта работи върху своя част от кадъра. В този случай, може да се каже, че буферната памет от SLI масива се сумира, въпреки че има някои изключения.

Професионалните карти са по-добри от геймърските

Митът произлиза от това, че професионалните видеокарти, като например Nvidia Quadro или AMD FirePro обикновено струват много повече от геймърските графични карти. А щом са по-скъпи, значи са по-добри. Само че въпросът е, в коя област са по-добри? От хардуерна гледна точка, повечето професионални ускорители използват същия графичен процесор и имат също толкова памет. Разликата е в специализираните драйвери, които са специално предназначени за професионално използване. А този софтуер е скъп.

Тези драйвери никой не адаптира за геймърски цели и професионалните видеокарти обикновено се представят зле при видеоигрите в сравнение с обикновените графични карти със същия графичен процесор. От друга страна, ако сравняваме резултатите на професионалните карти в CAD системите или 3ds Max, то там те многократно превъзхождат обикновените решения. Така че за този мит може да се каже, че няма смисъл от директното сравняване на тези графични решения. Те се използват в различни области и са от различни ценови сегменти.

Ако процесорът не разкрива всички възможности на видеокартата, то това е твърде лошо

Това е може би най-популярният мит – ако видеокартата не е заета на 100%, то това е лошо. От една страна изглежда логично – натоварването под 100% означава, че тя често престоява и не се използва пълноценно. От друга страна, много хора забравят, че на практика всеки централен процесор може да натовари GPU до 100%. Това е лесно: в игрите който и да е процесор подготвя определен брой кадри за видеокартата и колкото е по-мощен процесорът, толкова повече кадри ще подготви.

Тоест, за да бъде натоварена видеокартата на всичките 100%, тя трябва да започне да обработва по-малко кадри, отколкото ѝ подава процесорът. Това не е трудно: включваме възможно най-високите настройки на графиката, задействаме най-тежкото изглаждане и веднага ще видим как GTX 1080 Ti при 5К резолюция и максимални настройки на графиката започва да се затруднява и да не генерира не повече от 15-20 кадъра в секунда. А поставеният двуядрен Intel Pentium остава хладен и не може да се натовари и до 50%.

Лесно се получава и обратната ситуация. Същата GTX 1080 Ti да рендира игра с HD резолюция с минимални настройки на графиката. В този случай дори и Core i9-9900K няма да може да ѝ осигури токова кадри, че тя да се натовари до 100%.

Тук могат да се направят два важни извода. Първо, ако видеокартата не е много натоварена, а геймърският fps ви устройва, можете да увеличите графичните настройки и да я натоварите до 100% – ще получите по-добро изображение при същия брой кадри в секунда. Второ, трябва да се избират балансирани конфигурации за да не се получава 100% натоварване на процесора, а играта да върви с 20 fps.

Колкото е по-тясна шината на паметта, толкова е по-ниска производителността на видеокартата

Във форумите можем да видим постове от типа: „преди 8 години GTX 480 имаше 384-битова шина, а сега GTX 1080 има само 256-битова – Nvidia икономисва“ Също изглежда логично – колкото е по-широка шината, толкова повече данни могат да се обменят.

Отдавна производителността на зависи единствено от шината. През това време честотата на буферната памет няколкократно нарасна, а производителите непрекъснато подобряват алгоритмите за обмен на данни чрез шината. По този начин ширината на шината спокойно може да бъде намалена. Така например MX150 (позната и като GT 1030) има едва 64-битова шина (като един RAM канал), но дава производителност от нивото на GTX 950M със 128-битова шина. А преди 5-6 години това бе видеокарта от среден клас.

Ако видеокартата не прегрява, то тя работи с максимално възможната за нея честота в рамките на топлинния коефициент

Уви, аналогията с централните процесори тук не действа. Докато CPU наистина удържа максималните честоти в рамките на TDP чак докато започне тротлинг, при видеокартите всичко е по-хитро. Nvidia например, използва технологията GPU Boost, която от една страна е аналога на Turbo Boost при процесорите, но има редица ограничения.

Да вземем за пример GTX 1080 Ti. Нейната номинална честота е 1480 MHz, а Boost – 1580 MHz. Но ако я натоварим, честотата може да скочи до 1800-1850 MHz. Тоест повече от GPU Boost. После става по-интересно. Критичната температура на видеокартите с архитектура Pascal е 95 градуса по Целзий. Но още при 85 градуса честотата намалява до Boost нивото. Защо става така? Nvidia използва още една опорна температура, която нарича целева. При нейното достигане видеокартата се опитва да не я превишава и намалява честотите. Така че, ако имате мощна видеокарта само с въздушно охлаждане, внимателно следете температурата, понеже от нея зависи производителността.

Видеокартите без допълнително захранване са по-слаби от тези с външно захранване

На пазара има много видеокарти от нивото на GTX 1050, 1050 Ti и AMD RX 550 без допълнително захранване. Те са като графичните карти от преди време – поставяш ги в PCIe слота и са готови за работа. Но версиите 1050 и 1050 Ti са с допълнителен 6-пинов конектор и някои потребители си мислят, че те са по-производителни.

Всъщност не е точно така. PCIe слотът може да даде на видеокартата до 75 W захранване и това е съвсем достатъчно за да може 1050 Ti да работи с указаните в сайта на Nvidia честоти. Но ако ще правите овърклок, захранването от PCIe няма да стигне. Тук допълнителните 6 пина ще позволят достигането на по-високи честоти. Но разликата няма да превиши 10%.

Не трябва да се поставят съвременните PCIe 3.0 видеокарти в PCIe 2.0 или 1.0 слотове

Отново изглежда логично: пропускателната способност на PCIe 2.0 x16 е двойно по-ниска отколкото при 3.0 x16 и новите видеокарти ще работят по-бавно в старата шина. На практика не е съвсем така. Пропускателната способност на PCI Express 3.0 x16 дори и в най-съвременните топ-видеокарти е с много голям аванс.

Добре се вижда, че разликата между 3.0 x16 и 2.0 x16 е едва 1% и е в рамките на погрешността. И дори да слезем до PCIe 1.1 – тоест до дънните платки отпреди 10 години, спадът в производителността ще бъде едва 6%. Изводът е прост – версията на PCIe засега на практика не оказва особено влияние на производителността на видеокартите. Така че нищо не ни пречи да използваме Xeon с PCI Express 2.0 заедно с GTX 1080.

Овърклокът на графичната памет няма смисъл

Разбира се, най-голям ефект дава клокът на ядрото – тук увеличаването на тактовата честота с 10% дава приръст 10%. Но да не забравяме графичната памет, особено в по-слабите
видеокарти. Много често в тях поставят същите чипове графична памет, каквито се използват в по-мощните решения, но значително им намаляват честотата. Това дава възможност те да бъдат клокнати с 20-40%, което ще увеличи производителността с 10-15%, При по-слабите графични карти тези проценти не са излишни.

С излизането на нова серия видеокарти производителите намаляват производителността на старите модели

Много популярен мит, обикновено базиран на това, че със старите драйвери старите карти работят по-добре. Няма причини за подобно нещо. Ако Nvidia и AMD наистина искаха да накарат потребителите да обновяват своите видеокарти по подобен начин, щяха да прекратят тяхната поддръжка, като например при Android устройствата – след около две години. Но да не забравяме, че дори моделите от серия 600 на Nvidia, излезли преди 6 години, и до днес получават нови драйвери, при това с приятни допълнения, като например поддръжката на DirectX 12.

Но защо все пак се появява подобна разлика между драйверите? Нищо не е идеално и новите драйвери увеличавайки производителността при новите игри, могат леко да я намалят при по-старите геймърски заглавия. Но бързо излизат обновявания и проблемите от този род се решават.

 


Ако знаете още подобни митове, споделете, за да умножим познанието.

Абонирай се
Извести ме за
guest
8 Коментара
стари
нови
Отзиви
Всички коментари

Нови ревюта

Ревю на рутера TP-Link Archer C64: клас AC1200 с гигабитови портове

Брандът TP-Link отдавна е добре позната на нашия пазар, което не е изненадващо, тъй като компанията е един от най-големите производители на мрежово оборудване....

Подобни новини