Популярные мифы о видеокартах

О хорошей видеокарте мечтают даже консольщики. Это главный компонент игрового ПК, который определяет его мощь. А с сегодняшними ценами — еще и статусность владельца. Однако правильно выбрать видеокарту, а затем получать от нее максимальную пользу не всегда получается из-за различных вредных мифов о компьютерном «железе». В этом материале мы поможем вам отделить правду от вымысла касательно графических процессоров.

Миф №1. Чем больше видеопамяти, тем видеокарта мощнее

Это самый распространенный и один из самых старых мифов. В начале нулевых в системных требованиях игр писали примерно следующее: «64 Mb 3D Graphics Card». И если графический адаптер имел меньше памяти, чем требовалось какой-нибудь Morrowind в 2002 году, то он считался «слабым». Обычно это означало, что нужна более современная карта с большим объемом VRAM.

Однако сегодня видеокарты выходят целыми линейками — от младшей к старшей, исходя из мощности. Поэтому ориентироваться по памяти стало слишком ненадежным способом. Да и раньше так делать не стоило — объем VRAM определяет лишь максимальное количество графической информации, которую сможет обработать карта. Если требования игры превышают этот объем — то придется сбрасывать настройки, иначе будут тормоза. Но когда игра «укладывается» в нужные рамки, то на первое место выходит графическое ядро — именно оно отвечает за то, насколько быстро будет обработана вся информация, хранящаяся в памяти. И чем старше видеокарта в линейке, тем более производительным ядром она обладает. А если ядро слабое, то и много видеопамяти от тормозов в играх не спасет.

Миф №2. Много видеопамяти не нужно

Этот миф проистекает из предыдущего. Когда разобрались с зависимостью производительности от видеопамяти, можно подумать, что большой объем VRAM не нужен, главное — чтобы ядро было мощное. На деле памяти у графических адаптеров все же не бывает слишком много.

Если вы собираетесь играть в 4K или планируете приобрести видеокарту на много лет вперед, то лучше не жадничать с количеством VRAM. В 2020 году появилось много игр, потребляющих более 8 гигабайт даже в 1080p (Watch Dogs: Legion, Horizon: Zero Dawn и др.). Сейчас второе дыхание обретает жанр игр с открытым миром (во многом, благодаря постепенному отказу от медленных HDD) — самый жадный до видеопамяти — разработчики готовят много проектов на ближайшие годы. Да и общая глубина прорисовки в играх постоянно растет. Поэтому покупать мощный графический адаптер с 8 и менее гигабайтами памяти будет недальновидным решением на конец 2020 года.

Впрочем, в последние годы понять нужные характеристики становится все сложнее и сложнее. Например, NVIDIA активно развивает технологию DLSS, которая реконструирует изображение из картинки меньшего разрешения. И когда 4K воссоздается из FullHD (с очень высоким качеством, кстати), то требования к памяти уже не такие высокие.

Миф №3. Можно спалить видеокарту разгоном

Стоит различать программные характеристики комплектующих от аппаратных. Частота — программная характеристика, поэтому видеокарту невозможно вывести из строя, просто увеличив количество мегагерц. А вот если значительно поднять напряжение на графическое ядро, то в теории это может привести к поломке. Но маловероятно — у современных комплектующих есть защита от нештатных ситуаций. Поэтому в таком случае произойдет автоматический сброс драйвера.

Миф №4. Нет смысла разгонять видеопамять — только ядро

Действительно, разгон ядра обычно дает самый заметный и хорошо предсказуемый прирост производительности: увеличили частоту на 10% — получили +10% FPS в игре. Однако на большинстве современных видеокарт выше тех самых 10% подняться сложно — только если у вас версия с самым качественным охлаждением и элементной базой. Поэтому дополнительно разгоняют память. Последние поколения GDDR5 и GDDR6 иногда удается усилить аж на треть и это прибавит еще около 10% FPS.

Миф №5. Дорогие версии видеокарт не нужны

Как говорилось выше, чем лучше система охлаждения и питание у видеокарты, тем лучше она разгоняется. А еще — меньше шумит и греется. Это особенно важно для старших версий графических адаптеров с самыми горячими в линейке ядрами: GeForce RTX 3090, Radeon RX 6900 XT и других. А вот младшие представители линеек (GTX 1660, RX 5500 XT и др.) обычно не нуждаются даже в двух вентиляторах.

Миф №6. Две видеокарты в SLI/Crossfire дают двойную производительность

Такое бывает, но крайне редко. Подавляющее большинство игр разрабатываются без учета работы с двумя видеокартами. Да и на процессор в таком случае ложится двойная нагрузка. Поэтому на деле обычно удается поднять количество FPS лишь процентов на 30.

Миф №7. В пару к мощной видеокарте можно ставить любой процессор («раскрытия» не существует)

«Раскрытие» потенциала видеокарты процессором существует, хоть это и не совсем корректная формулировка. Чем быстрее графический адаптер справляется с отрисовкой каждого кадра, тем чаще он обращается к процессору за заготовкой для нового. Кроме того, в последние пару лет большинство высокобюджетных игр требуют мощный ЦП — не менее 4 физических ядер на частоте от 4 гигагерц (а если частота ниже, то нужно больше ядер). Поэтому перед покупкой той же GeForce RTX 3080 стоит обзавестись хотя бы современным Intel Core i5 или AMD Ryzen 5.

Миф №8. Производители замедляют старые видеокарты драйверами

Все несколько сложнее. Обычно получается так, что старые видеокарты хуже работают в новых играх, чем новые видеокарты с сопоставимой мощностью. Например, GeForce RTX 2060 через год после выхода стала выдавать в некоторых тайтлах столько же FPS, как и GTX 1080, хотя изначально соперничала скорее с GTX 1070. Дело в том, что разработчики игр в первую очередь занимаются оптимизацией под более свежее железо. А в уже вышедших тайтлах ситуация после выхода новых драйверов обычно не меняется. А если и меняется, то обычно по ошибке и до выхода следующей версии драйверов.

Миф №9. Рейтрейсинг (трассировку лучей) ждет судьба PhysX и подобных «модных» технологий

Эксклюзивные эффекты на базе технологии PhysX действительно так и не прижились в индустрии. Даже ускорение физики давно отвязали от PhysX. Но с рейтрейсингом ситуация совсем другая. Он дает не только улучшение графики, но и значительно упрощает разработчикам проработку освещения — за счет лучей все рассчитывается автоматически. И в разработке уже находятся игры, которые не будут работать на видеокартах без поддержки трассировки лучей.

Миф №10. Видеокарты в ноутбуках догнали свои настольные аналоги

К сожалению, это не совсем так. Если GeForce 1000-й серии и правда были очень близки к своим настольным аналогам, то 2000-я серия оказалась менее энергоэффективной из-за новых видов ядер. Например, ноутбучная RTX 2080 Super Max-Q примерно соответствует стандартной RTX 2060 Super. Такое чаще встречается в тонких ноутбуках. Но и без приставки Max-Q мобильные графические адаптеры обычно слабее своих одноименных настольных версий.

Увы, большинство мифов рождаются из-за чересчур поверхностного понимания индустрии технологий. Поэтому мы продолжим развеивать популярные заблуждения о компьютерных комплектующих в следующих материалах.

Читайте также:

  • Популярные мифы о процессорах
  • Как не спалить ПК, пока играешь в Cyberpunk 2077
  • Собираем игровой ПК мощнее новых консолей

Источник

Понравилась статья? Поделиться с друзьями:
Мир компьютерных игр