О хорошей видеокарте мечтают даже консольщики. Это главный компонент игрового ПК, который определяет его мощь. А с сегодняшними ценами — еще и статусность владельца. Однако правильно выбрать видеокарту, а затем получать от нее максимальную пользу не всегда получается из-за различных вредных мифов о компьютерном «железе». В этом материале мы поможем вам отделить правду от вымысла касательно графических процессоров.
Миф №1. Чем больше видеопамяти, тем видеокарта мощнее
Это самый распространенный и один из самых старых мифов. В начале нулевых в системных требованиях игр писали примерно следующее: «64 Mb 3D Graphics Card». И если графический адаптер имел меньше памяти, чем требовалось какой-нибудь Morrowind в 2002 году, то он считался «слабым». Обычно это означало, что нужна более современная карта с большим объемом VRAM.
Однако сегодня видеокарты выходят целыми линейками — от младшей к старшей, исходя из мощности. Поэтому ориентироваться по памяти стало слишком ненадежным способом. Да и раньше так делать не стоило — объем VRAM определяет лишь максимальное количество графической информации, которую сможет обработать карта. Если требования игры превышают этот объем — то придется сбрасывать настройки, иначе будут тормоза. Но когда игра «укладывается» в нужные рамки, то на первое место выходит графическое ядро — именно оно отвечает за то, насколько быстро будет обработана вся информация, хранящаяся в памяти. И чем старше видеокарта в линейке, тем более производительным ядром она обладает. А если ядро слабое, то и много видеопамяти от тормозов в играх не спасет.
Миф №2. Много видеопамяти не нужно
Этот миф проистекает из предыдущего. Когда разобрались с зависимостью производительности от видеопамяти, можно подумать, что большой объем VRAM не нужен, главное — чтобы ядро было мощное. На деле памяти у графических адаптеров все же не бывает слишком много.
Если вы собираетесь играть в 4K или планируете приобрести видеокарту на много лет вперед, то лучше не жадничать с количеством VRAM. В 2020 году появилось много игр, потребляющих более 8 гигабайт даже в 1080p (Watch Dogs: Legion, Horizon: Zero Dawn и др.). Сейчас второе дыхание обретает жанр игр с открытым миром (во многом, благодаря постепенному отказу от медленных HDD) — самый жадный до видеопамяти — разработчики готовят много проектов на ближайшие годы. Да и общая глубина прорисовки в играх постоянно растет. Поэтому покупать мощный графический адаптер с 8 и менее гигабайтами памяти будет недальновидным решением на конец 2020 года.
Впрочем, в последние годы понять нужные характеристики становится все сложнее и сложнее. Например, NVIDIA активно развивает технологию DLSS, которая реконструирует изображение из картинки меньшего разрешения. И когда 4K воссоздается из FullHD (с очень высоким качеством, кстати), то требования к памяти уже не такие высокие.
Миф №3. Можно спалить видеокарту разгоном
Стоит различать программные характеристики комплектующих от аппаратных. Частота — программная характеристика, поэтому видеокарту невозможно вывести из строя, просто увеличив количество мегагерц. А вот если значительно поднять напряжение на графическое ядро, то в теории это может привести к поломке. Но маловероятно — у современных комплектующих есть защита от нештатных ситуаций. Поэтому в таком случае произойдет автоматический сброс драйвера.
Миф №4. Нет смысла разгонять видеопамять — только ядро
Действительно, разгон ядра обычно дает самый заметный и хорошо предсказуемый прирост производительности: увеличили частоту на 10% — получили +10% FPS в игре. Однако на большинстве современных видеокарт выше тех самых 10% подняться сложно — только если у вас версия с самым качественным охлаждением и элементной базой. Поэтому дополнительно разгоняют память. Последние поколения GDDR5 и GDDR6 иногда удается усилить аж на треть и это прибавит еще около 10% FPS.
Миф №5. Дорогие версии видеокарт не нужны
Как говорилось выше, чем лучше система охлаждения и питание у видеокарты, тем лучше она разгоняется. А еще — меньше шумит и греется. Это особенно важно для старших версий графических адаптеров с самыми горячими в линейке ядрами: GeForce RTX 3090, Radeon RX 6900 XT и других. А вот младшие представители линеек (GTX 1660, RX 5500 XT и др.) обычно не нуждаются даже в двух вентиляторах.
Миф №6. Две видеокарты в SLI/Crossfire дают двойную производительность
Такое бывает, но крайне редко. Подавляющее большинство игр разрабатываются без учета работы с двумя видеокартами. Да и на процессор в таком случае ложится двойная нагрузка. Поэтому на деле обычно удается поднять количество FPS лишь процентов на 30.
Миф №7. В пару к мощной видеокарте можно ставить любой процессор («раскрытия» не существует)
«Раскрытие» потенциала видеокарты процессором существует, хоть это и не совсем корректная формулировка. Чем быстрее графический адаптер справляется с отрисовкой каждого кадра, тем чаще он обращается к процессору за заготовкой для нового. Кроме того, в последние пару лет большинство высокобюджетных игр требуют мощный ЦП — не менее 4 физических ядер на частоте от 4 гигагерц (а если частота ниже, то нужно больше ядер). Поэтому перед покупкой той же GeForce RTX 3080 стоит обзавестись хотя бы современным Intel Core i5 или AMD Ryzen 5.
Миф №8. Производители замедляют старые видеокарты драйверами
Все несколько сложнее. Обычно получается так, что старые видеокарты хуже работают в новых играх, чем новые видеокарты с сопоставимой мощностью. Например, GeForce RTX 2060 через год после выхода стала выдавать в некоторых тайтлах столько же FPS, как и GTX 1080, хотя изначально соперничала скорее с GTX 1070. Дело в том, что разработчики игр в первую очередь занимаются оптимизацией под более свежее железо. А в уже вышедших тайтлах ситуация после выхода новых драйверов обычно не меняется. А если и меняется, то обычно по ошибке и до выхода следующей версии драйверов.
Миф №9. Рейтрейсинг (трассировку лучей) ждет судьба PhysX и подобных «модных» технологий
Эксклюзивные эффекты на базе технологии PhysX действительно так и не прижились в индустрии. Даже ускорение физики давно отвязали от PhysX. Но с рейтрейсингом ситуация совсем другая. Он дает не только улучшение графики, но и значительно упрощает разработчикам проработку освещения — за счет лучей все рассчитывается автоматически. И в разработке уже находятся игры, которые не будут работать на видеокартах без поддержки трассировки лучей.
Миф №10. Видеокарты в ноутбуках догнали свои настольные аналоги
К сожалению, это не совсем так. Если GeForce 1000-й серии и правда были очень близки к своим настольным аналогам, то 2000-я серия оказалась менее энергоэффективной из-за новых видов ядер. Например, ноутбучная RTX 2080 Super Max-Q примерно соответствует стандартной RTX 2060 Super. Такое чаще встречается в тонких ноутбуках. Но и без приставки Max-Q мобильные графические адаптеры обычно слабее своих одноименных настольных версий.
Увы, большинство мифов рождаются из-за чересчур поверхностного понимания индустрии технологий. Поэтому мы продолжим развеивать популярные заблуждения о компьютерных комплектующих в следующих материалах.
Читайте также:
- Популярные мифы о процессорах
- Как не спалить ПК, пока играешь в Cyberpunk 2077
- Собираем игровой ПК мощнее новых консолей