+38 (093)  990-30-70

Новости

Королевский бал у Вас дома

Вибір відеокарти. Короткий огляд і порівняння.

  1. Вбудована графіка
  2. NVIDIA vs ATI-AMD
  3. Що всередині відеокарти
  4. 2 ядра, 2 гіга, ігрова відеокарта
  5. достатня продуктивність
  6. Дозвіл і пам'ять
  7. Що вибрати?
  8. Про Sli і Crossfire замовте слово
  9. різні виробники
  10. загальні поради

Попався мені на гіктаймс цікавий пост про графічних картах
Попався мені на гіктаймс цікавий пост про графічних картах. Думаю він буде корисний не тільки мені. Далі огляд і порівняння моделей, і рекомендації по оптимальному вибору графіки.
Власне, все відеокарти можна поділити на два великих табори: професійні та споживчі. Ні, професійні відеокарти потрібні не професійним гравцям, а тим, хто працює з 3D графікою: аніматорам, мультиплікаторів, моделлера і використовуються вони зазвичай при створенні відеороликів, фільмів і приголомшливих декорацій до них. Як правило, такі відеокарти стоять вкрай багато.

Споживчі ж відеокарти (про які ми, в основному, і будемо говорити) бувають двох типів: вбудовані і дискретні. Відрізняються вони в першу чергу продуктивністю і ціною: якщо «вбудовані» рішення, здебільшого, потрібні, щоб офіс з браузером на екран виводити, і круту тривимірну графіку тягнуть з працею, то «виділені» в окремий пристрій відеокарти, навпаки, заточені саме під гри і роботу в «важких» додатках.

Вбудована графіка

Спочатку, вбудовані відеоадаптери були частиною т.зв. «Північного мосту»: великий мікросхеми на материнській платі, яка виступала «хабом» між CPU, оперативною пам'яттю, відеоадаптером і «південним мостом», який відповідав за пристрої введення-виведення: жорсткі диски, USB-порти, мережа, звук і слоти розширення PCI-X і PCI-Express. Поступовий «переїзд» функцій північного (а зараз і частини південного) мостів безпосередньо в CPU спричинив за собою і перенесення графічного ядра.

У продуктах Intel ви можете зіткнутися з такими графічними адаптерами:

Порівняно актуальні моделі

Шосте покоління, 2011-2012
Intel HD Graphics
Intel HD Graphics 2000
Intel HD Graphics 3000

Сьоме покоління, 2012
Intel HD Graphics 2500
Intel HD Graphics 4000

Сьоме покоління, 2013
Intel HD Graphics 4200
Intel HD Graphics 4400
Intel HD Graphics 4600
Iris Graphics 5000
Iris Graphics 5100
Iris Pro Graphics 5200

Восьме покоління, 2014+
Intel HD Graphics 5300
Intel HD Graphics 5500
Intel HD Graphics 6000
Iris Graphics 6100
Iris Pro Graphics 6200

Все, що нижче Intel HD 4400 - досить старі рішення. З висновком двомірної графіки у них проблем немає, з декодуванням відео - теж, але про ігри можна сміливо забути. Все, що вище, втім, теж особливої ​​продуктивністю в тривимірних додатках не блищить, але вже знаходиться на куди більш приємне рівні продуктивності.

Всі ці відеочіпи, в принципі, не призначені для складних ігор: казуальне браузеркі, тривимірні ігри десятирічної давності на середніх настройках цілком непогано запустяться з дозволом FullHD, але на більше розраховувати не варто.

Компанія AMD (не так давно присоединившая до себе виробника відеочіпів ATI, відому своєю лінійкою відеокарт Radeon), також пішла по шляху інтеграції GPU і CPU, але дещо іншим шляхом. AMD створили так зване APU - Accelerated Processing Unit (прискорене обробляє пристрій), по аналогії з CPU (Central Processing Unit, центральне обробляє пристрій). Лінійка гібридних процесорів називається Fusion і працює на сокеті FM (про сокетах і чіпсетах ми вже розповідали).

Продуктивність вбудованої графіки в A-серії процесорів AMD вище, ніж у Intel, сучасні іграшки йдуть непогано, але не варто забувати, що у вбудованого відеочіпа немає ні виділеної високосоростной пам'яті, ні якісного тепловідведення: теплопакет обмежений як площею розсіювання кришки, так і системами охолодження , доступними для процесора. Якщо ви можете собі дозволити зайві 5-7 тисяч на потужне охолодження, то їх, скоріше, варто витратити на окрему графіку, ніж намагатися вичавити з AMD Fusion зайві кадри в секунду.

Детальніше про гібридної графіки і розширенні її можливостей поговоримо як-небудь іншим разом, а зараз перейдемо до найцікавішого: дискретним відеокартам.

NVIDIA vs ATI-AMD

Війна така ж стара, як Intel vs AMD. Обговорювати, хто краще - все одно, що брати участь в спеціальної олімпіаді.

Що всередині відеокарти

Перш ніж перейти до пояснення, за що ми платимо такі гроші, треба розібратися у внутрішньому устрої графічного адаптера. Розглядати legacy-архітектуру з роздільними шейдерних процесорів не будемо, зупинимося на ключових моментах.

Майже вся сучасна тривимірна графіка (за рідкісним винятком) складається з набору трикутників, які в сфері 3D-моделювання називають «полігонами». З цих полігонів зібрані тривимірні моделі, поверх яких натягуються двомірні текстури. Після «натягування» текстури в хід йдуть спецефекти, з яких і формується картинка. Ось тут добре описані перетворення трикутників в готову картинку.

Усередині відеокарти весь висновок кожного кадру ділиться на два великі ділянки: стадію побудови геометрії (в якій, в основному, задіяні обчислювальні потужності) і стадію відтворення (в ній відбувається основний витрата пам'яті і споживається обчислювальний ресурс спеціальних апаратних прискорювачів).

Власне, ось параметри відеокарти, які нас цікавлять:

»Кодова назва ядра: мало за що відповідає, але стане в нагоді при порівнянні відеокарт всередині серії. Деякі виробники просто перейменовують торішні відеокарти, вішають на них нову назву з меншими цифрами або програмно обмежують продуктивність, і готово: старенька 9800GT перетворюється в NVIDIA GTX450. На щастя, останнім часом такі «фінти вухами» майже припиняючи.

»Техпроцесс: вимірюється в нанометрів, чим він менший - тим новіше GPU і тим менше його тепловиділення при інших рівних хараткерістікі.

»Кількість потокових процесорів: те, що раніше було« вершинними »і« пиксельними »шейдерних процесорів зараз приведено в уніфікований вид. Драйвер відеокарти сам вирішує, скільки блоків будуть займатися обробкою вершин, скільки - обробкою растрових точок. Чим їх більше, тим складніші сцени зможе переварити відеоадаптер, не створюючи затримок для інших обчислювальних блоків. Іншими словами: більше поковових процесорів - більше спецефектів в кадрі без втрати продуктивності.

»Частота ядра: власне, визначає швидкість роботи потокових процесорів і деяких інших модулів. Більше - краще.

»Кількість текстурних блоків: кількість блоків, що відповідають за накладення двомірних текстур на тривимірні моделі. Чим більше текстурних блоків, тим точніші текстури високого дозволу можна використовувати в налаштуваннях гри.

»Кількість блоків растеризації (блоків рендеринга): визначає можливості відеокарти по перетворенню готової картинки в кадр, який буде відправлений далі на монітор. Чим більше - тим менше проблем з виведенням картинки надвисокої роздільної здатності.

»Тип і частота пам'яті: чим швидше працює пам'ять - тим менше« пляшкове горлечко »між обчислювальним блоком відеокарти і збереженими на ній даними.

»Шина пам'яті: другий показник, що характеризує швидкість обміну даними процесора відеокарти з мікросхемами, на яких зберігаються потрібні блоки інформації. Перемноживши шину пам'яті на реальну частоту її роботи ми отримаємо пропускну здатність: кілька років тому, наприклад, відеокарти Radeon мали шину пам'яті 256 або 128 біт, але дуже високу частоту роботи пам'яті GDDR5. Відкрите NVIDIA, навпаки, використовували більш складну архітектуру: передавали 192, 256, 384 або 480 біт за раз, але працювали з більш дешевою і менш швидкою пам'яттю GDDR3.

Зараз дані параметри, скоріше, важливі в бюджетному сегменті, де періодично зустрічається як недорога пам'ять, так і сильно обрізана (аж до 64 біт) шина. Флагманські ж продукти перейшли на широкі шини і швидкісну пам'ять, і міряються, в основному, внутрішньої аріхетктурой і оптимізацією драйверів.

»Об'єм пам'яті: що не дивно, не дуже сильно виляє на продуктивність, якщо ви граєте на одному моніторі з роздільною здатністю 1920х1080 пікселів. Різниці між однаковими або порівнянними між собою відеокартами з 2, 3, 4 гігабайтами в такому випадку ви практично не помітите. Більший обсяг необхідний, якщо ви використовуєте многомоніторний конфігурацію або є ентузіастом в світі ПК: тобто працюєте і граєте на моніторах з роздільною здатністю 2560 × 1440 і 3840 × 2160 пікселів.

»Інтерфейс підключення і підтримувані версії DirectX / OpenGL: в нинішньому році майже всі відеокарти працюють з підтримкою зворотно сумісним PCI-E 2.0 / 3.0, а 4.0 знаходиться на стадії стандартизації. З OpenGL і DirectX все теж досить просто: знайти нову відеокарту без підтримки необхідних версій складно, а новомодні прискорювачі з перспективним DirectX 12 ускореют раніше, ніж значна кількість ігор почнуть широко використовувати можливості цих бібліотек. Можна не паритися на цю тему.

2 ядра, 2 гіга, ігрова відеокарта

Всі пам'ятають цей безглуздий слоган? З кожного праски віщав, а плакат з відповідною заявою висів на кожній станції метро. Що таке ігрова відеокарта? Власне, вся дискретна графіка (крім най-най дешевої і використовується лише через те, що в комп'ютері не було передбачено вбудованої графіки) - так чи інакше - ігрова.

У класифікації NVIDIA мінімально-пристойними «ігровими» варіантами можна назвати відеокарти, чий індекс закінчується на 40 і вище: 540, 640, 740, 840 і так далі. Крім того, сама компанія NVIDIA відносить до «ігровим» карти з префіксом GTX, букви GT позначають «мультимедійні» моделі. Іграшки на них запустяться, але ні шедеврів в області графіки, ні приголомшливою продуктивності можна не чекати.

У ATI-AMD до аналогічного сегменту відносяться відеоадаптери, що починаються з R7 (для нової лінійки) або мають індекс не нижче х5хх: 7530, наприклад.

Всі відеокарти, що мають цифри «менше»: NVIDIA GT820 або Radeon R5 230, скоріше, конкуренти для вбудованої в процесор графіки. Вивести презентацію на проектор, фільм на великий екран, запустити «доту» на мінімальних - потягнуть, але не більше.

З точки зору характеристик, описаних вище, ігровий можна назвати ту відеокарту, чиї обчислювальні потужності дозволяють виводити графіку сучасних ігор на середніх настройках з частотою хоча б 20-30 кадрів в секунду.

достатня продуктивність

Головне питання (крім бюджету), яке належить вирішити перед вибором дискретної відеокарти: що для вас означає «достатня продуктивність»? Якщо ви граєте в турнірні шутери (типу CS: GO), то загальна продуктивність відеосистеми тут не дуже критична. У такі ігри грають з мінімальною деталізацією (для отримання переваги в простоті виявлення мети), і головним питанням постає дозвіл вашого монітора: для «офісних» моделей 1280х1024 і 1376х768 або 1440х990 вистачить порівняно недорогих відеокарточек. FullHD зажадає більш потужну графіку, але все одно сильно не вдарить по гаманцю.

Якщо ж ви розраховуєте насолоджуватися перевагами дійсно крутий графіки (а не тієї розмазні, що нам показують на консолях під виглядом NextGen'a), то тут в хід йдуть дійсно «круті пушки»: флагманські і предфлагманскіе моделі.

Однак не варто забувати, що за графіком відповідає не тільки відеокарта, але і творець гри. Найкрасивіший бургер в ігровій індустрії з Battlefield hardline сусідить зі спрайтові хабарікі і презервативами.

Дозвіл і пам'ять

Вплив дозволу монітора на продуктивність графіки не помітна, поки ми не переходимо від класичних дозволів до того, що нам подарував прогрес: ретина-дисплеям, 4k2k-телевізорів і інших принад у вигляді 3-6 моніторів для авіа- і авто-симуляторів.

Фахівці з THG порівнювали флагманську відеокарту AMD 7970 з подвоєними мікросхемами пам'яті, загальний обсяг яких склав 6 Гб з такою ж, але володіє «звичайним» набором - 3 Гб. Тестування проводилося на системі Eyefinity-6 (за допомогою драйвера ATI шість моніторів були об'єднані в одну систему з дозволом 11 520 на 1080 пікселів.

Тестування проводилося на системі Eyefinity-6 (за допомогою драйвера ATI шість моніторів були об'єднані в одну систему з дозволом 11 520 на 1080 пікселів

Як бачите, саме в такий навантаженої середовищі зайві гігабайти дають приріст продуктивності: десь - суттєвий (в півтора рази), десь - не дуже. З іншого боку, одна відеокарта з таким об'ємом пам'яті не дозволяє отримати прийнятних показників за кількістю кадрів в секунду, так що гнатися за «зайвими» гігамі в іграх на даний момент немає сенсу: швидше, знадобиться другий відеокарта для досягнення нормального фреймрейта, ніж ви упретеся по пам'яті в трёхгіговую версію.

Що вибрати?

Якщо ви сильно-сильно обмежені в засобах, а ваш комп'ютер вчора вибухнув (цей матеріал ви читаєте з калькулятора на перфокартах, не інакше), то оптимальним вибором для іграшок стане покупка процесора AMD A-серії з вбудованою графікою.

AMD A6-5400K має відеоприскорювачем HD 7540D, він забезпечить ~ 25-30 кадрів в секунду в іграх типу Dota2 або League of Legends на середніх настройках з роздільною здатністю 1080p. У World of Warcraft ж доведеться грати на «мінімалку».

Якщо ви трохи менш обмежені в засобах, на допомогу прийдуть прискорювачі Radeon серії R7: 240, 250, 250X.

Їх продуктивність приблизно в півтора-два рази вище (залежно від версії), якщо порівнювати з вбудованою в AMD A6 графікою.

Трохи більш дорогим рішенням буде установка NVIDIA GTX750 / GTX750 Ti або AMD R7 260X / R7 265. Вони забезпечать безпроблемне існування у всяких MOBA-іграх, покажуть непогану картинку в сучасних гонках і шутерах і дозволять не відчувати дискомфорту в online-іграх. Середні настройки, FullHD дозвіл - без питань.

Відкрите середнього сегмента коштують трохи дорожче і мають, в принципі, порівнянної продуктивністю.

Ви можете орієнтуватися на будь-яку порівняно сучасну відеокарту від NVIDIA (760, 960) або AMD (R9 270, 270X, 280, 280х) - тут питання, скоріше, в товщині гаманця.

Залазити «вище» 70-й серії у NVIDIA і 290-й у AMD має сенс тільки в одному випадку: у вас стоїть монітор з роздільною здатністю 2560х1440 і вище. Втім, навіть такі карти як NVIDIA 770/970 будуть показувати відмінні результати на середніх налаштуваннях.

Про Sli і Crossfire замовте слово

Відчутний приріст по продуктивності, ви, звичайно ж, отримаєте: поставивши дві GTX970 замість однієї 980 ви отримаєте приблизно в півтора рази більше показники продуктивності і приблизно таке ж збільшення вартості комп'ютера. Проблема полягає в тому, що через пару-трійку років вам захочеться оновити відеокарту, і треба буде продавати не одну, а дві старих залізяки, і втратите ви і на курсі долара, і на тому, що залізяка подешевшала втричі. Кожна. Додайте сюди додаткові потужності БП, за які необхідно буде також заплатити ... Загалом, фінансова картинка не з найприємніших.

Друга неприємність: драйвери та ігри. Не у всіх іграх продуктивність двох відеокарт в зв'язці буде істотно вище, ніж однієї, але більш потужною.

різні виробники

Не дивлячись на те, що розробляють дискретні відеоприскорювачі дві компанії: NVIDIA і AMD, виробництвом і модернізацією «базового» дизайну займаються багато вендори: найпопулярніші - ASUS, MSI, Gigabyte, EVGA. Трохи менш популярні, але часто зустрічаються - Sapphire, Zotac, XFX. Інші виробники, зазвичай, відносяться до сегменту «лоукостерів» і постійно намагаються на чому-небудь економити (в основному - на харчуванні), вибирати їх варіанти відеокарт варто тільки якщо у вас немає в запасі 5-10% вартості залізяки на «спати спокійно» . У будь-якому випадку, у нас відмінний гарантійний сервіс, і якщо що з відеокартки і трапиться, вам її без проблем замінять або відремонтують.

В основному виробники змінюють дизайн ланцюгів харчування, збільшують робочі частоти, створюють різної збоченості системи охолодження і міряються довжиною гарантії. Про відмінності можна почитати, загугли конкретну модель відеокарти, наприклад, ASUS ROG MATRIX-GTX780TI - така картка може видавати на 3-5% вищі показники, ніж який-небудь аналог від Gigabyte або MSI. В цілому, орієнтуватися треба на відгуки в магазині, огляди і результати бенчмарків. Панацеї і гарантованого вирішення у вигляді Z краще, ніж Y - немає.

загальні поради

Відкрите застарівають дуже і дуже швидко. Якщо ви берете комп'ютер на кілька років вперед - не женіться за флагманської моделлю самого нового покоління: вона стоїть неадекватних грошей, і нерідко через рік втрачає до 50% вартості навіть на полицях магазинів. Придивіться до флагманів або пред-флагманів минулого покоління, їх продуктивність не буде сильно відрізнятися від моделей цього року, а от ціна може приємно порадувати.

Вибирайте відеокарту під своє залізо і потреби. Моделі з топових сегментів коштують дорого, більш того, якщо продуктивність різних відеокарт за 100 і 200 доларів можуть відрізнятися в два-три рази, то різниця між 200 і 300-доларовими екземплярами може бути в скромні 10%: наприклад, якщо ви граєте в Dota -подібні ігри або ганяєте в «Картоплю» - різниці між NVIDIA 760 і NVIDIA 980 ви не побачите, особливо якщо ваш процесор - старенький двоядерний Intel Core i3. 🙂

Апгрейд відеокарти має сенс проводити, якщо вас абсолютно не влаштовує продуктивність: зазвичай приріст «синтетичної» продуктивності між поколіннями (4xx і 5xx, 5хх і 6хх і т.д. у NVIDIA) становить близько 10-15%, реальної - вдвічі менше. Міняти вашу NVIDIA 560 на 660 або 760 немає сенсу, а ось заміна її на 960-ю (800-е покоління з незрозумілих причин маркетологи пропустили) - цілком здорове рішення. І приріст продуктивності буде відчутний, і енергоспоживання трохи знизиться, і пам'яті буде більше.

джерело

Що таке ігрова відеокарта?
Що вибрати?