+38 (093)  990-30-70

Новости

Королевский бал у Вас дома

Сучасні відеокарти на чіпсетах компанії NVIDIA

Олексій Шобанов

реді тих, хто хоч якось пов'язаний з використанням ПК в повсякденному житті, навряд чи знайдеться сьогодні хоч одна людина, якій не знайома абревіатура «NVIDIA» реді тих, хто хоч якось пов'язаний з використанням ПК в повсякденному житті, навряд чи знайдеться сьогодні хоч одна людина, якій не знайома абревіатура «NVIDIA». Назва цієї компанії вже давно стало свого роду синонімом поняття «відеокарта», а також символом найвищої продуктивності. Однак серйозна конкуренція в цьому секторі ІТ-ринку ніколи не дозволяє NVIDIA спочивати на лаврах, а останнім часом боротьба за лідерство загострилася настільки, що говорити про її беззастережне лідерство було б уже не зовсім коректно. Проте компанія NVIDIA була, є і, сподіваємося, буде і надалі одним з лідерів індустрії кремнієвої логіки для графічних карт. Компанія NVIDIA пропонує свої рішення для всього спектра графіки, починаючи від чіпсетів для недорогих відеокарт так званого low-end-сектора (тут доречно згадати і про наборах мікросхем системної логіки з інтегрованим графічним ядром серій nForce, nForce 2 і nForce 3, яке також можна зарахувати до бюджетних рішень відеопідсистеми) і закінчуючи наборами мікросхем для hi-end-графіки і професійних відеокарт.

Темою ж даного огляду стануть сучасні чіпсети NVIDIA покоління DirectX 9 з інтерфейсом AGP. Хоча ці набори мікросхем значно відрізняються за продуктивністю, ціною, і в тій чи іншій мірі, за своєю технічної реалізації, їх об'єднує те, що всі вони підтримують роботу API DirectX 9, а це, в свою чергу, обумовлює обов'язкову наявність підтримки піксельних і вершинних шейдеров версії 2.0. До числа таких чіпсетів слід віднести набори мікросхем серії GeForce FX, засновані на графічному ядрі NV30 (GeForce FX 5800 і GeForce FX 5800 Ultra), на який прийшов йому на зміну NV35 (GeForce FX 5900, GeForce FX 5900 Ultra і GeForce FX 5900 FX), на NV38 (GeForce FX 5950 Ultra), на NV31 (GeForce FX 5600 і GeForce FX 5600 Ultra), спадкоємцем якого стало ядро ​​NV36 (GeForce FX 5700 і GeForce FX 5700 Ultra), а також на ядрі NV34 (GeForce FX 5200, GeForce FX 5200 Ultra і GeForce FX 5500). C деяким застереженням до цього ж покоління можна віднести і останні чіпсети серії GeForce 6, поява яких стало новим етапом у розвитку комп'ютерної графіки, оскільки, крім іншого, графічне ядро ​​NV40, покладене в основу чіпів цієї серії, стало першим рішенням, що підтримує піксельні і вершинні шейдери версії 3.0. Таким чином, відкинувши вже залишають «велику сцену» чіпи на ядрі NV30 і NV31, в цьому огляді ми вирішили розглянути можливості наступних графічних чіпсетів компанії NVIDIA: GeForce FX 5500, GeForce FX 5700, GeForce FX 5700 Ultra, GeForce FX 5900 FX, GeForce FX 5900, GeForce FX 5900 Ultra, GeForce FX 5950 Ultra, GeForce 6800, GeForce 6800 GT, GeForce 6800 Ultra.

Почнемо наш огляд з короткою специфікації сучасних графічних чіпсетів NVIDIA, яка наочно ілюструє їх можливості, і, спираючись на ці дані, спробуємо вказати на переваги і недоліки цих рішень (табл. 1).

Таблиця 1. Технічні характеристики сучасних графічних чіпсетів NVIDIA

Представлені в таблиці чіпсети, що випускаються сьогодні компанією NVIDIA, практично повністю охоплюють всі цінові сегменти ринку ПК - від рішень для геймерів і ентузіастів (GeForce FX 5900 Ultra, GeForce FX 5950 Ultra, GeForce 6800, GeForce 6800 GT, GeForce 6800 Ultra) до ринку бюджетних ПК (GeForce FX 5500, а також GeForce FX 5200 і GeForce FX 5200 Ultra, що не увійшли в даний огляд). Маркетологи NVIDIA проводять більш загальний розподіл цих продуктів - наприклад графічні чіпи серії GeForce FX вони умовно розбивають на дві групи: perfomance (GeForce FX 5700, GeForce FX 5700 Ultra, GeForce FX 5900 FX, GeForce FX 5900, GeForce FX 5900 Ultra, GeForce FX 5950 Ultra) і mainstream (GeForce FX 5500, GeForce FX 5200 і GeForce FX 5200 Ultra). Основою для такої класифікації служать не тільки показники продуктивності і ціни чіпів, а й реалізовані в них технології (табл. 2).

Таблиця 2. Класифікація чіпсетів серії GeForce FX компанії NVIDIA

Мабуть, слід сказати кілька слів про те, що ховається за звучними назвами цих технологій.

Почнемо з CineFX. У загальному розумінні CineFX - це архітектура графічного ядра, яка дозволяє чіпам NVIDIA відтворювати різні ефекти кінематографічної якості для гра і інших прикладних задач в реальному часі. Найповніше характеризують дану архітектуру такі можливості, як гнучкість, адаптивність і программируемость. Так, для архітектури CineFX відсутнє поняття пиксельного конвеєра в класичному сенсі цього терміна. Тут вже немає набору незалежних, логічно завершених паралельно працюють функціональних одиниць - в даному випадку мова йде про якийсь наборі обчислювальних блоків (ALU) і блоків вибірки текстур. На основі поставлених завдань цей масив елементів утворює ланцюги, які є за своєю суттю тими самими пиксельними конвеєрами, при цьому адаптивно намагаючись відтворити найбільш продуктивну архітектуру за рахунок варіювання числа блоків вибірки текстур, пов'язаних в утворений конвеєр. Ще однією невід'ємною частиною архітектури CineFX є розширена підтримка піксельних і вершинних шейдеров DirectX 9, що особливо підкреслюється компанією NVIDIA: навіть в специфікаціях чіпів позначається номер версії шейдеров - 2.0 +. Що ж означає цей плюс? А то, що в відношенні піксельних шейдеров план перевиконано за всіма показниками: максимальна довжина пиксельного шейдера для графічного ядра з архітектурою CineFX практично необмежена (до 2048 інструкцій при необхідних 96), а крім того, набагато збільшено кількість заздалегідь заданих констант і тимчасових регістрів. Реалізація підтримки вершинних шейдеров також чесно заслужила свій значок, оскільки архітектура CineFX передбачає значне збільшення числа використовуваних регістрів.

Логічним продовженням архітектури CineFX стали її наступні версії - CineFX 2.0 (графічне ядро ​​NV35 і NV36 / 38) і CineFX 3.0 (графічне ядро ​​NV 40) - які характеризуються скоріше еволюційними, ніж революційними змінами. Так, наприклад, в архітектурі CineFX 2.0 була вдвічі збільшена продуктивність блоків роботи з числами з плаваючою комою, які використовуються при виконанні піксельних шейдеров.

Тепер розглянемо технологію Intellisample HCT (High-resolution Compression Technology), сущнсть якої в повній мірі відображена в її назві: HCT - це сукупність алгоритмів компресії текстур, буфера кадру і Z-буфера, що дозволяють значно збільшити продуктивність при роботі в великих дозволах. Так на офіційному сайті NVIDIA вказується, що при роботі з максимальними настройками якості зображення та вирішенні 1600Ѕ1200 і вище продуктивність збільшується до 50%. Тому цілком природним видається те, що в картах, які позиціонують компанією як mainstream-рішення, тобто в картах нижнього middle-end-рівня, подібна технологія відсутня.

Технологія UltraShadow - ще один спосіб знизити обчислювальну навантаження на графічне ядро. На цей раз хитрість полягає в тому, що при розрахунку тіней можна задавати граничні координати, до і після яких побудова тіней виконуватися не буде.

nView - це підтримувана ПО NVIDIA ForceWare технологія, яка забезпечує можливість багатоекранної роботи. Підключивши до відеокарти два монітори (сьогодні це дозволяють робити все побудовані на перерахованих графічних чіпах відеокарти), користувач отримує можливість за допомогою NVIDIA nView конфігурувати вдвічі більше віртуальний робочий простір. Наприклад, маючи один комп'ютер, можна на одному моніторі переглядати презентацію, а на іншому - працювати, припустимо, з документом Word.

Всі вищеописані класифікації і технології відносяться до чіпів серії NVIDIA GeForce FX, а рішення покоління GeForce 6 при цьому виявилися осторонь. І це не випадково: сьогодні графічні карти на графічному ядрі NV40 - це топове рішення поза класифікацій. Чіпсети на його основі складно вписати в рамки, за якими ранжируют графіком сімейства GeForce FX, - це буде виглядати так само безглуздо, як спроба знайти велетню належне місце в строю карликів. Адже навіть самий скромний з чіпів GeForce 6 - GeForce 6800, що позиціонується в своєму класі як рішення для широкого кола користувачів (mainstream), за своїми можливостями не йде ні в яке порівняння навіть з самим продуктивним рішенням серед серії GeForce FX. Тому окремо зупинимося на тих напрацюваннях і технологіях, які фахівці компанії NVIDIA реалізували в графічному ядрі NV40.

При створенні цього графічного ядра нового покоління застосовувався як екстенсивний так і інтенсивний підхід. Перший знайшов своє вираження в збільшенні числа піксельних конвеєрів (хоча говорити про конвеєрі в звичному розумінні тут не можна), які тепер можуть обробляти до 16 пікселів за такт. Кількість вершинних конвеєрів було збільшено до 6. Якісні ж зміни торкнулися реалізації підтримки піксельних і вершинних шейдеров. Відносно графічного ядра NV40 мова йде вже не про розширених можливостях шейдеров в версії 2.0, а про повноцінну реалізації шейдеров версії 3.0, що має на увазі використання в вершинних і піксельних програмах-шейдерах динамічних розгалужень і циклів. Дані нововведення свідчать про те, що ядро ​​NV40 побудовано на основі нового покоління архітектури CineFX - CineFX 3.0, що дозволяє домогтися ще більш реалістичного зображення, що стало черговим кроком на шляху до реалізації комп'ютерної графіки кінематографічного якості. У чіпах серії GeForce 6 була вдосконалена і описана вище технологія UltraShadow, яка тепер носить назву UltraShadow II. У ній, як і раніше, отрисовка тіней відбувається тільки в заданому діапазоні, але на цей раз швидкість розрахунків збільшилася, чому в чималою мірою сприяє той факт, що при роботі з Z-буфером і буфером шаблонів піксельні конвеєри графічного ядра NV40 здатні подвоїти швидкість і обробляти не 16, а 32 пікселя за такт. Ще одним нововведенням, за допомогою якого підвищується реалістичність комп'ютерного зображення, стала технологія NVIDIA HPDR (High-Precision Dynamic Range). Застосування даної технології дозволяє будувати сцени з високим динамічним діапазоном освітленості за рахунок реалізації повноцінної підтримки обчислень з плаваючою комою при виконанні операцій фільтрації, текстурування, змішання і згладжування; при цьому використовується формат представлення даних OpenEXR. І нарешті, в графічному ядрі NV40 реалізований програмований відеопроцесор, що дозволило значно знизити завантаження центрального процесора і поліпшити якість при перегляді відео в форматах MPEG-1/2/4 і WMV9, а також HDTV. Це стало можливим завдяки реалізації апаратної підтримки кодування і декодування перерахованих форматів представлення відеопотоку.

На закінчення кілька тривалої теоретичної частини варто, мабуть, розповісти про «генеалогічному древі» описуваних графічних чіпсетів, оскільки визначення «родинних» зв'язків дозволить більш точно позиціонувати чіпсет, спираючись на розуміння їх архітектури і закладених в них функціональних можливостей. Почнемо з сімейства GeForce FX.

Родоначальником GeForce FX можна вважати графічне ядро ​​NV30, яке лягло в основу графічних чіпсетів GeForce FX 5800/5800 Ultra. Не можна сказати, що це графічне ядро ​​стало великою удачею компанії NVIDIA, основною причиною чого стало, напевно, не саме вдале рішення в організації роботи з відеопам'яттю - 128-бітний контролер, енергоємна «гаряча» пам'ять GDDR2, як наслідок, додаткові проблеми по організації її охолодження. Прямими спадкоємцями архітектури NV30 стали графічні ядра NV31 (GeForce 5600/5600 Ultra) і NV34 (GeForce 5200/5200 Ultra і GeForce 5500), які, по суті, є урізаними версіями NV30, хоча і мають свої особливості, наприклад повернення до графічної пам'яті GDDR .

Врахувавши недоліки первістка серії GeForce FX - графічного ядра NV30 - по закінченню досить невеликого часу компанія NVIDIA випустила на ринок нове покоління графічних чіпів GeForce 5900, побудованих на основі нового топового графічного ядра - NV35. При створенні цього ядра був використаний 256-бітний контролер відеопам'яті, в якості якої використовувалися модулі GDDR. Мабуть, можна навіть говорити про те, що ревізії і доопрацювання була піддана вся архітектура CineFX, що лягли в основу створення графічного ядра NV30, - тепер вона стала іменуватися CineFX 2.0. У чому полягають ці зміни - вже було описано вище. Крім того, в графічному ядрі NV35 вперше була реалізована технологія UltraShadow, а вдосконалені алгоритми компресії текстур, буфера кадру і Z-буфера були об'єднані під егідою технології Intellisample HCT (High-Resolution Compression Technology). Доля чіпсетів на ядрі NV35 виявилася куди більш вдалою, ніж його попередника - чіпи GeForce FX 5900XT / 5900/5900 Ultra, в основу якого лягло саме це графічне ядро, і стали предметом нашого розгляду. Але вінцем серії GeForce FX стало графічне ядро ​​NV38 і заснований на ньому чіпсет GeForce FX 5950 Ultra. Хоча за своєю суттю це графічне ядро ​​є розігнаної версією NV35, проте і тут не обійшлося без інновацій. Так, була змінена конструкція системи охолодження, а крім того, чіпи на графічному ядрі NV38 мають два режими роботи - 2D і 3D, з автоматичним перемиканням між ними. Це дозволяє знизити тепловиділення графічного чіпа, а також зменшити швидкість обертання (і відповідно знизити шум) вентилятора охолодження графічної карти, що стає можливим завдяки зниженню тактової частоти графічного ядра при роботі з нересурсоємних 2D-графічними додатками. Як і у випадку з NV30, для охоплення більшого спектру ринку відеокарт компанія NVIDIA випустила і бюджетні рішення, в основу яких були покладені напрацювання, реалізовані в графічному ядрі NV35. На цей раз в ролі молодших братів виступили графічні чіпи GeForce FX 5700/5700 Ultra (ядро NV36). Хоча в даному випадку правильніше говорити про те, що NV36 - це все ж спрощений варіант ядра NV38, а не NV35. Підставою для такого твердження послужив той факт, що, як і GeForce FX 5950 Ultra, графічні чіпи NVIDIA GeForce FX 5700/5700 Ultra мають два режими роботи - для 2D- і 3D-графіки. При цьому, як у випадку з NV38, графічне ядро ​​NV36 в 2D-режимі працює на частоті 300 МГц.

Говорячи про появу полегшених варіантів типових моделей графічних чіпів з метою розширити спектр що випускаються графічних рішень, потрібно звернути увагу і ще на на один підхід, широко застосовуваний сьогодні провідними виробниками. Його суть зводиться до того, що на основі одного графічного ядра випускаються кілька варіантів чіпів, що розрізняються лише тактовою частотою роботи ядра і відіопамяті. Зазвичай модельний ряд таких рішень включає базовий чіп і його «прискорену» (Ultra) і «сповільнену» (XT) версії.

Про побудову «родового дерева» сімейства GeForce 6 говорити поки не доводиться, хоча ядро ​​NV40 вже дало перший втечу - NV43. Це перше графічне ядро ​​від NVIDIA, що має рідний інтерфейс PCI Express 16x. Хоча розгляд графіки з цим інтерфейсом виходить за рамки даного огляду, проте, як тільки мова зайшла про відеокарти з інтерфейсом PCI Express, варто сказати, що до появи графічного ядра NV43 все раніше випускаються компанією NVIDIA чіпсети для цього інтерфейсу були всього лише тандемом графічного AGP- процесора і моста AGP-PCI Express. Наприклад, під ім'ям GeForce PCX 5750 ховається добре знайомий нам чіп GeForce FX 5700.

Після розлогих теоретичних викладок прийшов час перейти до практичної частини нашого огляду. Ми спробуємо оцінити можливості відеокарт, побудованих на основі розглянутих графічних чіпсетів NVIDIA, при роботі з сучасними ресурсоємними додатками. Для цієї мети нами було проведено тестування наступних відеокарт: WinFast A400 Ultra TDH (GeForce 6800 Ultra), WinFast A400 GT TDH (GeForce 6800 GT), Chaintech Apogee AA6800 і ASUS V9999GE (GeForce 6800), Gigabyte GV-N595U256GT (GeForce FX 5950 Ultra ), ASUS V9950 Ultra (GeForce FX 5900 Ultra), Point of view FX-5900 (GeForce FX 5900), Point of view FX-5900XT (GeForce FX 5900XT), MSI FX5700 Ultra-TD128 (GeForce FX 5700 Ultra), MSI FX5700 -TD128 (GeForce FX 5700), Point of view FX-5500 GeForce FX 5500) і Albatron PCX5750 (GeForce PCX 5750). Остання з перерахованих відеокарт була взята для того, щоб на практиці оцінити вплив зміни інтерфейсу на продуктивність графічного чіпа (нагадаємо, що, як зазначено вище, графічний чіпсет GeForce PCX 5750 являє собою чіп GeForce FX 5700, який взаємодіє з PCI Express-інтерфейсом за допомогою додаткового чіпа -моста AGP-PCI Express 16x).

Остання з перерахованих відеокарт була взята для того, щоб на практиці оцінити вплив зміни інтерфейсу на продуктивність графічного чіпа (нагадаємо, що, як зазначено вище, графічний чіпсет GeForce PCX 5750 являє собою чіп GeForce FX 5700, який взаємодіє з PCI Express-інтерфейсом за допомогою додаткового чіпа -моста AGP-PCI Express 16x)

Чіпсет GeForce PCX 5750

Основний упор при проведенні тестування робився на оцінку продуктивності в сучасних 3D-іграх, для чого були використані тестові сцени з таких популярних комп'ютерних ігор, як FarCry, Tomb Raider: The Angel of Darkness, Unreal Tournament 2004, Serious Sam: Second Encounter і, звичайно ж, DOOM III. Як синтетичних тестів, що дозволяють визначити продуктивність графічних карт при роботі з 3D- і 2D-додатками, були використані тестові пакети FutureMark 3DMark 2003 (build 340) і FutureMark PCMark 2004 відповідно. Крім того, ми спробували оцінити можливості тестованих відеокарт при роботі з професійними графічними OpenGL-додатками (для чого скористалися тестової утилітою SPEC Viewperf 8.0.1), а також при роботі з популярним пакетом Discreet 3d studio max 6.0 (тест SPECapc_3dsmax_rev1_1). Для проведення тестування були зібрані два стенди наступної конфігурації:

• для карт з AGP-інтерфейсом:

- центральний процесор - Intel Pentium 4 3,4 ГГц,

- системна пам'ять - 2Ѕ512 DDR400 (PC3200),

- материнська плата - Intel D875PBZ,

- дискова підсистема - 2ЅMaxtor MaXLine III (250 Гбайт), зібрані в RAID-масив 0-го рівня;

• для карт з інтерфейсом PCI Express 16x:

- процесор - Intel Pentium 4 550 (3,4 ГГц),

- пам'ять - 2Ѕ512 DDR2 533,

- материнська плата - Intel D925XCV,

- дискова підсистема - 2ЅMaxtor MaXLine III (250 Гбайт), зібрані в RAID-масив 0-го рівня.

Тестування проводилося під управлінням операційної системи Windows XP SP1 з встановленою версією API DirectX 9.0. Для забезпечення роботи випробовуваних відеокарт використовувалися відеодрайвери ForceWare 61.77. Внесемо деяку ясність щодо усіленногов тестуванні уваги графічних карт на чіпах NVIDIA GeForce 6800. Справа в тому, що моделі Chaintech Apogee AA6800 і ASUS V9999GE спочатку виконані з дещо збільшеної тактовою частотою роботи графічного ядра і пам'яті. З цієї причини ми вирішили і показати можливості як доопрацьованих рішень, і протестувати одну з цих карт в штатних частотах, що визначаються специфікаціями чіпа GeForce 6800.

Отримані в ході тестування результатів не принесли ніяких несподіванок (табл. 3 і 4 ): За рівнем демонстрованої продуктивності відеокарти розташувалися строго відповідно до рангу графічних чіпів, що лежать в їх основі. Відзначимо лише три моменти. По-перше, при аналізі результатів тестування стає очевидним перевага відеокарт, побудованих на основі графічного ядра NV40, над картами сімейства GeForce FX, причому ця перевага наростає при збільшенні навантаження на видеоподсистему (при збільшенні дозволу і поліпшення налаштувань якості зображення). Звертає на себе увагу і кращу якість «картинки» нових чіпів покоління GeForce 6. Так, наприклад, значно покращилась якість повноекранного згладжування за рахунок використання мультісемплінг на поверненою решітці. По-друге, при перегляді результатів, показаних тестованими картами в таких надзвичайно вимогливих до ресурсів іграх, як FarCry, Tomb Raider: The Angel of Darkness, DOOM III, стає ясно, що комфортну гру з прийнятними настройками якості здатні забезпечити лише графічні карти починаючи від GeForce 5900 і вище. А по-справжньому насолодитися красою подібної 3D-графіки дозволяють тільки графічні карти сімейства NVIDIA GeForce 6 - природно при наявності відповідної їм по продуктивності всієї комп'ютерної системи в цілому. І по-третє, PCI Express-карти, незважаючи на всі переваги цього інтерфейсу, в своєму нинішньому вигляді не дають ніяких переваг в порівнянні з їх AGP-аналогами.

І по-третє, PCI Express-карти, незважаючи на всі переваги цього інтерфейсу, в своєму нинішньому вигляді не дають ніяких переваг в порівнянні з їх AGP-аналогами

Таблиця 3. Результати тестів FutureMark 3DMark 2003 (build 340) і FutureMark PCMark 2004

Але якщо з приводу продуктивності сучасних відеокарт, побудованих на графічних чіпах NVIDIA, все було відомо заздалегідь і загальний порядок отриманих результатів міг передбачити будь-який знайомий з предметом людина, то питання оптимальності покупки напевно викличе суперечки. Проте висловимо свою думку з цього приводу: оптимальним співвідношенням «якість / ціна» з позиції звичайного домашнього користувача, на наш погляд, мають відеокарти на чіпах NVIDIA GeForce FX 5900XT, ну а завзятим геймерам ми б порекомендували відеокарти на основі графіки NVIDIA GeForce 6800GT .

Редакція висловлює вдячність компаніям, що надали відеокарти для тестування:

  • компанії Albatron Technology ( www.albatron.com.tw , www.albatron.ru ) За відеокарту Albatron PCX5750;
  • компанії Chaintech Computer ( www.chaintech.com.tw , www.chaintech.ru ) За відеокарту Chaintech Apogee AA6800;
  • компанії Leadtek ( www.leadtek.com.tw ) За видеокарти WinFast A400 GT TDH і WinFast A400 Ultra TDH;
  • російському представництво компанії ASUSTeK Computer, Inc. ( www.asus.ru ) За відеокарти ASUS V9999GE і ASUS V9950 Ultra;
  • російському представництву компанії Giga-Byte Technology ( www.gigabyte.com.tw , www.gigabyte.ru ) За відеокарту Gigabyte GV-N595U256GT;
  • компанії INLINE ( www.inline-online.ru ) За відеокарти MSI FX5700 Ultra-TD128 і MSI FX5700-TD128;
  • компанії R & K ( www.r-andk.com ) За відеокарти Point of view FX-5900, Point of view FX-5900XT і Point of view FX-5500.

КомпьютерПресс 10'2004


Що ж означає цей плюс?