+38 (093)  990-30-70

Новости

Королевский бал у Вас дома

Тестування GeForce 8600 GTS SLI в іграх під DirectX 10

статті

Опубліковано: 11.10.2007

Автор: S_A_V

Серед ігор, що з'явилися за останні кілька місяців, вже є такі, які можуть використовувати можливості нової 10-ї версії DirectX. Звичайно, для цього необхідна операційна система Windows Vista, так як всі інші ОС від Microsoft до цих пір не мають підтримки DirectX, більш того, вона не планується і в майбутньому. Тобто при переході з ігор під DirectX 9, які цілком нормально працюють в Windows XP, на ігри під DirectX 10, необхідно замінити не тільки відеокарту на новішу з відповідною підтримкою, але так само і операційну систему - на більш сучасну, але (поки що) і більш повільну.

Від переходу до використання DirectX 10 в іграх неминуче збільшується не тільки навантаження на графічну підсистему комп'ютера, але і менш ефективне використання обчислювальної потужності. А що отримуємо натомість? Ледь помітне поліпшення графіки, яке треба розглядати на скріншотах з багаторазовим збільшенням, щоб відчути різницю. В майбутньому ця ситуація може істотно змінитися, коли для створення ігор під DirectX 10 будуть використовувати нові двигуни, розроблені спочатку з урахуванням нової версії цього API, а не допрацьовані старі, до яких без особливих оптимізацій, як за швидкістю, так і за якістю, « прикрутили »нові можливості.

А що стосується Windows Vista, то тут теж все не стоїть на місці, під нову ОС постійно випускаються оновлення, список яких до кінця серпня вже наближався до трьох сотень. Частина цих оновлень була призначена саме для вирішення проблеми низької продуктивності, але, незважаючи на це, відставання від Windows XP все ще велика.

На момент написання цієї статті було доступно тільки чотири гри, здатні працювати як в DirectX 9, так і в DirectX 10. Company of Heroes отримала таку можливість починаючи з оновлення до версії 1.70, а решта (Lost Planet: Extreme Condition, World in Conflict, BioShock) мали її спочатку. Крім того, ще є DirectX 10 бенчмарк на основі оновленого движка гри Call of Juarez, який в DirectX 9 на відміну від самої гри, не працює. Щоб визначити настільки сильно знизиться рівень продуктивності при переході від зв'язки «Windows XP / DirectX 9" до "Windows Vista / DirectX 10», всі перераховані вище гри і бенчмарки були протестовані за допомогою двох відеокарт GeForce 8600 GTS виробництва Chaintech. Тестування було проведено як в режимі одиночної відеокарти, так і в режимі SLI, на номінальних частотах і з розгоном (в тому числі із застосуванням вольтмод).

Огляд Chaintech GSE86GTS (GeForce 8600GTS)

Відеокарта, що поставляється в Retail-варіанті, упаковується в більшу коробку, на якій перераховані її основні характеристики:

Відеокарта, що поставляється в Retail-варіанті, упаковується в більшу коробку, на якій перераховані її основні характеристики:

На зворотному боці присутня цікава таблиця під назвою «Which Graphics Processor is Right for You?» (Який GPU вам краще підходить). Відповідно до цієї таблиці, серія GeForce 7900 націлена на «екстремальних геймерів і ентузіастів» і має індекс продуктивності 20x (розраховується на основі результату в 3DMark06), а серія GeForce 8600 - на «звичайних геймерів» і її індекс продуктивності 17x. Тобто, навіть не відкриваючи коробку, вам відразу ж дають зрозуміти - немає сенсу міняти топову відеокарту попереднього покоління на представника middle-end останнього, буде працювати повільніше.

Тобто, навіть не відкриваючи коробку, вам відразу ж дають зрозуміти - немає сенсу міняти топову відеокарту попереднього покоління на представника middle-end останнього, буде працювати повільніше

У комплект поставки входять:

  • керівництво користувача;
  • диск з драйверами ForceWare;
  • кабель RCA і кабель S-Video;
  • перехідник DVI / D-SUB;
  • перехідник HDTV-out;
  • перехідник для підключення додаткового живлення (2 x 4-pin Molex -> 6-pin PCI-E);

керівництво користувача;   диск з драйверами ForceWare;   кабель RCA і кабель S-Video;   перехідник DVI / D-SUB;   перехідник HDTV-out;   перехідник для підключення додаткового живлення (2 x 4-pin Molex -> 6-pin PCI-E);

Відеокарта відрізняється від референсної GeForce 8600GTS тільки наклейкою на кулері:

Відеокарта відрізняється від референсної GeForce 8600GTS тільки наклейкою на кулері:

Сам кулер алюмінієвий з рівною мідною вставкою в місці контакту з GPU і підключається до карти за допомогою 4-пинового коннектора.

Сам кулер алюмінієвий з рівною мідною вставкою в місці контакту з GPU і підключається до карти за допомогою 4-пинового коннектора

Він контактує з усіма чотирма чіпами пам'яті через термопрокладки. Як термоінтерфейсу використовується звичайна сіра термопаста, яка має властивість швидко засихати і скочується в грудки при спробах завдати її тонким шаром.

Як термоінтерфейсу використовується звичайна сіра термопаста, яка має властивість швидко засихати і скочується в грудки при спробах завдати її тонким шаром

Як вже було сказано вище, відеокарта заснована на референсном дизайні і має стандартний набір інтерфейсів - два DVI, HDTV-out, роз'єм додаткового 6-пинового харчування і роз'єм для з'єднання двох відеокарт в SLI.

Як вже було сказано вище, відеокарта заснована на референсном дизайні і має стандартний набір інтерфейсів - два DVI, HDTV-out, роз'єм додаткового 6-пинового харчування і роз'єм для з'єднання двох відеокарт в SLI

На карту встановлений графічний процесор G84 ревізії A2, який має 32 потокових процесора і 128-бітну шину пам'яті. Він працює на стандартних для GeForce 8600 GTS частотах - 675 МГц геометричний блок і 1458 МГц шейдерний блок. Дата виробництва GPU - 8 тиждень 2007 року. Ніякого захисту від відколів у вигляді рамок, гумок або теплорозподільника не передбачено. Навколо GPU розташовані чотири отвори для кріплення системи охолодження. Діаметр цих отворів трохи менше трьох міліметрів, що накладає обмеження на використання деяких альтернативних систем охолодження, а зокрема водоблоков і вимагає використання кріпильних гвинтів не товще ніж 2.5-мм.

256 Мб DDR3 пам'яті встановлено на лицьовій стороні відеокарти у вигляді чотирьох мікросхем Samsung K4J52324QE-BJ1A, випущених на 49-му тижні 2006 року, мають час доступу 1.0-ns і щільність 512 Мбіт.

Номінальна частота цієї пам'яті становить 1000 МГц (2000 МГц ефективної частоти DDR), але сама відеокарта працює з трохи більш високою частотою пам'яті - 1008 (2016 МГц).

Розгін без модифікацій і температурний режим

Для розгону відеокарти, а так само моніторингу частот і температур використовувалася утиліта RivaTuner v2.03, а нагрів і перевірка на стабільність відбувалася за допомогою 15-ти хвилинного тесту «волохатим кубом» в ATITool v0.27 beta 2. Перевірка температурного режиму проводилася тільки з однієї встановленої в системі відкритий. Обороти вентилятора системи охолодження не змінювалися і регулювалися відкритий автоматично.

Для початку відеокарта була перевірена на температурний режим при роботі на номінальних частотах 675 (1458) / 2016 МГц:

Для початку відеокарта була перевірена на температурний режим при роботі на номінальних частотах 675 (1458) / 2016 МГц:

Потім був визначений межа розгону без будь-яких модифікацій, який склав 742 (1620) / 2304 МГц. Розгін по GPU вийшов на середньому рівні, а по пам'яті прибавка трохи більше 300 МГц це дуже непогано. Подивимося наскільки збільшилася температура після розгону відеокарти:

Подивимося наскільки збільшилася температура після розгону відеокарти:

А збільшилася вона зовсім незначно - всього на три градуси під навантаженням. Стоковий кулер цілком успішно справляється з охолодженням відеокарти при розгоні без модифікацій, але для подальшого розгону з вольтмод він уже не підходить, так як запасу по температурі майже не залишається.

Вольтмод референсних відеокарт GeForce 8600GTS

Перш ніж приступати до вольтмод відеокарт GeForce 8600 GTS, що мають референсний дизайн PCB, подбайте про поліпшення охолодження. Як вже було сказано вище, стоковий кулер недостатньо ефективний, щоб утримати температуру GPU в прийнятних рамках навіть при невеликому підвищенні напруги.

Вольтмод GPU:

В якості контролера напруги GPU на референсних відкритих 8600GTS використовується мікросхема Intersil ISL6568, розташована на зворотному боці в лівій верхній частині карти. З її характеристиками можна ознайомитися, завантаживши datasheet з сайту виробника (PDF, 720 Кб).

Напруга за замовчуванням на GeForce 8600 GTS становить 1.35V, і підняти його можна трьома різними способами на три фіксовані величини - 0.05V, 0.10V і 0.30V. Ці способи можна комбінувати в довільному порядку, отримуючи необхідну підсумкове напруга на GPU (аж до 1.80V). Всі можливі варіанти зведені в одну таблицю:

Збільшення Vgpu на 0.05 V - ++ - ++ Збільшення Vgpu на 0.10 V - ++++ Збільшення Vgpu на 0.30 V ---- ++++ Необхідність OCP - mod'анетнетнетнетдададада Підсумкове Vgpu1.35 V1 .40 V1.45 V1.50 V1.65 V1.70 V1.75 V1.80 V

OCP-mod (зняття захисту по струму) буде описаний нижче, а спочатку розглянемо два найбільш простих способи, заснованих на зміні VoltageID (VID-mod):

Для підняття напруги GPU на + 0.05V і / або + 0.1V, потрібно з'єднати контакти за допомогою струмопровідного клею або маркера так, як це показано на малюнку вище. Олівець в даному випадку не підходить, так як початковий опір між цими точками величезне, а знизити його потрібно до нуля.

Максимальна напруга, яке можна отримати за допомогою VID-Mod'а, становить 1.50V. Для постійного використання на цьому можна і зупинитися, але при наявності досить ефективного охолодження і бажання «вичавити з G84 частоту в 1 гігагерц», такої напруги буде недостатньо. В цьому випадку потрібно виконати ще одну модифікацію:

В цьому випадку потрібно виконати ще одну модифікацію:

Для збільшення Vgpu на 0.3V необхідно випаять резистор, вказаний на зображенні вище і замінити його іншим, що має номінал 50K Ом. Проконтролювати отримане напруга можна на ногах конденсатора, зазначених як «Vgpu measure points».

Зняття захисту по струму:

При збільшенні напруги на GPU, так само збільшується і споживаний їм струм. І якщо після вольтмод відеокарта не стартує, відключається або «йде в чорний екран» (зазвичай це буває в моменти найбільшого навантаження), то однією з можливих причин, за якими це може відбуватися - спрацьовування захисту по струму (overcurrent protection). На референсних відкритих GeForce 8600 GTS, на жаль, такий захист є і, щоб позбутися від неї, потрібно випаять резистор, позначений на зображенні як «remove this resistor (OCP-mod)».

Вольтмод пам'яті:

Напруга на пам'яті контролюється мікросхемою Intersil ISL6549, розташованої на зворотному боці в нижньому лівому куті карти. Datasheet на неї можна завантажити з сайту виробника (PDF, 437Kb). Але бувають відеокарти, на яких замість Intersil ISL6549 може бути встановлена ​​інша мікросхема - Anpec APW7067 ( datasheet , PDF, 1596Kb). Ці дві мікросхеми є взаємозамінними аналогами, призначення ніг у них збігається, так що і вольтмод на них теж робиться однаково.

Ці дві мікросхеми є взаємозамінними аналогами, призначення ніг у них збігається, так що і вольтмод на них теж робиться однаково

Для вольтмод пам'яті потрібно з'єднати 4-ю (feedback) і 7-ю (земля) ноги мікросхеми контролера через змінний резистор 20K Ом, попередньо викручений на максимальний опір. Проконтролювати отримане напруга можна на ногах конденсатора, зазначених як «Vmem measure points».

Олівцем вольтмод пам'яті:

Для підвищення напруги на пам'яті потрібно зафарбувати резистор, зазначений на зображенні як «Pencil Vmem-mod». Перевірити отримане після зафарбовування опір можна за допомогою цього графіка:

Перевірити отримане після зафарбовування опір можна за допомогою цього графіка:

Зворотний вольтмод пам'яті:

Для зниження напруги на пам'яті потрібно з'єднати 4-ю (feedback) і 13-ю (phase) ноги мікросхеми контролера через змінний резистор 20k Ом або зафарбувати олівцем резистор, зазначений на зображенні як «Pencil reverse Vmem-mod».

Розгін з вольтмод і температурний режим

Перед перевіркою вольтмод відеокарти Chaintech 8600 GTS на практиці, на неї для охолодження графічного процесора була встановлена ​​система водяного охолодження, а для охолодження чіпів пам'яті - алюмінієві радіатори Zalman і додатковий обдув 120-мм вентилятором. Потім напруга на GPU було піднято до 1.45V за допомогою VID-Mod'а, а на пам'яті - до 2.21V. В результаті цього розгін після вольтмод збільшився до частот 828 (1782) / 2376 МГц. Температура GPU в цьому режимі склала + 39 ° С в спокої і + 47 ° С під навантаженням:

Подальший розгін GPU обмежувався низькою напругою, а пам'ять навпаки розігналася до своєї межі і подальше підвищення напруги на ній вже не допомагало.

Тестова конфігурація і драйвери

Для тестування був використаний відкритий стенд з наступною конфігурацією:

  • Материнська плата - EVGA 122-CK-NF68, nForce 680i SLI, BIOS P30;
  • Процесор - Intel Core 2 Duo E6600 B2;
  • Пам'ять - Corsair Dominator TWIN2 × 2048-8500C5D, 2 × 1024Mb, PC2-8500, 1066MHz, 5-5-5-15 2T, 2.2V, SLI-ready;
  • Відеокарта - Chaintech GSE86GTS, GeForce 8600GTS, 256Mb DDR3 (Samsung 1.0-ns), PCI-E;
  • Жорсткий диск - Western Digital WD800BB, 80Gb, ATA / 100;
  • Система охолодження - СВО (водоблок Cool River, помпа Hydor L25, радіатор від автомобільної грубки з двома 120-мм вентиляторами);
  • Термопаста - Arctic Silver 5;
  • Блок живлення - Chieftec GPS-620AB-A 620W.

Процесор був розігнаний до частоти 3701 MHz (9 × 411) з підняттям напруги до 1.45V:

Оперативна пам'ять працювала на частоті 1005 MHz з підняттям напруги до 2.30V, а її таймінги були встановлені таким чином:

Для тестування в бенчмарках і іграх з використанням можливостей DirectX 10 була використана операційна система Windows Vista Ultimate (x86), на яку були встановлені всі 278 оновлень, що вийшли з моменту випуску цієї ОС по 27 серпня 2007 року включно. А тестування в режимі DirectX 9 було проведено в Windows XP Pro Service Pack 2 (x86). На обидві системи було встановлено останнє оновлення DirectX від серпня 2007 року, драйвера для чіпсета NVIDIA nForce (версії 9.53 для XP і 15.01 для Vista), а так же бета-версія драйвера NVIDIA ForceWare v163.44. Взагалі-то спочатку було вирішено провести тести з останнім офіційним релізом ForceWare версії 162.18, але ця версія була визначена інсталятором гри BioShock як проблемна, після чого інсталятор порадив завантажити і встановити замість неї бета-версію 163.44, що і було зроблено.

Налаштування драйвера ForceWare були встановлені таким чином:

  • Intellisample Settings: High Quality
  • Trilinear Optimization: Off
  • Anisotropic mip filter optimization: Off
  • Anisotropic sample filter optimization: Off
  • Transparency Antialiasing: Off
  • VSync: Always Off

Тестування в DirectX 8/9 бенчмарках

Спочатку відеокарти були протестовані в стандартному наборі бенчмарков, що складається з 3DMark всіх версій і Aqiamark3:

  • 3DMark06 v1.1.0 - 1280 × 1024, NoAA / NoAF;
  • 3DMark05 v1.3.0 - 1024 × 768, NoAA / NoAF;
  • 3DMark03 v3.6.0 - 1024 × 768, NoAA / NoAF;
  • 3DMark2001SE build 330 - 1024 × 768, NoAA / NoAF;
  • Aquamark03 - 1024 × 768, NoAA / 4xAF.

У всіх бенчмарках використовувалися стандартні настройки.

Всі тести GeForce 8800 GTS (як на одиночній відеокарті, так і на двох в режимі SLI), були проведені в трьох режимах з різними частотами:

  • 675 (1458) / 2016 МГц - без розгону;
  • 742 (1620) / 2304 МГц - розгін без будь-яких модифікацій;
  • 828 (1782) / 2376 МГц - розгін з невеликим вольтмод (Vgpu = 1.45V, Vmem = 2.21V), водяне охолодження на GPU, алюмінієві радіатори Zalman на чіпах пам'яті, додатковий обдув 120-мм вентилятором;

21V), водяне охолодження на GPU, алюмінієві радіатори Zalman на чіпах пам'яті, додатковий обдув 120-мм вентилятором;

Результати в 3Dmark06 не обмежуються швидкістю процесора, але в режимі SLI з розгоном завершені завантаження повністю і запасу майже не залишається. CPU Score у всіх режимах був на рівні 3330 "папуг". Приріст від режиму SLI склав 60% -65%.

Приріст від режиму SLI склав 60% -65%

А ось 3DMark05 навпаки став одним з найбільш процесорозалежність бенчмарков. У режимі SLI результати в тестах Return To Proxycon і Firefly Forest однакові з точністю до одного fps (79 і 62 відповідно) і зовсім не залежать від розгону відеокарт. Приріст відбувається тільки за рахунок Canyon Flight. Тому точну користь від SLI оцінити в даному випадку складно, відеокарти в цьому режимі просто не були завантажені повністю. Але якщо судити тільки по одному Canyon Flight, то приріст був на рівні 73% -80%.

Але якщо судити тільки по одному Canyon Flight, то приріст був на рівні 73% -80%

3DMark03, при використанні розігнаного Core 2 Duo, дозволяє взагалі забути про процессорозавісімості і сконцентруватися на розгоні відеокарт, навіть якщо це пара з двох GeForce 8800 GTX, а при використанні GeForce 8600 GTS - тим більше.

3DMark03, при використанні розігнаного Core 2 Duo, дозволяє взагалі забути про процессорозавісімості і сконцентруватися на розгоні відеокарт, навіть якщо це пара з двох GeForce 8800 GTX, а при використанні GeForce 8600 GTS - тим більше

3DMark2001SE ні в одному з подтестов ні в що не впирається, в даному випадку він добре реагує на збільшення продуктивності не тільки центрального процесора і оперативної пам'яті, але і на розгін відеокарт, а так само на їх об'єднання в SLI.

3DMark2001SE ні в одному з подтестов ні в що не впирається, в даному випадку він добре реагує на збільшення продуктивності не тільки центрального процесора і оперативної пам'яті, але і на розгін відеокарт, а так само на їх об'єднання в SLI

Результати в Aquamark3 обмежені швидкістю процесора тільки в режимі SLI на частотах 810/2376 MHz, а у всіх інших випадках приріст від розгону відеокарт і включення SLI є.

Щоб визначити настільки повільніше працює Windows Vista в бенчмарках під DirectX 8/9, були отримані результати і в ній. Відкрите при цьому працювали на номінальних частотах, тобто 675 (1458) / 2016 МГц.

Найбільша різниця виявилася, як і слід було очікувати, в 3DMark 2001SE - 15% при порівнянні одиночної відеокарти і 28% в режимі SLI. Саме цей бенчмарк найкраще реагує на відставання по швидкості роботи Windows Vista від XP. В інших бенчмарках різниця знаходиться в межах 4-6%, що вже не так критично, але це ніяк не можна списати на «похибка вимірювань».

Тестування в DirectX 10 бенчмарках і іграх

Для тестування продуктивності відеокарт в DirectX 10 і порівняння з DirectX 9, були використані всі відомі мені бенчмарки і ігри, що використовують можливості DirectX 10 і вийшли до початку вересня цього року. Ось їх список:

  • RightMark3D v2.0 - синтетичний бенчмарк, DirectX 10, Geometry Shader Test;
  • Call of Juarez DX10 Benchmark - бенчмарк на основі DirectX 10 версії движка Chrome Engine;
  • Company of Heroes v1.71 - вбудований бенчмарк, Maximum Quality, DirectX 9/10, NoAA / NoAF;
  • Lost Planet: Extreme Condition - вбудований бенчмарк, Maximum Quality, DirectX 9/10, NoAA / NoAF;
  • World in Conflict v1.0 - вбудований бенчмарк, Maximum Quality, DirectX 9/10, NoAA / NoAF;
  • BioShock v1.0 - тестування на самому початку гри (в місці спливання на поверхню), Maximum Quality, DirectX 10, NoAA / NoAF.

0 - тестування на самому початку гри (в місці спливання на поверхню), Maximum Quality, DirectX 10, NoAA / NoAF

RightMark3D - це набір синтетичних графічних тестів, які розповсюджуються безкоштовно. Версія 2.0 призначена для тестування Direct3D 10 сумісних відеокарт в операційній системі Windows Vista. Вона доступна для скачування з цієї засланні (4.5 Мб). Детально ознайомитись з можливостями даного бенчмарка можна в цієї статті.

Для тестування був використаний перший тест з набору - Geometry Shader Test. Налаштування були встановлені таким чином:

  • Antialiasing: None
  • Shader: Galaxy
  • Polygon count: High
  • GS Load: Heavy

Antialiasing: None   Shader: Galaxy   Polygon count: High   GS Load: Heavy

Результати в цьому тесті майже не залежать від використовуваного дозволу, а так само слабо реагують на збільшення частот. Приріст від включення режиму SLI близький до можливої ​​межі і становить в середньому 80%.

Приріст від включення режиму SLI близький до можливої ​​межі і становить в середньому 80%

Call of Juarez - це гра з дуже гарною графікою. Спочатку вона вийшла під DirectX 9, але з випуском патча версії 1.1.0.0 в неї була додана підтримка DirectX 9, правда поки тільки для американської (US) версії гри. Так само окремо був випущений бенчмарк, який дозволяє оцінити можливості оновленого движка гри. Бенчмарк підтримує тільки DirectX 10 сумісні відеокарти. Завантажити його можна по цієї засланні (694 Мб).

Для тестування були використані наступні настройки:

  • Fullscreen: On
  • Shadowmap size: 2048 × 2048
  • Shadows quality: Normal
  • Anti-aliasing: None
  • Audio: Disabled

Fullscreen: On   Shadowmap size: 2048 × 2048   Shadows quality: Normal   Anti-aliasing: None   Audio: Disabled

Бенчмарк показує дуже низьку продуктивність у всіх режимах, але при цьому і рівень графіки помітно красивіше, ніж в самій грі, що використовує DirectX 9. Навіть якщо викрутити всі налаштування на мінімум, це не допоможе. Середній fps підвищується, але залишаються провали мінімального до рівня нижче 20. Режим SLI справно працює і показує адекватний приріст, але навіть швидкості двох розігнаних GeForce 8600GTS все одно недостатньо.

Режим SLI справно працює і показує адекватний приріст, але навіть швидкості двох розігнаних GeForce 8600GTS все одно недостатньо

Company of Heroes була випущена досить давно, але починаючи з версії 1.70 отримала підтримку DirectX 10. Патчі (для російської версії гри) можна завантажити за цієї засланні.

Для тестування був використаний вбудований бенчмарк. Всі настройки в грі були встановлені на максимальну якість, за винятком згладжування і фільтрації, які були відключені.

Результати з одиночною відеокартою вийшли трохи вище, ніж в бенчмарке Call of Juarez, але все так само за межами іграбельності. Надбавка продуктивності від включення режиму SLI практично відсутня. Мінімальний fps у всіх режимах був нижче 10.

Company of Heroes показує в 2.5-3 рази більшу продуктивність в Windows XP і DirectX 9 в порівнянні з Windows Vista і DirectX 10. Крім того, в відеодрайверів для Windows XP немає проблем з використанням двох відеокарт в цій грі - надбавка від включення SLI склала 50 % ... 65%. Налаштування використовувалися ті ж самі, за винятком двох:

  • Якість шейдеров = High, замість DirectX 10;
  • Деталізація ландшафту = High, замість Ultra;

Якість шейдеров = High, замість DirectX 10;   Деталізація ландшафту = High, замість Ultra;

Lost Planet: Extreme Condition - одна з перших ігор, випущених спочатку з підтримкою DirectX 10. Вона була перенесена з XBox 360, тому відрізняється не тільки характерним «префіксальних» інтерфейсом, але і не дуже вражаючою (за мірками PC) графікою. У грі, а так само в демо-версії, є вбудований бенчмарк. Демо-версію під DirectX 10, що має розмір 379Мб, можна скачать з сайту NVIDIA nZone. На жаль, тестування в стандартному дозволі 1280 × 1024 провести не вдалося, так як воно було відсутнє в настройках гри, тому замість нього для тестування було використано найбільш близьке 1280 × 960. Налаштування якості графіки - максимальні, фільтрація і згладжування - відключені. Опція «Multi GPU» в грі включалася тільки при тестуванні в режимі SLI.

Опція «Multi GPU» в грі включалася тільки при тестуванні в режимі SLI

Результати, отримані в Lost Planet, найнижчі серед всіх протестованих ігор під DirectX 10, а надбавка від включення режиму SLI найбільша, майже дворазова. Різниці між результатами в обох рівнях (Snow і Cave) майже немає.

В DirectX 9 версії Lost Planet якість тіней (Shadow Quality) не може бути встановлено в положення High, тому воно було встановлено в Medium. Інші налаштування використовувалися такі ж, як і в Direct 10 версії. Обидві версії практично не відрізняються візуально, але зате відрізняються по продуктивності в 2-3 рази, залежно від рівня. Гра настільки важка, що навіть в режимі DirectX 9 при використанні максимальних налаштувань вона показує недостатню продуктивність на GeForce 8600 GTS, в тому числі і в режимі SLI. Для нормальної гри потрібно, по-перше, відключити тіні, а по-друге, зменшити розмір (якість) текстур, щоб вони змогли вміститися в 256 Мб відеопам'яті.

Для нормальної гри потрібно, по-перше, відключити тіні, а по-друге, зменшити розмір (якість) текстур, щоб вони змогли вміститися в 256 Мб відеопам'яті

World in Conflict вийшла зовсім недавно, в кінці серпня. Ця гра має вбудований бенчмарк, який присутній як в повній, так і в демо-версії. Посилання на скачування демо-версії, що має розмір 1260 Мб, перераховані на сайті гри. При тестуванні настройки були встановлені на максимальну якість, згладжування і фільтрація - відключені.

При тестуванні настройки були встановлені на максимальну якість, згладжування і фільтрація - відключені

При використанні DirectX 10 і максимальних налаштувань грати стає неможливо. Приріст від включення режиму SLI невеликий, але він є і знаходиться на рівні 25% -30%.

Приріст від включення режиму SLI невеликий, але він є і знаходиться на рівні 25% -30%

У Windows XP і DirectX 9 гра працює значно швидше, але продуктивності 8600GTS для гри на максимальних налаштуваннях все одно недостатньо. Налаштування використовувалися ті ж самі, але при відключенні опції «Use DirectX 10 rendering», автоматично вимикається і стає недоступною ще одна опція - «Shadows from clouds».

Налаштування використовувалися ті ж самі, але при відключенні опції «Use DirectX 10 rendering», автоматично вимикається і стає недоступною ще одна опція - «Shadows from clouds»

Ця гра так само вийшла в кінці серпня, майже одночасно з World in Conflict. Демо-версію розміром 1888 Мб можна скачати, наприклад, звідсі . Вбудованого бенчмарка в BioShock немає, тому для тестування потрібно використовувати додаткові кошти, наприклад, Fraps або RivaTuner Statistics Server.

Для виміру fps було вибрано місце на самому початку гри, відразу після спливання на поверхню:

Тут є вогонь і його відображення в водної поверхні, дим в повітрі, а так само краплі «на екрані».

Ось вона - єдина (поки що) гра, яка використовує можливості DirectX 10, в яку можна більш-менш непогано грати на відкритих середнього рівня, використовуючи при цьому максимальні налаштування якості. Звичайно, при цьому доведеться обмежитися, роздільною здатністю 1024 × 768 і відмовитися від використання AA / AF, але це краще ніж нічого, і вже точно краще ніж ситуація в інших іграх під DirectX 10.

Що стосується роботи SLI в BioShock, то приріст від його включення, звичайно, є, але з якихось причин результати в цьому режимі вийшли однакові і не залежать від розгону відеокарт. Можливо це обмеження движка гри ( «стеля» fps при використанні певних настройок), але швидкість процесора гра точно не впиралася, що було додатково перевірено за допомогою фонового моніторингу його завантаження під час роботи гри.

На жаль, BioShock (як повну, так і демо-версію) ніяк не вдалося змусити працювати в Windows XP (x86). Відразу ж після запуску гри з'являлося ось таке повідомлення про помилку:

Тому щоб хоч якось порівняти продуктивність цієї гри з використанням DirectX10 і без, вона була протестована в Windows Vista двічі, але вдруге - з включеною опцією "DirectX 10 Detail Surfaces":

Відключення використання DirectX 10 поверхонь призвело до збільшення швидкості гри в середньому на 10%, що не так багато, але за рахунок цього стало можливим використовувати роздільну здатність 1280 × 1024 при грі на двох відкритих GeForce 8600 GTS в режимі SLI. Ситуація з розгоном в SLI практично не покращилася - як і раніше присутня «стелю» fps, хоч він і відсунувся трохи вище, але не зник.

Висновок

Проведене тестування показало, що при зміні операційної системи з Windows XP на Windows Vista, яка необхідна для підтримки DirectX 10, відбувається втрата продуктивності в кілька відсотків. Але це просто дрібниці порівняно з двох-трьох кратним падінням після включення в іграх опцій (або запуску відповідних версій виконуваних файлів), що відповідають за використання можливостей DirectX 10. Єдиний виняток - гра BioShock, яка дозволяє грати на відкритих середнього рівня, таких як GeForce 8600 GTS, без гальм навіть при використанні DirectX 10, правда і без включення анізотропної фільтрації і повноекранного згладжування.

Що стосується підтримки SLI, то тут проблеми відсутні майже повністю, причому в обох операційних системах. Єдиний випадок, де не вдалося отримати надбавки продуктивності від застосування цієї технології - гра Company of Heroes, і тільки в Windows Vista.

А які можна зробити висновки по використаним для тестування відеокарт?

Chaintech GSE86GTS - типовий представник відеокарт класу GeForce 8600GTS, повністю відповідний рефренс. Частоти, дизайн PCB, система охолодження - все це не відрізняється від стандартних. У переваги таких карт можна записати однослотовий систему охолодження з автоматичною системою управління оборотами вентилятора, якої цілком достатньо для звичайного розгону. А в недоліки - наявність захист по струму і неможливість олівцем вольтмод GPU.

Так чи можна використовувати відеокарти середнього рівня, якими і є GeForce 8600 GTS для нових ігор з підтримкою DirectX10? Звичайно можна - запускаючи ці ігри з-під Windows XP в режимі DirectX 9!

Опубліковано: 11.10.2007

Автор: S_A_V

А що отримуємо натомість?
А які можна зробити висновки по використаним для тестування відеокарт?
Так чи можна використовувати відеокарти середнього рівня, якими і є GeForce 8600 GTS для нових ігор з підтримкою DirectX10?