+38 (093)  990-30-70

Новости

Королевский бал у Вас дома

128 більше влучних каліфорнійських стрільців по великій ціні, або Nvidia Geforce 8800 Ultra 768MB

  1. ЗМІСТ
  2. Установка і драйвери
  3. Результати тестів: порівняння продуктивності
  4. продуктивність відеокарт
  5. Довідник по ATI RADEON X1300-1600-1800-1900-х серій
  6. FarCry, Research (No HDR)
  7. FarCry, Research (HDR)
  8. FEAR
  9. Splinter Cell Chaos Theory (No HDR)
  10. Splinter Cell Chaos Theory (HDR)
  11. Call Of Juarez
  12. Company Of Heroes
  13. Serious Sam II (No HDR)
  14. Serious Sam II (HDR)
  15. Prey
  16. 3DMark05: MARKS
  17. 3DMark06: SHADER 2.0 MARKS
  18. 3DMark06: SHADER 3.0 MARKS

ЗМІСТ

  1. Вступ
  2. особливості відеокарт
  3. Конфігурації стенду, список тестових інструментів
  4. результати тестів
  5. висновки

Коли ще тільки з'явилися чутки про те, що Nvidia збирається випускати більш потужний, ніж Geforce 8800 GTX прискорювач, багато хто подумав про те, що каліфорнійська компанія злякалася майбутнього випуску R600 з боку AMD і вирішила підстрахуватися, випустивши розігнаний варіант 8800 GTX. Та й частоти обіцяли сильно додати - аж 650 МГц по ядру проти 575 у GTX.

А коли стало надходити все більше і більше інформації про те, що, власне, боятися-то і нема чого, оскільки AMD висуває поки лише варіант R600 як суперника 8800 GTS, і GTX залишиться найшвидшим ігровим акселератором в світі, то в Санта-Кларі почали чесати в голові: чого ж робити з уже поставленим на потік випуском 8800 Ultra. Якось виходить, що він особливо-то і не потрібен, все одно з трону нікому зганяти найближчим часом. Ну і вирішено було піти іншим шляхом: знизити частоти на ядрі до 612 МГц, отримавши набагато більше придатних ядер, зробити акцент на зниженому енергоспоживанні (так-так, за рахунок того, що нова А3 ревізія G80 споживає на 2Вт менше, плюс знижений вольтаж на пам'яті (але довелося поставити дуже дорогу 0.8нс пам'ять, щоб 1080 МГц тримала надійно навіть при зниженому вольтажі), в цілому вийшло, що карта стала «їсти» на 5Вт менше, ніж 8800 GTX).

Отже, після 1 травня оновлена ​​лінійка Geforce 8800 виглядає так:

  1. Geforce 8800 UItra 768MB PCI-E, 128 потокових процесорів, шина обміну з пам'яттю 384 бит, 612/2160 MHz, 829 доларів США;
  2. Geforce 8800 GTX 768MB PCI-E, 128 потокових процесорів, шина обміну з пам'яттю 384 бит, 575/1800 MHz, 549-599 доларів США;
  3. Geforce 8800 GTS 640MB PCI-E, 96 потокових процесорів, шина обміну з пам'яттю 320 бит, 512/1600 MHz, 399-449 доларів США;
  4. Geforce 8800 GTS 320MB PCI-E, 96 потокових процесорів, шина обміну з пам'яттю 320 бит, 512/1600 MHz, 299-349 доларів США;

Зрозуміло, така висока ціна на 8800 Ultra викликана двома причинами:

  1. треба збити попит (карт не так багато),
  2. собівартість карти сильно виросла через дорогу пам'яті.

І перед вивченням самої карти слід зазначити важливий момент: власникам 8800 GTX по суті немає сенсу переходити на 8800 Ultra (вигоди не так багато, зате різниця в ціні може досягти дворазового розміру). А ось фанатам-ентузіастам, які хочуть придбати самий-самий потужний на сьогодні прискорювач, можна порадити звернути увагу на 8800Ultra (зрозуміло, якщо не знайдеться в продажу дешевший і вже фабрично розігнаний 8800 GTX).

плата


Nvidia Geforce 8800 Ultra 768MB PCI-E Kарта має 768 МБ пам'яті GDDR3 SDRAM, розміщеної в 12-ти мікросхемах на лицьовій стороні PCB.

Мікросхеми пам'яті Samsung (GDDR3). Час вибірки у мікросхем пам'яті 0,8 ns, що відповідає частоті роботи 1250 (2500) МГц.




Прекрасно видно, що PCB та ж сама що і у 8800 GTX, та й дивно було очікувати чогось іншого: різниця-то не настільки велика. Навіть у 7800 GTX 512MB проти 7800 GTX 256MB відмінностей було куди більше.

Я знову нагадаю, що на сьогодні всі відеокарти 8800 GTX / Ultra випускаються на сторонніх заводах на замовлення Nvidia, і партнери каліфорнійської компанії набувають у Nvidia НЕ чіпи окремо, а готові відеокарти цілком. З натяжкою можна сказати, що Nvidia випускає ці відеокарти самостійно, а партнерів використовує лише для каналів продажів (щось трохи 3dfx нагадує, але враховані ті помилки, і Nvidia не вертається з партнерів, на відміну від 3dfx).

На PCB встановлено ядро ​​(чіп) з величезною кришкою. Розміри корпусу взагалі дуже великі, що слід було очікувати при наявності 384-біт шини. Ядро ревізії А3, як можна бачити з фотографії (8800 GTX мають чіп ревізії А2).

Номер ревізії змінився і у допоміжного чіпа NV IO, покликаного зосередити в собі процесори виведення зображення (RAMDAC, і т.д.)

У карти є гніздо TV-виходу, яке унікально по роз'єму, і для виведення зображення на ТБ як через S-Video, так і по RCA, потрібні спеціальні адаптери-перехідники, в дальнейщем поставляються разом з картами партнерами Nvidia. Більш докладно про ТБ-вихід можна почитати тут .

Підключення до аналогових моніторів з d-Sub (VGA) здійснюється через спеціальні адаптери-перехідники DVI-to-d-Sub. Максимальні дозволу і частоти:

  • 240 Hz Max Refresh Rate
  • 2048 × 1536 × 32bit x85Hz Max - по аналоговому інтерфейсу
  • 2560 × 1600 @ 60Hz Max - по цифровому інтерфейсу (у 8800-серій - обидва DVI-гнізда з Dual-Link)

Що стосується можливостей відеокарт по відтворенню MPEG2 (DVD-Video), то ще в 2002 році ми вивчали цей питання , З тих пір мало що змінилося. Залежно від фільму завантаження CPU при програванні на всіх сучасних відкритих не піднімається вище 25%. Що стосується HDTV і інших новомодних відеоштучек, то повноцінно плануємо з цим розібратися, як випаде можливість.

Карта вимагає додаткового живлення, тому в хвості можна знайти два чорних шести-штирьковий роз'єму. Якщо на вашому блоці живлення немає такого хвоста з відповідним роз'ємом, то в комплект з картами входить перехідник-адаптер, що дозволяє підключити будь-який хвіст з роз'ємом Molex.

Тепер про систему охолодження.

Nvidia Geforce 8800 Ultra 768MB PCI-E

Принцип кулера залишився колишнім (такий же що у 8800 GTX), а змінилася трохи форма радіатора, і збільшилися розміри кожуха.

На ядрі і мікросхемах пам'яті, а також NV IO і деяких елементах живлення встановлена ​​єдина платформа-підошва радіатора, що має мідну пластину в місці стикання з ядром.

З іншими елементами охолодження радіатор контачить за допомогою термопрокладок на тканинній основі.

За рахунок того, що циліндричний вентилятор кілька винесена вгору за межі PCB, розміри радіатора в цілому зросли. Навіщо треба було робити такі вишукані страви, коли і звичайний кулер від GTX здатний нормально охолоджувати таку махину - незрозуміло.

Найголовніший негативний момент в такому кулері - його величезний кожух, що покриває всю карту. І в тому числі і в хвіст частини. А адже карта дуже довга, і на більшості системних плат її хвіст буде впиратися в порти SATA, які виробники дуже люблять ставити прямо навпроти PCI-E x16 роз'єму. Однак, коли хвостова частина являла собою лише вузький шматок текстоліту, здатного вміститися між SATA портами, то тепер там - великий і чорний кожух, який явно не вміститься між SATA або іншими портами. Або доведеться шукати кабелі SATA з поверненими на 90 градусів «кінцями», або відмовлятися від чогось одного: або від відеокарти або від системної плати.

Так, на матерях плану nForce 680 це питання було враховано, і SATA-порти розміщені в інших місцях, і не заважають установці таких довгих і товстих відеокарт. Але треба враховувати, що в абсолютної більшості користувачів системні плати явно іншого рівня і класу.


Ми провели дослідження температурного режиму за допомогою утиліти RivaTuner (автор А.Ніколайчук AKA Unwinder) і отримали наступні результати:

Як бачимо, температура не перевищує критичну (90 градусів і вище), гучність кулера не виходить за рамки загального фону.

Установка і драйвери

Конфігурація тестового стенда:

  • Комп'ютер на базі Intel Core2 Duo (775 Socket)
    • процесор Intel Core2 Duo Extreme X6800 (2930 MHz) (L2 = 4096K);
    • системна плата EVGA nForce 680i SLI на чіпсеті Nvidia nForce 680i;
    • оперативна пам'ять 2 GB DDR2 SDRAM Corsair 1142MHz (CAS (tCL) = 5; RAS to CAS delay (tRCD) = 5; Row Precharge (tRP) = 5; tRAS = 15);
    • жорсткий диск WD Caviar SE WD1600JD 160GB SATA.
    • блок живлення Tagan 1100-U95 (1100W).
  • операційна система Windows XP SP2; DirectX 9.0c;
  • монітор Dell 3007WFP (30 ").
  • драйвери ATI версії CATALYST 7.4; Nvidia версії 158.18.

VSync відключений.

Результати тестів: порівняння продуктивності

В якості інструментарію ми використовували:

  • Splinter Cell Chaos Theory v.1.04 (Ubisoft) - DirectX 9.0, shaders 3.0 (c HDR і без HDR), настройки тестування - maximum.
  • Call Of Juarez (Techland / Ubisoft) - DirectX 9.0, shaders 3.0 (HDR), demo ( demo Тестування проводилося при максимальній якості. Батник для прогону додається.
  • FarCry 1.4 (beta) (Crytek / UbiSoft), DirectX 9.0, shaders 2.0b / 3.0 (c HDR і без HDR), 3 demo з рівня Research (Запуск гри з опцією -DEVMODE), настройки тестування все Very High. При тестуванні з HDR використовувалося HDRRendering = 1
  • PREY 1.01 (3D Realms Entertainment / Human Head Studios / 2K Games) - OpenGL, shaders 2.x, demo003 (40MB!) . Тестування проводилося при максимальній якості. Батник для прогону додається.
  • 3DMark05 1.20 (FutureMark) - DirectX 9.0, мультитекстурирование, настройки тестування - trilinear,
  • Serious Sam II 1.068 (Croteam / 2K Games) - DirectX 9.0, shaders 3.0 (c HDR і без HDR), батник для запуску . Демо- стандартна demo0002, входить в поставку гри. Налаштування тестування - maximum.
    Дякуємо нашого читача Вознюка Валерія Михайловича AKA Px за написання батника для даної гри.
  • FEAR v.1.08 (Multiplayer) (Monolith / Sierra) - DirectX 9.0, shaders 2.0, налаштування тестування - maximum, Soft shadows вимкнені.
  • Company Of Heroes (Relic Entertainment / THQ) - DirectX 9.0, shaders 2.0, батник для запуску . Після входження в гру викликати опцію налаштувань, вибрати розділ з графіки та натиснути на кнопку з тестом. Тестування проводилося при максимальній якості.
  • 3DMark06 1.02 (FutureMark) - DirectX 9.0c, мультитекстурирование, настройки тестування - trilinear,

продуктивність відеокарт

Читачі, які добре розбираються в тривимірній графіці, самі зможуть розібратися, подивившись діаграми нижче, і зроблять висновок для себе. А для новачків і для тих, хто тільки-тільки зайнявся питанням вибору відеокарти, ми зробимо деякі пояснення.

По-перше, має сенс ознайомитися з нашими короткими довідниками за домами сучасних відеокарт і процесорів, на основі яких вони випускаються. Слід зазначити частоти роботи, підтримку сучасних технологій (шейдери), а також конвеєрну архітектуру. Слід розуміти, що з введенням в дію 8800-го сімейства прискорювачів поняття конвеєр пропало. Є потокові процесори, які обробляють шейдерниє команди, задані в грі, текстурнікі обробляють пікселі (накладення текстур, фільтрації) самі по собі, тобто йде повне розділення процесів, і тільки лише після текстурних операцій йде як і раніше запис в буфер пам'яті, як це було завжди. Як було раніше: взяв трикутник, шейдерний набором команд порахував для нього, наклав текстуру (и), отфильтровал, послав далі; цього вже немає. Який потоковий процесор чим і коли буде займатися - вирішує драйвер спільно зі спеціальним Thread-процесором. Точно також і щодо текстурніков.

Довідник по ATI RADEON X1300-1600-1800-1900-х серій

Довідник по Nvidia Geforce 7300-7600-7800-7900-х серій

По-друге, в розділі 3D-Video наш читач, який тільки-тільки зіткнувся з проблемою вибору відеокарти, і розгублений, може ознайомитися як з азами тривимірної графіки (все одно вони знадобляться, адже запускаючи гру, і входячи в її налаштування, користувач зіткнеться з такими поняттями, як текстури, освітлення і т.д.), так і з базовими матеріалами щодо нових продуктів. Всього компаній, що випускають графічні процесори, дві: ATI (недавно придбана фірмою AMD і тепер носить таке ж ім'я - AMD) і Nvidia. Тому основна маса інформації розбита саме на дві частини. Щомісяця виходять також 3DGiТогі , Де як би зводяться в одне всі порівняння різних карт для різних цінових секторів.

По-третьх, подивимося на тести рассматіваемой сьогодні карти.

Я нагадаю, що багато ігор впираються в можливості CPU і системи в цілому, і тому на найпотужніших прискорювачах навіть в режимах з АА 4х і АФ 16х ми не бачимо потенціалу цих самих прискорювачів. Тому ще при вивченні попередніх топових прискорювачів ми ввели новий режим HQ (High Quality), який означає:

  • ATI RADEON X1xxx: AA 6x, плюс Адаптивний АА, плюс АФ 16x High Quality режиму
  • Nvidia Geforce 7xxx / 8xxx: AA 8x, плюс TAA (MS, з включеною Gamma корекцією), плюс АФ 16х.

Зауважу, що такий режим АА був обраний не випадково. Це плід компромісу: з одного боку, не сильно пішли від ATI AA6x, з іншого боку, GF 7xxx не підтримує АА вище 8х. З третього боку, вважаю, що такого АА чисто візуально досить, бо очей без лупи вже не помітить відмінностей, враховуючи, що порівнювати 8800 ми будемо у високій роздільній здатності.


Вище наведені скріншоти, що демонструють HQ-якість.

І ще: порівнювати карти і проводити аналіз продуктивності БЕЗ навантаження АА + АФ ми не будемо, ці цифри дані лише для відомостей. Тому що всім має бути зрозуміло, що такі карти хоча б АА4х + АФ16х навантажувати треба!

FarCry, Research (No HDR)


Результати тестів: FarCry Research (No HDR)

Для порівняння в числі інших ми використовували відеокарту від EVGA з частотами 625 МГц по ядру (тобто вище, ніж у 8800 Ultra), однак там частоти роботи шейдерного блоку були 1450 МГц, коли як у 8800 Ultra - 1512 МГц. І тим не менше, ми бачимо, що дана гра більш прихильний до частоті ROP і текстурних процесорів, тому 8800 Ultra від більш дешевого розігнаного аналога від EVGA відстає.

FarCry, Research (HDR)


Результати тестів: FarCry Research (HDR)

Картина аналогічна.

FEAR


Результати тестів: FEAR

А ця гра вже дуже чутлива до частоти шейдерного блоку, оскільки сильно навантажує прискорювачі саме по шейдерам. І тому ми бачимо, що 8800 Ultra з його частотою 1512 МГц випереджає продукт EVGA з частотою 1 450 МГц.

Перевага над рядовим 8800 GTX в режимі HQ доходить до 20%! Тут вже сильно грає і збільшена ПСП.

Splinter Cell Chaos Theory (No HDR)


Результати тестів: SCCT (No HDR)

У цій грі навантаження на шейдери ще більше! І тому ми бачимо, як 8800 Ultra з його недосяжною частотою шейдерного блоку пішов в безумовні лідери.

Splinter Cell Chaos Theory (HDR)


Результати тестів: SCCT (HDR)

Картина аналогічна.

Call Of Juarez


Результати тестів: СoJ

Як не дивно, але ця гра не настільки сильно навантажує карти саме шейдерними обчисленнями, щоб 8800 Ultra міг зайняти лідируючі позиції. І продукт EVGA, що має більш високу частоту блоків ROP і текстурніков, виявився в лідерах.

Company Of Heroes


Результати тестів: CoH

Ця гра займає як би проміжне положення між SCCT і CoJ, де все ж міць шейдерного блоку грає трохи більше вирішальну роль. Тому 8800 Ultra продемонстрував результати, майже рівні розігнаному 8800 GTX від EVGA, і навіть трохи випередив.

Малозрозумілою, чому вийшов такий розрив між звичайним 8800 GTX і 8800 Ultra в режимі АА + АФ. Все ж різниця в швидкостях досягає майже 50%! Щось дивно з драйверами ...

Serious Sam II (No HDR)


Результати тестів: SS2 (No HDR)

А цій грі більш важливі частоти і міць блоків текстурування і ROP, тому продукт EVGA виявився в лідерах. Але, тим не менше, в режимі HQ 8800 Ultra отримав 15% переваги над номінальним 8800 GTX.

Serious Sam II (HDR)


Результати тестів: SS2 (HDR)

Картина майже аналогічна, лише перевага над 8800 GTX виявився дещо слабше.

Prey


Результати тестів: Prey

Ситуація точно така ж.

3DMark05: MARKS


Результати тестів: 3DMark05 MARKS

3DMark06: SHADER 2.0 MARKS


Результати тестів: 3DMark06 SM2.0 MARKS

3DMark06: SHADER 3.0 MARKS


Результати тестів: 3DMark06 SM3.0 MARKS

Неоднозначна картина навіть в синтетичних тестах, де, здавалося б, усім кермувати повинен шейдерний блок! Однак тести показали, що не тільки він грає важливу роль. А то, що розігнаний 8800 GTX по ядру до 625 МГц часом виявляється сильніше, ніж 8800 Ultra з його 612 МГц на ядрі, незважаючи на зворотні поєднання частот шейдерних блоків, говорить багато про що.


висновки

Отже:

Nvidia Geforce 8800 Ultra 768MB PCI-E - чисто іміджевий продукт, покликаний привернути увагу до Nvidia в світлі ближайщих анонсів від конкурента в особі AMD, щоб ще раз показати - у кого корона лідера і у кого найшвидший на сьогодні прискорювач. Це з одного боку.

З іншого боку, ми завжди звикли, що суфікс Ultra ставиться там, де немає реальних суперників навіть серед розігнаних більш нижчестоящих прискорювачів. Наприклад, 5900 Ultra ніколи не був досяжний ніякими разгонами 5900. 6800 GT в формах всякого роду Turbo / Golden Sample все одно не досягав рівня 6800 Ultra. І т.п. Тут же ми можемо бачити, що раніше випущена варіація розігнаного 8800 GTX (вище розглянутий приклад від EVGA, є й інші аналоги GTX з підвищеними частотами) не тільки наздоганяє 8800 Ultra, але і іноді випереджає. Це нонсенс. Все ж 612 МГц по ядру це дуже мало для того, щоб отримати таке горде звання Ultra. Незважаючи на неперевершену частоту шейдерного блоку у останнього. Зрозуміло, в подальшому, в міру виходу ігор з явним орієнтуванням на шейдерниє обчислення, перевага у 8800 Ultra буде рости.

А зараз це прискорювач для фанатів, ентузіастів, готових віддати будь-які гроші за те, щоб мати найпотужніший акселератор у себе в системному блоці. Також 8800 Ultra сподобається оверклокерам, оскільки нова ревізія А3 дає більше потенціалу по розгону (наша карта зуміла досягти частот 682/2200 МГц), правда, в більшій частині по ядру, пам'ять розганяється погано, ймовірно позначається нижчий (ніж належить за номіналом) вольтаж , тому її штатних 2500 МГц частот досягти не вдасться (вже на 2300 МГц на нашій екземплярі починалися проблеми зі стабільністю в роботі). Проте, від такого підвищення частоти ядра в сучасних іграх можна отримати до 40-50% приросту продуктивності, що вже чимало. Тому ми і сказали, що оверклокерам це все повинно сподобатися. Проте не забуваймо про розміри кулера і про те, що не в кожну системну плату ця відеокарта встане.

До речі, партнери Nvidia збираються випускати офіційно розігнані версії 8800 Ultra. Тому частота ядра в 650 МГц може стати легко досяжною в офіційно вийшли продуктах. Дуже забавно буде виглядати поєднання суфіксів Ultra Turbo, Ultra Extreme, Ultra Super, Ultra Puper і т.д. :)

В цілому акселератор відпрацював стабільно, нарікань не було (в плані апаратних проблем).

Вибір, як завжди, за нашими читачами. Ми даємо лише інформацію про той чи інший продукт, але не даємо прямих вказівок щодо вибору того чи іншого виробу. Єдине, що можна додати, так то, що зв'язка nForce 680i + 8800 Ultra дадуть найшвидшу на сьогодні платформу для ігор. І не забуваємо про те, що ще не досліджена робота подібних карт в DX10. Порівняння в MS Windows Vista і в DX10 додатках може дати іншу картину в цілому. Чекаємо виходу DX10-тестів.

І ще один момент, який ми будемо повторювати з огляду в огляд. Прийшовши до рішення про самостійне обрання тривимірного прискорювача, чи то пак відеокарти в своєму комп'ютері, користувач повинен усвідомлювати, що він змінює одну з основних складових роботи його системного блоку, яка може зажадати додаткової настройки для більш кращої швидкодії або включення ряду якісних функцій. Це не кінцевий споживчий продукт, а комплектувальне ланка. І тому користувач повинен розуміти, що для отримання найбільшої віддачі від нової відеокарти йому доведеться пізнати деякі ази тривимірної графіки. Та й графіки в цілому. Якщо він не хоче цим займатися, то не варто приступати до самостійного апгрейду в цьому плані: краще купувати готові системні блоки з уже налаштованим ПО (а також він буде забезпечений технічною підтримкою з боку компанії-збирача такого системника), або приставки для ігор, де нічого налаштовувати не треба, все включено що треба вже в самій грі.

Більш повні порівняльні характеристики відеокарт цього та інших класів ви можете побачити також в наших 3DGiТогах .


Дякуємо компанії Nvidia Russia за надану відеокарту
Блок живлення для тестового стенда надано компанією TAGAN
Монітор Dell 3007WFP для тестових стендів надано компанією Nvidia