+38 (093)  990-30-70

Новости

Королевский бал у Вас дома

Розвінчуємо міфи про продуктивність відеокарт


Розвінчуємо міфи про продуктивність відеокарт | Перегляд сформованих міфів

Сучасні відеокарти - це складні пристрої. Тож не дивно, що навколо них виникає безліч міфів і помилок. Сьогодні ми представляємо вашій увазі другу частину статті, в який ми розвінчуємо міфи про продуктивність відеокарт. З першою частиною можна ознайомитися тут .

Якщо коротко, в першій частині ми:

  • Визначили поняття продуктивності і проілюстрували його значення.
  • Пояснили особливості роботи (і складності) технології вертикальної синхронізації V-sync, і з'ясували, в яких випадках її краще включати, а в яких відключати.
  • Дізналися ряд дивовижних фактів, про те, скільки відеопам'яті споживає Windows 8.1 (і Windows 7 з Aero).
  • Поговорили про час відгуку, затримки введення, різних факторах, що впливають на затримку введення і їх значенні.
  • Детально розглянули споживання відеопам'яті і вимоги до неї, а потім розібралися, скільки пам'яті вам дійсно потрібно.
  • Пояснили, яким чином сучасні відеокарти справляються з виділенням тепла і обговорили акустичну ефективність на прикладі кількох референсних відеокарт.
  • Показали, що розгін не завжди допомагає, коли карта вже працює в діапазоні температурного троттлінга.

Дана тема має на увазі вивчення величезної кількості технічного матеріалу, тому нам довелося розділити статтю на дві частини. У другій і третій частинах ми розглянемо наступні теми:

  • Ми розглянемо інтерфейс PCI Express і дізнаємося, скільки ліній PCIe необхідно, щоб отримати максимальний рівень продуктивності при використанні сучасних відеокарт.
  • Ми пояснимо, чому архітектура Nvidia Maxwell показує хороші результати при невисоку пропускну здатність пам'яті, експериментуючи з маловідомим API, який оцінює пропускну здатність відеопам'яті і використання шини PCIe.
  • Ми відповімо на питання, пов'язані з виведенням зображення, і торкнемося проблеми вибору діагоналі дисплея, використання HDTV і різних технологій згладжування.
  • Ми розглянемо різні технології підключення дисплея: DVI, HDMI і DisplayPort, а також особливості кожного стандарту.
  • Ми торкнемося питань управління ефективністю і співвідношення вартості і продуктивності заліза.
  • Ми підведемо підсумок того, що вже знаємо, що ми чули і спробуємо уявити, що нас чекає в майбутньому.

У коментарях до першої частини ви підкинули нам кілька хороших ідей

Багато ентузіасти прокоментували наші тести при рівні шуму 40 дБ (А) на англомовному форумі, в Reddit і на інших тематичних сайтах. Деяким вони сподобалися, деякі порахували, що рівень 40 дБ (A) більше підходить для тихого ПК, ніж продуктивної, і хотіли б, щоб ми встановили більш високу межу. Майже всі прокоментували запропонували додати в тести відеокарти крім референсних Radeon (з кулерами сторонніх виробників).

Ми вас почули. Зараз ведуться переговори з AMD, і ми плануємо запропонувати OEM-виробникам надати свої версії карт на базі референсного дизайну Radeon для загального порівняння на заданому рівні шуму, і швидше за все, тести будуть проводитися як на рівні 40 дБ (А), так і на рівні 50 дБ (А) (нагадаємо, що звук на рівні 50 дБ (А) удвічі голосніше, ніж на 40 дБ (А)).

Еталонний кулер на дорогих картах Nvidia досить хороший. Тому вигода від використання партнерських версій GeForce не так велика, як у випадку AMD, яка оснащує топові карти менш вдалими еталонними кулерами. Так що в цьому відношенні ми в основному концентруємо увагу на продуктах AMD, хоча ми могли б додати кілька карт Nvidia.

Також ми помітили, що багато читачів оцінили наші посилання на самостійні тести аудіо / відео (хоча не всі з них використовують науковий підхід). Ми використовували цю концепцію в статті "Комп'ютер як Hi-Fi аудіоплатформа: що для цього потрібно" , В якій також представлений цікавий набір тестів.

Також піднімалися питання про значення затримки введення в "гальмують" іграх і додатках віртуальної реальності. І вона дійсно важлива, оскільки постійні пригальмовування на подив швидко можуть змусити відмовитися від гри.

Ми отримали безліч питань про значення обсягу відеопам'яті (2 і 4 Гбайт), особливо щодо відеокарт GeForce GTX 760 і GeForce GTX 770 від Nvidia. З опитування про використаний апаратному забезпеченні в Steam, який ми опублікували в першій частині статті, більшість гравців використовують відеокарти з об'ємом пам'яті 1 Гбайт і менше, а поширення відеокарт з 2 Гбайт на борту все ще перебуває на ранній стадії. Хоча 4 Гбайт пам'яті можуть бути корисні в ряді нестандартних сценаріїв (наприклад, дві або три GeForce GTX 770 в SLI для ігор на 4K- дисплеї або використання модифікацій текстур високої якості в дозволі 1440p), малоймовірно, що 4 Гбайт найближчим часом стануть стандартним обсягом відеопам'яті для графічних карт широкого профілю. Крім того, майте на увазі, що 8 Гбайт пам'яті в Xbox One і PS4 є загальними. Лише частина використовується як класична відеопам'ять, решта йде під потреби ОС, даних і виконання коду додатків / гри. Можливо, з 2-гігабайтну відеокартами, на високій роздільній здатності іноді доведеться жертвувати згладжуванням MSAA на користь FXAA / MLAA. Наскільки це серйозний компроміс - вирішувати вам.

Не обійшлося і без критики, особливо щодо розгону відеокарти при збереженні швидкості обертання вентилятора (для збереження низького рівня шуму). Можливо, наша мета була кінця зрозуміла. Ми хотіли донести, що продуктивність при заданому рівні шуму, як правило, відносно стійка до появам теплового троттлінга при розгоні (більш висока потужність, або більш активне тепловиділення, призводить до частого спрацьовування троттлінга). І, при збереженні постійного рівня споживання потужності ви можете добитися більш високих показників розгону, змирившись з більш високим рівнем шуму - вибір за вами. Хочемо вибачитися, якщо наші пояснення привели вас в замішання. Щоб було зрозуміло, ми точно не рекомендуємо розганяти карти, зберігаючи при цьому постійну швидкість обертання вентилятора.

Розвінчуємо міфи про продуктивність відеокарт | Коротке ознайомлення з технологією PCIe

Міф: 16-лінійний слот PCIe завжди несе в собі 16 ліній

Як нерозумно це не звучить, але слот x16 PCIe відрізняється від конфігурації на 16 ліній PCIe

З стандартом PCI Express нерідко виникає плутанина. Спочатку розглянемо фізичні слоти. Їх зазвичай називають x1, x4, x8 або x16. Цифра посилається на фізичний розмір слота і максимальне число смуг PCIe, до яких може отримати доступ встановлена ​​в нього карта.

Маленькі карти поміщаються в великі слоти (наприклад, карта x8 або x1 в слоті x16), але більші карти не поміщаються в короткі слоти (карта x16 в слот x1, наприклад). Відкрите, за рідкісними винятками, розробляються під 16 смуг і вимагають наявності відповідного слоту. У теорії, специфікація PCIe дозволяє реалізувати до 32 смуг на слот, хоча слотів більше x16 ми ніколи не бачили.

Карти / слоти PCIe 32x

Мало хто знає, що, в теорії, специфікація PCIe дозволяє використовувати до 32 смуг в будь-якому слоті. Однак ми ніколи не бачили слоти ширше x16. Фізичний розмір слота на 32 смуги буде дійсно великим, і його навряд чи вдасться реалізувати на материнських платах форм-фактора ATX (проводка буде просто жахливою).

Отже, припустимо, у вас є відеокарта з інтерфейсом x16, яка прекрасно входить в слот x16. Чи означає це, що передача даних буде відбуватися по 16-смуговому каналу? Може бути так, а може, й ні. Кількість активних смуг, що відносяться до кожного слоту, залежить від архітектури центрального процесора (наприклад, Haswell або Haswell-E), наявності мостів (наприклад, PLX PEX 8747) і кількості карт, встановлених в інші слоти (перемикання на апаратному рівні на більшості материнських плат динамічно змінює конфігурацію смуг в залежності від їх використання). Таким чином, слот x16 може працювати в режимі шістнадцяти, восьми, чотирьох або навіть однієї активної лінії. Дізнатися це напевно можна після перевірки спеціальним інструментом, наприклад GPU-Z, хоча і його дані також можуть виявитися невірними.

Якщо не вдаватися в подробиці, основна відмінність між "преміум" -Інтерфейс Intel LGA 2011 року (що підтримує процесори Ivy Bridge-E, наприклад Core i7-4820K, i7-4930K і i7-4960X ) І "мейнстрімовим" інтерфейсом Intel LGA 1150 (підтримка процесорів Haswell, наприклад i7-4770K ) Полягає в тому, що дорожча платформа пропонує до 40 ліній PCIe третього покоління. Цього достатньо для двох карт в конфігурації x16 / x16, трьох карт в x16 / x16 / x8 або чотирьох карт в режимі x16 / x8 / x8 / x8). LGA 1150 обмежений 16 лініями, і дозволяє підключати одну карту в режимі x16, дві карти в x8 / x8 або три карти в конфігурації x8 / x4 / x4 CrossFire (Nvidia не дозволяє використовувати SLI за участю чотирьох ліній). Звичайно, є винятки. Core i7-5820K від Intel встановлюється в роз'єм LGA 2011, але обмежується контролером PCIe на 28 смуг.

Щоб обійти обмеження по лініях PCIe на платформах LGA 1150, виробники системних плат використовують "чіпи-мости" PCIe, які працюють як комутатори, забезпечуючи доступ до більшої кількості ліній PCIe. Найвідомішим чіпом є PEX 8747 від PLX. Він працює з PCIe Gen 3 і відрізняється досить високою ціною. Mouser пропонує їх за ціною приблизно по $ 100 за штуку при малих обсягах замовлень. OEM-виробники можуть трохи збити ціну за рахунок покупки великих партій, але, тим не менш, компонент все одно дорогий. Використання одного цього чіп обумовлює переміщення системних плат з роз'ємом LGA 115 з більш дешевого цінового сегмента ~ $ 200 в преміальний ~ $ 300 +.

Як це відбивається на пропускної здатності?

Як бачите, кожне нове покоління PCIe подвоює пропускну здатність попередньої версії. Чотири смуги PCIe 3.0 приблизно еквівалентні восьми лініях PCIe 2.0, які в свою чергу, еквівалентні шістнадцяти лініях PCIe першого покоління.

Четверте покоління шини PCIe, заплановане на 2015 рік, буде назад сумісним з сьогоднішніми технологіями. Тобто, відеокарти з інтерфейсом PCIe 3.0 (і 2.0) ще довго будуть актуальні, принаймні, з точки зору підключення. Докладні специфікації PCIe 4.0 можна знайти на цій сторінці .

Однак ми до цих по не відповіли на питання, скільки пропускної здатності нам потрібно насправді.

Розвінчуємо міфи про продуктивність відеокарт | Тестуємо три покоління PCIe в режимі x16 / x8, від 15.75 до 2 Гбайт / с

Міф: Для реалізації повного потенціалу відеокарти потрібно PCIe x16 (Gen 3).

UEFI системної плати ASRock Z87 Extreme6 включає в себе функцію, що дозволяє встановлювати швидкість передачі даних через PCIe для кожного слота. Вона використовується дуже рідко, але для наших тестів вона виявилася чудовою знахідкою.

У моделі Extreme6, на відміну від більш дорогий Extreme9, немає чіпа PLX PEX 8747; отже, плата обмежується 16 лініями процесора. Крім того, при апаратній перемиканням встановлюється ширина з'єднання в залежності від кількості використовуваних відеокарт (одна, дві або три), автоматично конфігуруємо 16 ліній контролера в режим x16-x0-х0, x8-x8-x0 або x8-x4-x4.

Таким чином, нам вдалося протестувати всі три покоління в режимах x16 і x8 на відкритих AMD і Nvidia для ентузіастів. Майте на увазі, що в тестах карти в режимі x8 ми не використовуємо CrossFire або SLI, ми розглядаємо тільки одну відеокарту

Аналогічний тест проводився в 2011 році, коли основна маса карт працювала з PCIe 2.0. Чи будуть отримані тоді результати актуальні і сьогодні?

Тести проводилися за допомогою бенчмарка Unigine Valley 1.0. У кожному прогоні тестування починалося після того, як після досягнення теплового тролллінга карти показували результати в межах дуже обмеженого діапазону температур / частот. Дані карти здатні досягти і більш високої частоти кадрів, але нам потрібно оцінити їх поведінки в реальних умовах, а через активації температурного троттлінга вони не можуть утримувати більш високі показники протягом довгого часу.

Як бачите, приріст швидкості GeForce GTX 690 при переході з восьми ліній PCIe першого покоління (2 Гбайт / с) на шістнадцять ліній PCIe третього покоління (15,7 Гбайт / с) становить 2,9%, а у Radeon R9 290X (Зразок для преси) - трохи більше 6,4%. В обох випадках в тесті Unigine Valley 1.0 карти не дуже обмежені інтерфейсом PCIe (2,0 Гбайт / с). Тому приріст швидкості при збільшенні пропускної здатності інтерфейсу до 15,75 Гбайт / с в кращому випадку ледве помітний.

Хочемо попередити, що ми не тестували екстремальні конфігурації з трьома або чотирма картами в SLI / CrossFire. Звичайно, було б цікаво дізнатися, чи відповідають отримані результати показниками багатопроцесорних графічних конфігурацій. З огляду на обсяг зайнятої смуги пропускання, ми готові посперечатися, що після восьми ліній PCIe 2.0 різниця буде близька до нуля. Якщо у вас є перевірені дані, не соромтеся залишати коментарі до статті!

Висновки і думки про PCIe

Навіть відеокарти для ентузіастів не особливо вимогливі до смуги пропускання шини PCIe. Якщо використовувати для однієї карти PCIe 2.0, PCIe 3.0, вісім або шістнадцять ліній, продуктивність навряд чи зміниться. Якщо у вас є слот третього покоління - використовуйте його. Тільки не варто очікувати відчутного прискорення. Якщо ви плануєте використовувати одну відеокарту, не варто гнатися за оновленнями системної плати і процесора для сумісності з PCI Express третього покоління.

Ситуація ускладнюється, якщо взяти до уваги кілька графічних адаптерів. Тут більшість ентузіастів хотіли б побачити, до чого приведе цей експеримент. хоча GeForce GTX 690 , По суті, являє собою пару процесорів GK104 зі зниженою частотою в SLI на одній друкованій платі, бажання оцінити більш екзотичні конфігурації цілком зрозуміло. Посилання на тести 2011 року, наведена вище, містить подібні дані по SLI / CrossFire, що стоять вашої уваги.

Розвінчуємо міфи про продуктивність відеокарт | NVAPI: вимірювання ступеня використання смуги пропускання відеопам'яті

Експериментуємо з Nvidia NVAPI

Nvidia реалізує інтерфейс програмування ( "NVAPI") через драйвер GeForce. Цей інтерфейс, серед іншого, дозволяє проводити вимірювання продуктивності. Для технічно підкованих читачів ми виклали відповідний розділ у файлі заголовка nvapi.h:

ІМ'Я ФУНКЦІЇ: NvAPI_GPU_GetDynamicPstatesInfoEx

ОПИС: Даний API викликає функцію NV_GPU_DYNAMIC_PSTATES_INFO_EX для певного фізичного GPU. Інформація про кожного показнику індексується в масиві. наприклад:

- pDynamicPstatesInfo-> utilization [NVAPI_GPU_UTILIZATION_DOMAIN_GPU] містить інформацію про GPU. Є чотири параметри, які містять інформацію про використання GPU і динамічних граничних значеннях P-станів: графічний процесор (GPU), буфер кадрів (FB), відеодвіжок (VID) і інтерфейс шини (BUS).

Крім наведеної виноски з заголовка, інших документів по функціональності цього API немає. Інформація нижче найкраще описує її роботу, хоча багато засноване на гіпотезах.

  • Очікується, що значення метрики "GPU" є обмеженням графічної продуктивності в більшості ігор. Якщо це значення менше 100%, то продуктивність обмежується іншим компонентом, наприклад центральним процесором або підсистемою пам'яті.
  • Цікава метрика буфера кадрів ( "FB"), якщо, звичайно, вона працює, як передбачається. З назви може здатися, що вона вимірює інтенсивність використання відеопам'яті (відсоток задіяної пам'яті). Але це не так. Схоже, вона розраховує інтенсивність використання контролера пам'яті в процентах. Якщо це відповідає дійсності, то вона вимірює фактичну пропускну здатність, яка використовується контролером, і виміряти цей показник іншими способами неможливо.
  • Ми не особливо зацікавлені в вимірах відео движка ( "VID"). Він, як правило, не використовується в іграх, і показники найчастіше залишаються на 0%. Невеликий зсув буде помітний при кодуванні відео через ShadowPlay або потокової передачі на Shield.
  • Метрика інтерфейсу шини ( "BUS") пов'язана з використанням контролера PCIe в процентах. Відповідні вимірювання, які можна відстежити в EVGA PrecisionX і MSI Afterburner, називаються "" GPU BUS Usage ".

Ми попросили Nvidia пролити світло на внутрішню роботу NVAPI. У відповідь Nvidia підтвердила, що FB вимірює коефіцієнт навантаження смуги пропускання відеопам'яті, але порадила не звертати уваги на метрику BUS, оскільки вважає її ненадійною і тому не використовує.

Ми запитали AMD про наявність аналогічного API або функції, яка б дозволяла проводити подібні вимірювання. Після внутрішньої перевірки представники компанії сказали, що такої функції у них немає. Тому як би нам не хотілося, ми не зможемо провести подібні тести на відкритих AMD.

Переходимо до самих тестів ...

Міф: коефіцієнт навантаження смуги пропускання відеопам'яті і шини PCIe неможливо виміряти безпосередньо

Обсяг даних, якими обмінюються між собою відеопам'ять і графічний процесор, просто величезний. Ось чому відеокарт потрібні складні контролери пам'яті, що забезпечують величезну пропускну здатність. У разі AMD Radeon R9 290X пропускна здатність досягає 320 Гбайт / с. Nvidia GeForce GTX 780 Ti підвищує це значення до 336 Гбайт / с. Максимальна пропускна здатність PCIe вражає менше (15,75 Гбайт / с через слот x16 третього покоління), однак навантаження на PCIe не така висока. Але який відсоток смуги пропускання шини використовується в заданий момент часу? Чи є вона органічівающім продуктивність фактором? До сих пір було важко відповісти на ці питання. Але ми сподіваємося, що архітектура Kepler і NVAPI дозволять отримати більш точні дані.

Ми почали наше дослідження з метрики BUS на GeForce GTX 690 . Хоча, за словами Nvidia цей тест ненадійний, нам як і раніше цікаво, які висновки можна зробити з отриманих результатів. Однак збираючи дані, ми зіткнулися з перешкодою: два графічних процесора GK104 нашої карти не пов'язані з основною шиною PCIe безпосередньо, а коммутируются через міст PLX PEX 8747. Таким чином, незалежно від налаштувань материнської плати, чіпи завжди працюють в режимі PCI Express 3.0, крім випадків, коли вони знаходяться в стані енергозбереження. Ось чому GPU-Z показує, що карта працює в режимі PCIe 3.0, навіть коли платформа обмежена PCIe 2.0. Виходить, що з лініями попереднього покоління на стороні хост-процесора працює комутатор PEX 8747.

Якщо контролер шини кожного GPU працює з інтерфейсом PCIe 3.0 на 16 ліній, то при навантаженні 100% пропускна здатність повинна складати 15,75 Гбайт / с. Однак ця інформація сама по собі мало що значить. Неможливо сказати, скільки трафіку йде на хост і скільки - на інший GPU. Крім того, комутатор PLX не дає можливість отримати більш детальні дані. В даний час ми маємо справу з найгіршим сценарієм: кожен GPU отримує всі дані з хоста, і вони не групуються.

З огляду на вищесказане, подивіться на графік вище. Він відповідає 200-секундної пробіжки в BioShock: Infinite на призначених для користувача настройках графіки з дозволом 3840x2160 точок, із середнім показником частоти кадрів 80 FPS. Використання шини PCIe для кожного GK104 склало приблизно 15%. Навіть в такому теоретично найгіршому сценарії ми використовуємо близько 30% смуги пропускання інтерфейсу PCIe 3.0 x16 або близько 60% слота CPIe 2.0 x16. Це досить жорсткий сценарій, в якому на двох GPU в SLI на одній платі візуалізуються 663600000 пікселів в секунду (3840x2160 х 80 кадрів в секунду). Для порівняння, в режимі 1920x1080 х 60 FPS виводяться 124 400 000 пікселів в секунду.

З огляду на недоліки в тестуванні GeForce GTX 690 , В подальших тестах ми будемо використовувати GeForce GTX 750 Ti і GeForce GTX 650 Ti. Сім діаграм нижче можуть здатися занадто перевантаженими, але їх потрібно розглядати разом. Графіки засновані прогоні двох вищезазначених карт через бенчмарк Metro: Last Light.

Починаючи з першого графіка, по порядку йдуть такі тести: використання ядра GPU (%), використання відеопам'яті (Мбайт), температура ядра GPU (за Цельсієм), кількість кадрів в секунду, час кадру (в мілісекундах), використання "FB" (% ) і "BUS" (%). Ми опустили значення тактових частот ядра і пам'яті, оскільки вони були зафіксовані на відповідних значеннях в GPU Boost.

Відсоток використання GPU показує, що графічний процесор обох карт є основним "вузьким місцем" в системі. Велику частину часу навантаження становить 100%. Такий результат очікуємо і легко пояснимо. Ядро GPU в іграх навантажується найсильніше.

Відсоток використання пам'яті до 1 Гбайт залишається стабільним. Тут говорити особливо немає про що.

Природно, GPU поступово нагріваються. Однак, у порівнянні з відеокартами для ентузіастів, ці чіпи показали невисоку температуру.

Найчастіше геймери звертають увагу на частоту кадрів, і ми бачимо, що GeForce GTX 750 Ti швидше GTX 650 Ti. Середня частота кадрів в даному експерименті потрібна як вимірювання пропускної здатності, щоб використовувати їх для коригування, яку ми проведемо пізніше.

Скачки часу подачі кадру обумовлюють значні коливання даного параметра. Ці скачки збігаються з підвищеною (не зниження) частотою кадрів і зі зниженою (непідвищення) навантаженням на GPU. Це може бути безперечним доказом наявності "вузького місця" в платформі (хоча в даному випадку воно не грає великого значення, так як відсоток навантаження на GPU залишається в діапазоні 95%; якщо вплив "вузького місця" в платформі було б сильніше, то коефіцієнт навантаження був би значно нижче). У всякому разі, хоч це і цікаві спостереження, це трохи не те, що ми хотіли отримати.

Відсоток використання "FB" або "буфера кадрів" - одна з нових метрик в рамках NVAPI. Показник виражається у відсотках, і, насправді, його назва трохи некоректно. Фактично тест вимірює у відсотках часу "зайнятості" контролера пам'яті кожного GPU і, за сумісництвом, коефіцієнт використання смуги пропускання.

До речі, ми не вибирали ці дві карти навмання. Ми вибрали їх, тому що вони оснащуються однаковим 128-бітовим інтерфейсом пам'яті з частотою 1350 МГц, забезпечуючи пропускну здатність до 86,4 Гбайт / с. При рівні показниках (FPS) їх коефіцієнти використання смуги пропускання повинні бути порівняні. Однак показники частоти кадрів у них не рівні. GeForce GTX 750 Ti забезпечує більш високу продуктивність, від якої потерпають на графіку частоти кадрів. Тому ми нормалізували метрику для карти на чіпі GM107 за допомогою показника продуктивності GeForce GTX 650. На графіку вище вона відображена синьою лінією.

Результати вражають. Схоже, GPU Maxwell забезпечує на 25% більш високий показник FPS, ніж GPU Kepler в тому ж ціновому діапазоні, при цьому відсоток використання смуги пропускання пам'яті нижче на 33%. Іншими словами, в тесті Metro: Last Light на кожен кадр відеокарти GeForce GTX 750 Ti потрібно наполовину менше пропускної здатності пам'яті.

Цей факт може мати далекосяжні наслідки для GeForce GTX 980 і 970 . Місце, займане інтерфейсом пам'яті, можна віддати під SMM, збільшивши там, де необхідно, подачу харчування, або зменшити розмір кристала, знизивши вартість виробництва.

Наш останній графік вперше безпосередньо показує, наскільки малі вимоги сучасних відеокарт до смуги пропускання PCIe (за умови, що показання справедливі, а не "ненадійні", як вважає Nvidia). PCI Express 2.0 забезпечує 8 Гбайт / с двобічної пропускної здатності через слот на 16 ліній. Обидві карти не споживають навіть 10% цього потенціалу. Для роботи досить 0,8 Гбайт / с. Тобто всього 5% від того, скільки є однією мапі на платформі Haswell.

Висновки про пропускну здатність відеопам'яті

Наші тести підтвердили дві речі:

  • Пропускна здатність відеопам'яті не є "вузьким місцем" (по крайней мере, в тесті Metro на картах GeForce GTX 750 Ti / 650 Ti).
  • Продумане використання потенціалу відеопам'яті в архітектурі Maxwell вражає - вимоги до пропускної здатності відеопам'яті, по суті, знизилися вдвічі. Це також підтверджують представники Nvidia.

Ми вважаємо, що величезне зниження вимог до пропускної здатності пам'яті має значні наслідки, що стосуються архітектури. Можна погодитися з тим, що пора використовувати менші за розміром контролери відеопам'яті, а вивільнену за рахунок цього площа на кристалі можна буде використовувати під додаткові SMM, що підвищить ефективність і продуктивність Maxwell в порівнянні з Kepler.

В майбутньому ми б з радістю провели подібні порівняння на картах AMD, якщо компанія впровадить аналогічну функцію в своїх драйверах.

16. Чи означає це, що передача даних буде відбуватися по 16-смуговому каналу?
Як це відбивається на пропускної здатності?
2.0. Чи будуть отримані тоді результати актуальні і сьогодні?
Але який відсоток смуги пропускання шини використовується в заданий момент часу?
Чи є вона органічівающім продуктивність фактором?