Снижение производительности NVIDIA GPU при G-Sync и SLI вместе

//Снижение производительности NVIDIA GPU при G-Sync и SLI вместе

Снижение производительности NVIDIA GPU при G-Sync и SLI вместе

Несколько дней назад один из наших читателей выдвинул идею о том, что G-Sync влияет на производительность при его использовании с SLI. Это было немного удивительно слышать. Ведь Nvidia всех уверяла ранее, что при использовании G-Sync нет снижения производительности. Снижение производительности NVIDIA GPU при G-Sync и SLI вместе оказалось заметили уже давно.

NVIDIA ускоряет GTX 1060 с GDDR5X из за AMD Radeon RX 590

Но отчеты на форумах Nvidia включают пользователей с результатами тестирования, сравнивающими при включении и выключении G-Sync. Есть обширные отчеты, и они датируются месяцами, включая сообщения в сообществе Nvidia reddit.

Снижение производительности, о котором сообщается на форумах, Похоже, связано с SLI. Существует некоторая двусмысленность в отношении того, как долго существует проблема. Я видел, как некоторые люди утверждают, что это связано с драйверами, выпущенными после 391.xx. И есть другие, кто заметили что проблема существует уже давно. В течение всего времени как Паскаль присутствует на рынке GPU. Проблема проста: согласно сообщениям на форумах Nvidia и в Nvidia subreddit, активация G-Sync одновременно с SLI приводит к значительному снижению производительности во многих играх.

Так в чем же причина упадка производительности?

SLI-это технология Nvidia для использования более чем одного графического процессора для визуализации сцены. В то время как G-Sync-это технология, которая сглаживает частоту кадров по сравнению со стандартной V-Sync. тем самым гарантируя, что монитор синхронизируется с частотой обновления GPU. И представляет кадр так быстро, как дисплей способен его доставить. И хотя я не могу точно предположить, в чем проблема, мы можем интуитивно понять причину: задержки.

G-Sync и SLI имеют серьезные последствия из-за задержек. Синхронизация GPU и монитора занимает много времени. Перемещение данных с одного GPU на другой. А затем отображение кадров, отрисованных тем же GPU тоже занимает время. Если вы хотите частоту кадров 30 кадров в секунду, вам нужно отрисовать новый кадр каждые 33.3 МС. Когда вы хотите работать на 60fps, то это означает, что вам нужен новый кадр каждые 16.6 МС. Если вы нацелены 120 кадров в секунду. То это означает, что вам нужен новый кадр каждые 8.3 МС. В определенный момент, у вас появляется очень ограниченное окно, с которым приходится работать.

Это наша теория, по крайней мере, после некоторого времени изучения этой проблемы. Для начала давайте посмотрим на результаты пользователя octiceps. Он разместил их на форумах Nvidia.

Снижение производительности NVIDIA GPU при G-Sync и SLI вместе

Есть некоторые заметные падения в этом графике. Rising Storm 2 c 200 FPS на всего 75? И тут, наоборот, появляются какие-то очень маленькие пробелы. 10-процентное падение Witcher 3 по — прежнему значительно — никто не хочет сбрасывать кадры. Но если мы будем честны, это не пробел, который вы заметите. Наример если вы не запустили тест или не знали об определенной области с гигантским падением кадра.

Давайте по тестируем…

Я решил проверить ситуацию сам с парой графических процессоров GTX 1080. Этих самых дорогих карт, которые у меня есть в SLI. Вопрос довольно интересен. В то время как не так много владельцев SLI, а тем более владельцев SLI с мониторами G-Sync. И немногие из них, вероятно, представляют собой самых больших потребителей в экосистеме энтузиастов.

Если бы вы купили G-Sync несколько лет назад. То вы могли бы легко попасть на 600 долларов за GTX 1080. Или 700 долларов за 1080 Ti. Так же плюс монитор за 500 долларов. Учитывая, что наиболее распространенной конфигурацией опроса Steam является GTX 1060 в паре с монитором 1080p. Это люди, которые тратят серьезные деньги на оборудование Nvidia.

Тестовая конфигурация — сборка

Я подозреваю, что есть существенная разница в конфигурации. Например между монитором G-Sync, который у нас есть, и оборудованием, которое используют эти энтузиасты. Единственный монитор G-Sync, который у меня есть, — это Acer XB280HK. Ихотя он способен на 4K, он поддерживает максимальную частоту обновления 60 Гц. Это означает, что по определению, я не могу использовать G-Sync в тестах. Это если взять частоту кадров выше 60 Гц. Поэтому если это проблема синхронизации, которая возникает только выше этой частоты кадров, я определенно ее не увижу.

Спойлер: это не так, и я увидел разницу.

Так что теперь мне легче проверить, что наши core i7-8086K тестового стенда, которые мы использовали для терапии RTXи 2080 2080 TI тестирования полностью готовы. Вся система с совершенно новой установкой Windows 10 с одним драйвером Nvidia (411.63). Это нетронутая конфигурация. Например даже игры были загружены с нуля, а не скопированы с архивной библиотеки Steam.

Что мы тестировали

Мы протестировали две игры, которые были упомянуты энтузиастами как специально затронутые. И кроме этого одну игру, о которой не упоминали. Наши целевые частоты кадров были как можно ближе к 60 кадров в секунду. Но не выше. И в тесте мы моделировали поведение различных игр в разных разрешениях. Все для того, чтобы проверить, насколько проблема заметна или нет. В зависимости от средней частоты кадров GPU.

Мы также протестировали множество других потенциальных переменных, включая то, была ли G-Sync установлена в полно экранном режиме. Или также активна в режиме без полей. Кроме того была ли включена или отключена функция V-Sync. Мы не наблюдали никаких различий в производительности, которые иначе не объяснялись бы изменением самой V-Sync. Мы также протестировали,  имеет ли значение использовать DX11 или DX12 в играх, которые поддерживают и то и то.

Так же мы не наблюдали никакого влияния на производительность от изменения G-Sync для работы в режиме без полей. Это по сравнению с полноэкранным режимом. И мы не видели никакого изменения производительности от изменения где V-Sync включен и V-Sync отключен. Имейте в виду, что мы протестировали только несколько игр. Ведь мы искали потенциальные доказательства проблемы, а не пытаясь выполнить исчерпывающую оценку всех условий, при которых производительность G-Sync может варьироваться на 10-15 игр.

Поскольку пара 1080 в некоторых случаях способна повысить современные игры до более 60 кадров в секунду. Причем даже при 4K. Мы также проверили игры, которые допускают сверхсэмплинг. Наконец, мы провели эти тесты как на одном GTX 1080 Ti, так и на паре GTX 1080. Все проблемы, которые мы наблюдали, по-видимому, уникальны для графических процессоров, работающих в SLI. В 1080 Ti не было никаких проблем в любой тестовой конфигурации. И мы не заметили никакой разницы где G-Sync включили и без G-Sync. Это не заметно при тестировании одного GPU.

Deus Ex: Разделенное Человечество результаты теста

Deus Ex: Mankind Divided показывает небольшую, но определенную потерю производительности. Это заметно при включенной G-Sync, как показано ниже. Интересно, что этот пробел появляется только в режиме DX11. Когда мы переключились на DX12, он исчез.

Deus Ex: Разделенное Человечество результаты тестаЯ не могу сказать, но мне кажется, что DXMD является очень странным движком в некоторых отношениях. Производительность от активации 4x MSAA соперничает с тем, что вы ожидаете от супер-сэмплированного решения сглаживания. Это удар по производительности, которого каждый пытается избежать. Все потому что стоимость рендеринга сцены в 2X SSAA эквивалентна производительности от запуска его в 2x текущем разрешении.

Если у вас есть 1080p монитор и видеокарта GTX 1080 Ti, можно получить, что будет как 4К от накрутки 1080p для 2х ССАА. Но большинство игр не предлагают этот параметр. И большинство геймеров не обладают достаточно мощным GPU, чтобы воспользоваться этим в современных играх.

Far Cry 5

Из за того, что мы должны держать частоту кадров в 60 кадров в секунду постоянно, чтобы увидеть истинное влияние от G-Sync включения и выключения, мы проверили FC5 в четырех различных разрешениях. 4К, 4К+1,1 х суперсэмплинга, 4К+1,3 х суперсэмплинга, и 4К+1,5 х суперсэмплинга. Результаты и разрыв в производительности между включением G-Sync и выключением G-Sync показаны ниже.

Far Cry 5

Чем ближе GPU работает к 60 кадрам в секунду, тем больше разрывы. При уменьшении частоты кадров разрыв между двумя решениями также уменьшается. Это, кажется, означает, что наша теория о задержках может быть правильной. По крайней мере, наши результаты подтверждают замечание пользователя форума Nvidia Шона Уолша. Он сказал о том, что “запуск Gsync снижает FPS на 10-20% в зависимости от игры.

Я тестировал это в FC5 и Ghost Recon Wildlands.” Наши результаты показывают, что FC5 примерно 1,09 x и 1,20 x быстрее с отключенной G-Sync. Все в зависимости от целевого разрешения. FC5 не поддерживает DX12, поэтому мы не смогли испытать это.

До этого момента мы получили два разных вывода.

1) Включение DX12 может устранить проблему.
2) Размер снижения производительности увеличивается, по мере увеличения частоты кадров.

Hitman (2016)

Hitman не был указан как затронутая игра, но я все равно взял ее на прицел. Я рад, что сделал это. Это дало полезный и наглядный третий пример в наших тестах.

Вот наши результаты Hitman в DX11 и DX12. Как и в Far Cry, мы протестировали Hitman с 1.3 x и 1.5 x сверхсэмплированием. Для того, чтобы полностью увеличить частоту кадров в диапазоне G-Sync нашего монитора. На этот раз для начала нам пришлось использовать сверхсэмплинг в 4K, поэтому вы не видите статических результатов теста “4K”.

Снижение производительности NVIDIA GPU при G-Sync и SLI вместе

Хорошей новостью является то, что вы можете еще раз устранить штраф производительности DX11. Тот самый, связанный с использованием G-Sync и SLI одновременно. Плохая новость в том, вы должны установить частоту кадров 30 кадров в секунду для этого. В DX11, снижение производительности является статическим. 1.27 x в обоих режимах суперсэмплирования. Это усиливает тенденцию, которую мы видели с FC5 и Deus Ex.

Мы не смогли протестировать такие игры, как Sleeping Dogs, потому что мы не смогли достаточно снизить частоту кадров GPU. Для того, чтобы снизить ее ниже нашего требования к 60 кадров в секунду. Мы наблюдали разницу в 2fps в ней между включенной и отключенной G-синхронизацией (71 fps против 73 fps). Но это может подпадать под разумную погрешность.

Тем не менее, картина здесь ясна. Включение G-Sync и использование SLI не гарантируют сохранение частоты кадров. Мы также протестировали Metro Last Light Redux с принудительным профилем рендеринга AFR2. И эта игра не показала никакого падения производительности между включенной и отключенной G-Sync.

Deus Ex Mankind Divided сообщил о небольшом штрафе, который исчез в DX12. В то время как Hitman слишком сильно реагирует на производительность в этом режиме при использовании SLI. Что реально не оправдано. Три игры, три разные модели представления.

Всегда рискованно пробовать и тестировать отчеты форума. И не потому, что комментаторы форума являются фантазерами, а потому, что большинство из них не предоставляют достаточной технической информации. Информации, нужной чтобы убедиться, что вы правильно воспроизводите проблему.

На данный момент у меня нет объяснения этой проблемы. И я понимаю, что “проблема задержек” чрезвычайно расплывчата. Это теория, которая соответствует некоторым здравым фактам. Наши результаты в совокупности показывают, что проблема реальна и что разрывы в производительности могут быть такими же большими, как говорят пользователи Nvidia. Особенно если они продолжают увеличиваться по мере увеличения частоты кадров. Продолжение следует

Оставить комментарий