Как работает G-Sync compatible
G-Sync VS FreeSync: ненужная война дисплеев
G-Sync от компании Nvidia, как и FreeSync от AMD, довольно полезны для геймеров. В принципе, эти дополнения к мониторам заботятся о том, чтобы частота обновления картинки на мониторе динамическим образом подстраивалась к частоте кадров, которые успевает производить графическая карта. Это означает следующее: если ПК может выдавать 75 кадров в секунду, монитор адаптируется к этому показателю и устанавливает частоту обновления изображения на уровне 75 Гц. Важным условием работы этих технологий является возможность монитора работать в настолько широком диапазоне частот, чтобы покрывать как можно большую разницу fps.
Если у монитора нет возможности коммуницировать с графической картой, его частота обновления изображения остается статической, в то время как фреймрейт у игр меняется динамически. При особенно сильной разнице это приводит к так называемому тиринг-эффекту (горизонтальное смещение картинки) и подергиваниям. С помощью G-Sync этот эффект может быть минимизирован, так как графическая карта будет ждать того момента, когда монитор будет готов к следующему «рефрешу». Например, для 60-герцового монитора графическая карта может ограничить количество производимых кадров на уровне 60 fps.
До сих пор компания Nvidia шла проприетарным путем и ограничивала собственные графические карты в поддержке G-Sync. Технология FreeSync от компании AMD и, соответственно, Adaptive-Sync-технология, которая была определена VESA-группой как спецификация DisplayPort-Revision 1.2a, с Geforce-картами не функционировала. Однако теперь производитель, что несколько неожиданно, делает стандарт доступным и выпускает драйвер-расширение G-Sync compatible, который делает возможным использование Adaptive Sync с видеокартами Nvidia — по крайней мере, с новыми Geforce-1000- и Geforce-2000-моделями (Pascal и Turing). Ограничение двумя последними поколениями Nvidia обуславливает тем, что только здесь имеется DisplayPort версии 1.2a.