Что такое g sync: NVIDIA G-Sync — эта революционная технология, обеспечивающая самый быстрый и плавный игровой процесс

Содержание

NVIDIA G-Sync — эта революционная технология, обеспечивающая самый быстрый и плавный игровой процесс

NVIDIA G-Sync — эта революционная технология, обеспечивающая самый быстрый и плавный игровой процесс

  1. Главная
  2. Технологии
  3. Технология G-Sync

ТЕХНОЛОГИЯ G-Sync

NVIDIA G-Sync — эта революционная технология для мониторов, которая обеспечивает самый быстрый и плавный игровой процесс в истории. Революционная производительность G-SYNC достигается за счет синхронизации скорости регенерации изображения дисплея с GeForce GTX GPU, установленным в вашем ПК или ноутбуке. Это устраняет разрывы и минимизирует дрожание и задержки изображения. В результате сцены появляются мгновенно, объекты выглядят четче, а геймплей становится суперплавным, обеспечивая потрясающие визуальные впечатления и серьезное преимущество над соперниками.

КАК РАБОТАЕТ NVIDIA G-SYNC?

Взгляните на игры по-новому с революционной технологией для мониторов NVIDIA® G-SYNC™.

Синхронизируя частоту обновления дисплея и скорость рендеринга GPU, G-SYNC устраняет проблему разрыва кадров и минимизирует дрожание и задержки изображения, обеспечивая самый плавный игровой процесс без артефактов.

Когда важен каждый кадр, необходима феноменальная производительность изображения, которую может обеспечить только NVIDIA G-SYNC. Сцены появляются мгновенно, объекты выглядят более четкими и яркими. Геймплей приобретает динамику и отзывчивость, что обеспечивает быстроту реакции и серьезное конкурентное преимущество в процессе игры. Любая игра приобретает такую картинку, скорость воспроизведения и атмосферу, как и задумывалось разработчиком игры.

ПРОБЛЕМА: СТАРЫЕ ТЕХНОЛОГИИ

Когда телевизоры были изобретены, в них использовались катодно-лучевые трубки, которые работали методом сканирования потока электронов на поверхности трубки с фосфорным покрытием. Этот луч заставлял пиксель мерцать, и когда достаточное число пикселей довольно быстро активировались, катодно-лучевая трубка создавала ощущение видео с полноценным движением. Хотите – верьте, хотите — нет, эти первые телевизоры работали со скоростью обновления данных 60 Гц, так как промышленная частота переменного тока в США равна 60 Гц. Совпадение скорости обновления данных телевизора с промышленной частотой переменного тока облегчало создание первой электроники и сокращало помехи на экране.

К моменту изобретения персональных компьютеров в начале 80-х годов, технология катодно-лучевых телевизоров прочно заняла свое место и была самой простой и рентабельной технологией для создания компьютерных мониторов. 60 Гц и фиксированная частота обновления стали стандартом, а сборщики систем научились извлекать максимум возможностей из более чем неидеальной ситуации.

За последние три десятилетия несмотря на то что технология катодно-лучевых телевизоров эволюционировала в технологию LCD и LED телевизоров, ни одна крупная компания не осмелилась бросить вызов этому стереотипу, и синхронизация GPU со скоростью обновления монитора остается стандартной практикой в отрасли и по сей день.

Проблематично то, что видеокарты не осуществляют рендеринг изображения с постоянной частотой. В действительности, частота смены кадров на GPU будет значительно отличаться даже в одной сцене в одной и той же игре в зависимости от текущей нагрузки GPU. А если мониторы имеют фиксированную частоту обновления, то как же передать изображения с GPU на экран?

Первый способ – это просто игнорировать частоту обновления монитора и обновлять изображение в середине цикла. Nvidia называем это отключенным режимом VSync, именно так по умолчанию играют большинство геймеров. Недостаток заключается в том, что когда один цикл обновления монитора включает два изображения, появляется очень заметная «линия разрыва», которую обычно называют разрывом экрана. Хороший известный способ борьбы с разрывом экрана заключается в том, чтобы включить технологию VSync, которая заставляет GPU отложить обновление экрана до начала нового цикла обновления монитора. Это приводит к дрожанию изображения, когда частота смены кадров на GPU ниже частоты обновления дисплея. Это также увеличивает время ожидания, которое приводит к задержке ввода — заметной задержке между нажатием клавиши и появлением результата на экране.

Что еще хуже, многие игроки страдают от чрезмерного напряжения глаз из-за дрожания изображения, у других развиваются головные боли и мигрени. Это заставило Nvidia разработать технологию Adaptive VSync, эффективное решение, которое было хорошо принято критиками. Несмотря на создание этой технологии, проблема с задержкой ввода все еще остается, а это неприемлемо для многих геймеров-энтузиастов и совершенно не подходит для профессиональных геймеров (киберспортсменов), которые самостоятельно настраивают свои видеокарты, мониторы, клавиатуры и мыши, чтобы минимизировать досадные задержки между действием и реакцией.

РЕШЕНИЕ: NVIDIA G-SYNC

Встречайте технологию NVIDIA G-SYNC, которая устраняет разрывы экрана, минимизируя задержку ввода и дрожание изображения. G-SYNC обеспечивает такие революционные возможности, синхронизируя монитор с частотой обработки кадров на GPU, а не наоборот, что приводит к более скоростному и плавному изображению без разрывов, которое поднимает игры на качественно новый уровень.

Гуру отрасли Джон Кармак (John Carmack), Тим Суини (Tim Sweeney), Джохан Андерсон (Johan Andersson) и Марк Рейн (Mark Rein) были впечатлены технологией NVIDIA G-SYNC. Киберспортсмены и лиги киберспорта выстраиваются в очередь, чтобы использовать технологию NVIDIA G-SYNC, которая раскроет их настоящее мастерство, требующее еще более быстрой реакции, благодаря незаметной задержке между действиями на экране и командами клавиатуры. Во время внутренних тестирований заядлые игроки проводили обеденное время за онлайн матчами по локальной сети, используя мониторы с поддержкой G-SYNC, чтобы одержать победу.

Если вы, как и киберспортсмены, хотите получить самый четкий, плавный и отзывчивый игровой процесс, то мониторы с поддержкой NVIDIA G-SYNC – это совершенный прорыв, подобного которому больше нигде не найти. Настоящая инновация в эру доработок, NVIDIA G-SYNC кардинально изменит ваш взгляд на игры.






Что такое G-Sync, FreeSync, V-Sync и HDMI VRR?

Всех ПК-геймеров планеты Земля объединяет одна проблема — вертикальные разрывы изображения. И вроде бы есть куча технологий которые решают эту проблему:

  • V-Sync,
  • G-Sync,
  • FreeSync
  • А ведь еще есть Adaptive Sync
  • А в HDMI 2.1 недавно добавили VRR.

Но легче от этого не становится. Только больше путаешься. Чем все эти технологии отличаются? Какую выбрать видеокарту и монитор? И будет ли это всё работать на телевизоре?

Давайте сегодня раз и навсегда разберемся в технологиях адаптивной синхронизации изображения.

Для тех кто не в курсе. А в чём собственно проблема?

Чтобы изображение появилось на экране, должно произойти, как минимум, две вещи:

  1. графический процессор должен подготовить кадр и передать его на монитор,
  2. ваш монитор должен показать этот кадр.

Вроде бы всё просто! Но тут кроется небольшой конфликт. Монитор работает по строгому расписанию. Нужно обновлять изображение на экране через равные промежутки времени, строго определённое количество раз в секунду. Этот параметр называется частотой обновления и измеряется он в герцах.

Обычные мониторы работают на частоте 60 Гц, то есть способны выводить 60 кадров в секунду, а игровые на 144 Гц и выше.

А вот графический процессор живет в совершенно ином мире. В играх постоянно всё меняется: колышется листва, журчит ручеёк, враги выпрыгивают из-за угла. Каждый кадр отличается по своей сложности, поэтому на их просчет уходит разное количество времени.

Иными словами, у монитора частота кадров постоянная, а у видеокарты переменная.

Вот и выходит, что за один цикл обновления монитора видеокарта может подготовить больше одного кадра или меньше.

Из-за этого мало того что страдает плавность картинки, так еще и появляются артефакты в виде вертикальных разрывов изображения. Кстати, при просмотре фильмов тоже могут появляться такие артефакты, потому что кино снимают в 24 к/с.

V-Sync

Очевидно проблема требовала решения, и еще на заре компьютерных игр оно появилось! Название у этого решения — вертикальная синхронизация или V-Sync. Наверняка вы встречали такую опцию как в настройках видеокарты, так и в играх.

Работает эта штука достаточно топорно. Фактически она просто принуждает видеокарту выводить кадры с частотой кратной частоте обновления экрана. Например, если у вас монитор 60 Гц, то максимальное количество кадров в секунду тоже будет 60, даже если ваша видеокарта способна на большее. И в общем-то часто такое ограничение вполне уместно, если у видеокарты хватает мощи и нет просадок ниже 60 к/с, но если они есть — начинаются проблемы.

При включенной вертикальной синхронизации, следующее кратное значение — это 30 к/с. Поэтому даже если ваш фреймрейт просел фактически всего на пару кадров, вы всё равно увидите падение до 30 к/с. Такой перепад мало того, что большой и очень визуально ощутимый, так ещё и будет происходить с небольшим лагом. Поэтому если стабильного FPS в 60 к/с или 30 не достичь, то включать V-Sync вообще нет никакого смысла.

Справедливости ради, чем выше герцовка монитора, тем больше мы имеем кратных значений, на которых может работать синхронизация. Поэтому на игровых мониторах V-Sync работает куда лучше.

Но история с кратными значениями — не самая главная проблема технологии. Есть другой не очевидный недостаток: вертикальная синхронизация — увеличивает задержку ввода, то есть Input Lag.

Игра медленнее реагирует на ваши действия, всё происходит с задержками и как-то плывёт в молоке, поэтому прицелиться становится гораздо сложнее. Почему так происходит?

Это интересно, смотрите! Каждый кадр рассчитывается и выводится на экран через один и тот же конвейер. Упростим его до трёх этапов.

  1. Каждое ваше действие, например щелчок мышки надо как-то интерпретировать и обновить состояние игры. За это отвечает центральный процессор (синяя полоса на картинке). Центральный процессор подготавливает кадры для графического процессора и помещает их в очередь рендеринга графического процессора.
  2. Затем графический процессор (зелёная полоса) берет эти подготовленные кадры из очереди и рендерит их.
  3. Только потом эти кадры выводятся на дисплей (серая полосочка на картинке).

Ну и в чём проблема, спросите вы? Дело в том, что ЦП не берется за подготовку следующего кадра, пока предыдущий не будет выведен на экран. Поэтому ограничивая количество выводимых кадров в угоду синхронизации с дисплеем, мы фактически увеличиваем задержки с которыми обновляется состояние игры! И если в каких-то простеньких играх типа пасьянса такие вещи допустимы, то в соревновательных играх вертикальная синхронизация может стать серьёзной помехой.

G-Sync

Но переживать не стоит, так как решение появилось еще в 2013 году. Именно тогда компания NVIDIA представила свою технологию адаптивной синхронизации — G-Sync. В отличие от старой технологии, G-Sync позволяет подстраивать не видеокарту под частоту обновления монитора, а наоборот заставляет монитор менять свою частоту под видеокарту!

Представляете? Так тоже можно было!

В результате мы получаем потрясающе плавную картинку без вертикальных разрывов и задержки ввода! Просто сказка! G-Sync также работает в огромном диапазоне частот. Изначально это было от 30 до 144 Гц, а сейчас уже есть поддержка до 360 Гц и может даже выше, тут скорее всё зависит от монитора.

А если фреймрейт падает ниже 60 Гц G-Sync умеет дублировать пропущенные кадры.

Получаются сплошные плюсы и проблема решена еще в 2013 году? Так почему же мы до сих пор об этом говорим?

Ну как сказать. Во-первых, эта технология закрытая, соответственно, G-Sync работает только с карточками NVIDIA, но это пол беды.

Все волшебные функции G-Sync стали возможны благодаря специальному чипу, который необходимо встроить в монитор. Естественно, эти чипы производит тоже NVIDIA и стоят они недешево. Поэтому мониторы с поддержкой G-sync в среднем стоят на 250-300$ дороже и таких моделей очень мало. То есть получилась классная, и для 2013 года революционная технология, но не универсальная и дорогая.

VESA Adaptive Sync

Поэтому уже спустя год, в 2014, Ассоциация стандартизации Video Electronics Standards Association или VESA представила открытую технологию Adaptive Sync, которая умеет, в принципе, всё то же самое, что и G-Sync, но без дорогостоящих чипов и работает на частотах от 9 до 240 Гц! Неплохо да?

Но для внедрения технологии нужно, чтобы её поддержку внедрили в прошивку и драйвер монитора, драйвер видеокарты, операционной системы и в игры!

А также необходимо наличие DisplayPort версии не ниже 1.2a, так как технология стала частью именно Display Port. Как видите, чтобы технология взлетела, нужно было проделать много работы. И этой работой занималась компания AMD.

AMD FreeSync

В 2015 году AMD внедрили Adaptive Sync в драйвера своих видеокарт и назвали технологию FreeSync. Реализация от AMD быстро получила очень широкое распространение. Добавить поддержку FreeSync в монитор оказалось настолько дешево, что сейчас сложнее найти игровой монитор без этой фичи, чем с ней.

Но AMD не остановились на просто внедрении стандарта от VESA. Также они добавили поддержку HDMI, начиная с версии 1.4. А в 2017 выпустили FreeSync 2, в который добавилась поддержка HDR и компенсацию низкой частоты кадров, как в G-SYNC.

Кстати, чуть позже, FreeSync 2 переименовали в в более элитное FreeSync Premium Pro, а обычный FreeSync для мониторов с частотой 120 Гц и выше стали называть FreeSync Premium. Хотя такие маркетинговые финты я не одобряю, но в остальном сплошной респект AMD за популяризацию стандарта.

Кстати, NVIDIA также в 2017 году добавила поддержку HDR и назвала это всё G-Sync Ultimate.

И вроде бы всё классно, в команде у красных и у зеленых есть по своей шикарной технологии. Но что делать, если у тебя видеокарта от NVIDIA, ты хочешь нормальную поддержку G-Sync, но покупать дорогущий монитор с этой технологией совсем не хочется? Или наоборот — не покупать же Radeon только потому что у тебя монитор с FreeSync?

До недавнего времени выбора не было никакого. Хочешь подешевле и побольше выбор мониторов — покупай Radeon. В другом случае, придется раскошелиться.

G-Sync Compatible

Но в 2019 году NVIDIA пошли навстречу покупателям и добавили поддержку стандарта VESA Adaptive Sync в драйвера для своих видеокарт серии RTX, а также для карточки GTX 1080. А значит теперь можно легко насладиться лучшим из двух миров: взять себе карточку от NVIDIA и монитор с FreeSync по вкусу. Вот только есть проблема. Если на FreeSync мониторе не написано G-Sync Compatible — значит он не был протестирован NVIDIA на совместимость и никаких гарантий, что всё будет работать нормально, вам никто не даёт. А NVIDIA тестирует далеко не все, и далеко не самые доступные модели.

Поэтому инициативу по тестированию в свои руки взяло интернет-сообщество. Они составили табличку с огромным списком протестированных пользователями мониторов.

VRR

С мониторами, кажется, разобрались. Но как быть, если хочется поиграть на большом экране телевизора через консоль или ПК. Будет ли работать адаптивная синхронизация? Спешу вас порадовать — будет! При условии что ваш ТВ оснащен портом HDMI версии 2.1, в который добавили технологию переменной частоты обновления VRR — Variable Refresh Rate.

Причём всё будет работать и с видеокартами от NVIDIA и с Radeon. Всё потому, что VRR — это та же самая технология VESA Adaptive Sync, но теперь она стала ещё и частью стандарта HDMI 2.1. Именно таким образом адаптивная синхронизация реализована в консолях нового поколения. А также, вы удивитесь, в Xbox One S и One X. Да, в коробки текущего поколения от Microsoft VRR завезли даже раньше, чем HDMI 2.1.

Итоги

Что, в итоге спустя 6 лет после своего появления, технология Adaptive Sync стала фактически отраслевым стандартом. Захватив видеокарты от AMD и NVIDIA, телевизоры и даже интегрированная графика от Intel в 11-м поколении процессоров теперь поддерживает эту технологию. А это значит, что в светлом будущем мы будем жить без единого разрыва, по крайней мере, вертикального!



Post Views:
9 299

Что такое G-Sync в мониторах и как работает эта технология?

Что такое технология G-Sync и как она работает?

В свое время проблемы с синхронизацией были серьезной проблемой. Благодаря G-Sync от Nvidia мы наконец-то уходим от нее, пусть пока и медленными темпами. Конечно, использование G-Sync не обходится без проблем. Что это такое и стоит его использовать? Давайте выяснять.

Зачем нужна технология G-Sync от Nvidia?

Эта проблема возникла где-то в конце 2000-х и достигла точки кипения в начале 2010-х, когда все начали изо всех сил стараться найти наилучшее возможное решение. Причина, по которой разрыв экрана не существовал раньше, заключается в том, что и видеокарты и устройства отображения были идеально оптимизированы и синхронизированы для достижения наилучшей производительности.

Однако, поскольку графика видеоигр стремилась стать более реалистичной, производители графических процессоров хотели сохранить свои карты как лучший инструмент для рендеринга этих реалистичных изображений. Лучшим примером может быть такая игра, как Crysis . Когда она вышла, это было чудо техники и было не так много компьютеров, на которых она могла работать с самым высоким разрешением и уровнем детализации.

Эти высокие требования к оборудованию даже стали мемом в игровом сообществе. Это просто говорит о том, что производители видеокарт имели очень хороший стимул производить графические процессоры с постоянно растущим приростом производительности.

Однако это оставило мониторы позади в том, что касается производительности и им потребовалось время, чтобы наверстать упущенное. Между тем, графические процессоры становились экспоненциально мощнее и могли создавать безумное количество кадров.

На фото: Разрыв экрана

Игровые мониторы с частотой обновления 60 Гц уходят в прошлое, когда видеокарты стали более чем способны воспроизводить более 100 кадров в секунду. Неудачный побочный эффект улучшения графических процессоров была неспособностью мониторов на самом деле отображать эти дополнительные кадры, которые привели к таким неприятным моментам, как подвисание и разрывание экрана.

Разрыв экрана происходит, когда монитор пытается вывести более одного кадра одновременно и это прямое следствие того, что графическая карта создает эти дополнительные кадры и отправляет их на монитор.

Это особенно раздражающее явление разрушающе эффект погружение в игру. К счастью, Nvidia представила довольно хорошее решение.

Читайте: Сравнивнение частот обновления 60 Гц и 120 Гц

Читайте: Что выбрать ноутбук или стационарный компьютер?

До выпуска G-Sync основным решением для разрыва экрана была технология VSync. Несмотря на то, что она была далека от совершенства, она выполнила свою задачу и помогла с разработкой более передовых технологий, таких как G-Sync, а также FreeSync.

VSync не позволяет графическому процессору выводить больше кадров, чем может обработать монитор. Например, если частота обновления монитора составляет 60 Гц, VSync установит производительность кадров на максимум 60 кадров в секунду .

Однако это не было полным решением, поскольку не было возможности синхронизировать FPS и частоту обновления монитора, когда графический процессор не может генерировать достаточно кадров, чтобы соответствовать монитору.

Что такое G-Sync?

Эта революционная технология Nvidia была представлена в 2013 году и она выдержала испытание временем. И вероятно, будет продолжать существовать еще долгое время. С G-Sync разрыв экрана, похоже ушел в прошлое и мы даже не будем его обсуждать через несколько лет.

Nvidia в значительной степени позаимствовала идею VSync с точки зрения ограничения FPS, но также расширила ее, превратив в самостоятельную вещь.

Причина их огромного успеха в том, что они также выпустили модуль монитора, который продается производителям мониторов, предлагая сертификацию G-Sync. Это необходимо, поскольку модуль взаимодействует с графическим процессором и принимает информацию о создаваемых кадрах, регулируя частоту обновления монитора на лету, чтобы они совпадали.

Точно так же он будет передавать видеокарте максимальное количество кадров, которое может отображать монитор, поэтому графический процессор не будет создавать лишние кадры.

G-Sync — идеальное решение для разрыва экрана. Но (всегда должно быть «но») это отличное решение имеет свою дополнительную стоимость.

Как мы говорили ранее, Nvidia требует чтобы производители мониторов имели сертификацию G-Sync, чтобы убедиться что G-Sync будет работать на их мониторах. И это не бесплатно, как вы уже могли догадаться. Чтобы компенсировать стоимость сертификации G-Sync, производители мониторов вынуждены повышать цены на свои мониторы.

G-Sync Ultimate

Ultimate — это дополнительная опция к G-Sync, которая приносит не только увеличение цены, но и множество действительно интересных функций.

Наверное, самое лучшее в G-Sync Ultimate — это то, что Nvidia удалось заполнить 1152 зоны подсветки. Тот факт что их так много, означает, что панель IPS способна создавать изображения с высоким динамическим разрешением (HDR) с гораздо большей точностью.

Еще одна вещь, которая выделяет G-Sync Ultimate, — это впечатляющие 1400 нит, которые позволяют этим HDR-изображениям быть очень четкими и визуализироваться с гораздо лучшим освещением.

Совместимость  G-Sync

Это другая сторона G-Sync. Хотя вся концепция рекламировалась как эксклюзив Nvidia, с G-Sync Compatible, им удалось изменить стандарты сертификации и включить другие мониторы с переменной частотой обновления (VRR) и даже FreeSync, сертифицированным для запуска G-Sync.

По общему признанию, существует лишь несколько мониторов, сертифицированных с поддержкой G-Sync, но это определенно шаг в правильном направлении.

Хотя кто то может утверждать, что ценность основана на индивидуальном опыте, мир технологий совсем другой. У нас есть четкие и точные цифры, которые могут реально определить, стоит ли данная технология своих денег или нет.

Читайте: Что такое технология NanoCell? И какая лучше OLED и QLED

Читайте: Что такое технология Dolby Vision в телевизоре?

Однако, поскольку числа измеряются в миллисекундах, было бы действительно сложно заметить разницу невооруженным глазом. Мы можем провести сравнение между Nvidia G-Sync и AMD FreeSync.

Здесь нам нужно знать, что оба являются решениями их соответствующих компаний для устранения разрыва экрана и оба требуют специальной сертификации монитора, чтобы можно было в полной мере наслаждаться играми у себя.

Что отличает эти две технологии, так это то что AMD не требует, чтобы производители мониторов платили за сертификацию FreeSync. Таким образом нет никаких дополнительных затрат у конечных покупателей мониторов. Таким образом, определенно дешевле иметь сертифицированный монитор FreeSync .

FreeSync — идеальное решение для видеокарт AMD. Наконец, этот аргумент должен сводиться к производительности. Nvidia легко превосходит AMD почти во многих категориях, поэтому если вы хотите получить плавный игровой процесс с высокой детализацией, вам возможно и следует выбрать G-Sync от Nvidia.

Конечно, если вас устраивает стабильная частота кадров и вы готовы пожертвовать некоторыми деталями ради опыта и если у вас ограниченный бюджет, то FreeSync от AMD  будет отличной альтернативой G-Sync Nvidia.

Разбираемся, что такое G-Sync, FreeSync, V-Sync и нужны ли они вообще

Для комфортной игры всегда важно не только качество картинки (о чём мы говорили отдельно), но и частота её обновления, которая зависит от многих факторов — модели монитора, мощности компьютера и метода синхронизации. В этой статье мы рассмотрим существующие виды синхронизаций: вертикальную и адаптивную синхронизации, а также G-Sync и FreeSync, чтобы понять, в чем между ними разница и что лучше использовать.

Связь видеокарты с монитором и её проблемы

Прежде всего следует напомнить, как работает видеокарта и монитор компьютера. Во время игры видеокарта формирует кадры. Рендер каждого кадра занимает какое-то время и чем сам кадр сложнее, тем рендер дольше — увеличивают время рендера разрешение экрана, качество и количество эффектов и объектов и так далее. Сформированный кадр посылается на монитор, и видеокарта начинает создавать следующий кадр. Проблема в том, что время рендера кадра и его время на мониторе не всегда совпадают. Все проблемы начинаются отсюда.

В идеальном случае эти два отрезка времени должны быть равны — тогда, когда на мониторе закончится старый кадр, к нему подоспеет новый кадр и они плавно пойдут друг за другом, не создавая проблем. Но видеокарта может «обгонять» монитор.

И тут необходимо понимать, что мониторы работают с определёнными частотами обновления — количеством обновления кадров в секунду. Измеряется частота обновления в герцах. Мониторы с 60 Гц обновляют картинку 60 раз за секунду, 144 Гц — 144 раза за секунду.

Возвращаясь к видеокарте и монитору — значение кадров в секунду, выходящих из видеокарты, плавает, и может быть как меньше 60, так и больше. Оба случая приводят к проблемам.

Если кадры «тяжёлые» (большой взрыв трёх машин в 4K-разрешении, например), то рендер будет долгим и видеокарта может выдать меньше 60 кадров за секунду. Из-за этого монитору не хватает кадров, чтобы воспроизвести одну секунду, и игра компенсирует это и формирует кадры, где действие проходит быстрее, чтобы игровой процесс не замедлился. Но потом «тяжёлые» кадры проходят, и время рендера становится прежним. Но игра ещё не успела перестроиться и по-прежнему заставляет рендерить ускоренные кадры — из-за чего в какой-то момент может пойти смещение и возникнет статтер. Пример работы такого алгоритма — ниже (в верхней части ролика все кадры рендерятся за одинаковое время, в нижней время колеблется).