Ringa alla spelare, vi har goda nyheter och dåliga nyheter. Den goda nyheten är att AMD och Nvidia har löst problemet med skärmavbrott och ramstammning i krävande PC-spel. Den dåliga nyheten är att de har sina egna lösningar som inte är kompatibla - kort sagt har vi ett formatkrig ... igen.

Vad händer under PC Gaming Week?

Vad är problemet?

Källan att visa högpresterande PC-spel är att bildskärmarna har en konstant uppdateringshastighet, t.ex. 75Hz betyder att skärmen uppdateras 75 gånger per sekund. Samtidigt redigerar grafikkort (GPU) skärmen med varierande hastighet, beroende på beräkningsbelastningen som de bär.

Skillnaden i timing av de två innebär att den nuvarande ramen på monitorn och den aktuella ramen på GPU blir osynkroniserade. Därför går GPU halvvägs genom processen att skicka en ram till bildskärmen till nästa ram.

Denna omkopplare visas som en diskontinuitet i vad du såg på skärmen. Vanligtvis går diskontinuiteten ner på skärmen på parallella ramar som fasskillnad mellan GPU och monitoren minskar. Denna diskontinuitet är vad vi kallar riva och i extrema fall kan det finnas flera tårar på en gång.

De flesta PC-spel använder något som heter VSync som ett sätt att minska rivningseffekten. VSync begränsar effektivt bildhastigheten för GPU: n, så att om en viss ram har tagit för lång tid för att bli gjord på GPU och den saknar sin plats på bildskärmen, kommer GPU att fördröja att skicka grafikdata till monitorn tills nästa skärm refresh.

Lysande! Problemet löst då? Tja, inte riktigt. VSync är inte perfekt, förseningen med att skicka en ram till bildskärmen orsakar stamning och fördröjning under de tider som GPU: n ligger under den mest behandlingsbelastning, vilket också är den tid en spelare behöver mest svar. Därför väljer många spelare att avaktivera VSync för att få det mest responsiva systemet, trots den fula rivande effekten. Så medan VSync var den enda lösningen att riva, väljer många spelare att inaktivera det.

Nvidia till räddning, typ av

Sedan 2014 har Nvidia främjat sin lösning på VSync-problemet, att det har kallat G-Sync. Grundkonceptet med G-Sync är att GPU faktiskt kontrollerar bildskärmens uppdateringshastighet. Genom att göra detta är monitorn och GPU alltid synkroniserade och därför finns det aldrig någon riva eller stammar. Före detta hade Nvidia redan arbetat med Adaptive VSync.

Som PC Perspective noterar finns det tre regimer där ett variabelt uppdateringshastighets GPU / övervakningssystem måste fungera inom: A) när GPU: s ramar per sekund understiger bildens minsta uppdateringshastighet. B) När GPU: s ramar per sekund ligger mellan skärmens minsta och maximala uppdateringshastighet. C) När GPU: s ramar per sekund är större än skärmens maximala uppdateringshastighet.

Fall B ovan är enkelt - GPU ställer helt enkelt upp uppdateringshastigheten för monitorn så att den motsvarar dess bilder per sekund.

När en G-Sync-kompatibel GPU och bildskärm fungerar i fall C har Nvidia bestämt att GPU ska vara standard för VSync-läge. I fall A, G-Sync sätter dock bildskärmens uppdateringsfrekvens till ett heltal multipel av de aktuella bilderna per sekund som kommer från GPU. Detta liknar VSyncs fördröjande ramstrategi, men har fördelen att hålla i takt med bildskärmen på grund av hela multiplikatorn.

Den (något bokstavliga) priset för denna lösning är att Nvidia behöver ha ett proprietärt chip i varje G-Sync-kompatibel bildskärm. Detta har det oönskade resultatet av G-Sync-skärmar som medför ökade kostnader på grund av att de behöver extra elektronik och betalar de tillhörande licensavgifterna till Nvidia. Slutligen stöds det inte heller av AMD-GPU: er.