Nvidia g sync som kort stöder. Nvidia G-Sync-teknik. Aktiverar Vsync i NVIDIA-inställningar

Det här fotot visar hur ramen från spelet verkar vara uppdelad i två. Varför hände det här? Allt är mer än enkelt. Videokortet bildar bilden ruta för ruta, varje ny bildruta visas på skärmen. Men inte omedelbart efter att den skapats, utan bara under nästa uppdatering av bilden på skärmen. Bilden på den uppdateras ett strikt visst antal gånger per sekund, och, vad som är viktigt i vårt fall, inte på hela skärmen samtidigt, utan rad för rad från topp till botten. Samtidigt förbereder grafikkortet bildrutor inte med samma hastighet, utan var och en med en helt annan hastighet, beroende på scenens komplexitet. För att på något sätt synkronisera personalutbildning grafikadapter och utmatningen av dessa ramar till bildskärmen använder videoadaptrar två så kallade buffertar: från en buffert läser bildskärmen en ny bildruta, i den andra bildas nästa. Detta är dock ofta inte tillräckligt för att säkerställa en jämn bild, och vi ser hälften av två olika bildrutor eller till och med flera bildrutor samtidigt på skärmen.

Det finns en utgång!

För att inte observera denna röra permanent finns det en teknik för vertikal synkronisering - synkronisering av utmatningen av ramar från grafikkortet och uppdatering av bilden på monitorn. Men om ditt grafikkort inte kan hantera det och nya bildrutor skapas mer sällan än vad bilden på skärmen uppdateras, kommer du att se samma sista bildruta på skärmen två eller flera gånger tills nästa är klar. Även om din grafikaccelerator i ett visst spel med vissa inställningar i genomsnitt bibehåller ett stort antal bilder per sekund i genomsnitt, så fort en av de många bildrutorna inte hinner i tid för nästa bilduppdateringscykel på skärmen , kommer tiden tills denna ram visas fördubblas. Detta kallas en "fris". Om du spelar snabba skjutspel, så kan naturligtvis alla förseningar i visningen kosta dig en odödad fiende eller till och med livet för ditt virtuella alter ego.

NVIDIA G-SYNC-teknik är designad för att befria spelare från båda "övervaka" åkommor samtidigt. Det är sant att detta inte är det första försöket från de "gröna" att hitta en lösning som eliminerar tårar och friser. Den tidigare var en annan teknik som heter Adaptive V-Sync. Det är sant att den bara automatiskt slår på och av vertikal synkronisering beroende på bildhastigheten.

Hur är det med AMD? Och det här företaget förstår att det är nödvändigt att ta hand om spelarnas nerver, eftersom de praktiskt taget är motorn i PC-industrin och mycket av det som är kopplat till det. Tack vare AMD innehåller den kommande DisplayPort-revisionen, kallad 1.2a, teknik som låter dig justera bildskärmens uppdateringsfrekvens för att synkronisera den med bildfrekvensen på grafikkortet. Och samtidigt finns det inga proprietära styrelser i monitorerna. Det är intressant och definitivt mindre dyrt alternativ, men den har ännu inte sett dagens ljus, men mer än en tillverkare har redan aviserat bildskärmar med G-SYNC.

På den gamla goda tiden när ägarna personliga datorer De använde aktivt enorma CRT-monitorer och fick sig astigmatism; det var inget snack om bildjämnhet. Den tidens teknik stödde inte riktigt 3D. Därför fick fattiga användare nöja sig med vad de hade. Men tiden går, tekniken utvecklas, och många nöjer sig inte längre med ramslitage under dynamiskt spel. Detta gäller särskilt för de så kallade cyber-atleterna. I deras fall gör en delad sekund stor skillnad. Vad ska jag göra?

Framstegen står inte stilla. Därför kan det som tidigare verkade omöjligt nu tas för givet. Samma situation gäller bildkvalitet på en dator. Tillverkare av grafikkort och andra PC-komponenter arbetar nu hårt för att lösa problemet med dålig bildkvalitet på bildskärmar. Och jag måste säga, de har redan kommit ganska långt. Bara lite kvar, och bilden på skärmen blir perfekt. Men allt detta är en lyrisk utvikning. Låt oss återgå till vårt huvudämne.

Lite historia

Många bildskärmar försökte aktivt övervinna rivning och förbättra bilden. Vad de inte uppfann: de ökade skärmens "hertz", slog på V-Sync. Inget hjälpte. Och en dag en känd tillverkare NVIDIA grafikkort presenterar G-Sync-teknik, med vilken du kan uppnå "overklig" bildjämnhet utan några artefakter. Det verkar vara bra, men det finns ett litet, men mycket allvarligt "men". För att använda det här alternativet behöver du monitorer som stöder G-Sync. Bildskärmstillverkarna var tvungna att arbeta hårdare och "slänga" ett par dussin modeller på marknaden. Vad kommer härnäst? Låt oss titta på tekniken och försöka ta reda på om den är bra.

Vad är G-Sync?

G-Sync är en skärmteknik från NVIDIA. Den kännetecknas av ett smidigt rambyte utan några artefakter. Det finns ingen bild som rivs eller stammar. För adekvat drift av denna teknik, helt kraftfull dator eftersom bearbetning av en digital signal kräver avsevärd processorkraft. Det är därför endast nya modeller av grafikkort från NVIDIA är utrustade med tekniken. Dessutom är G-Sync en egenutvecklad funktion hos NVIDIA, så ägare av grafikkort från andra tillverkare har ingen chans.

Dessutom krävs en G-Sync-monitor. Faktum är att de är utrustade med ett kort med en digital signalomvandlare. Ägare av vanliga bildskärmar kommer inte att kunna dra nytta av detta fantastiska alternativ. Det är naturligtvis orättvist, men det här är moderna tillverkares policy - att ta så mycket pengar som möjligt från den fattiga användaren. Om din PC-konfiguration tillåter dig att använda G-Sync, och din bildskärm mirakulöst stöder detta alternativ, kan du till fullo uppskatta alla nöjen med denna teknik.

Hur G-Sync fungerar

Låt oss försöka förklara på ett förenklat sätt hur G-Sync fungerar. Faktum är att en vanlig GPU (videokort) helt enkelt skickar digital signal till monitorn, men tar inte hänsyn till dess frekvens. Det är därför signalen verkar "trasig" när den visas på skärmen. Signalen som kommer från GPU:n avbryts av bildskärmsfrekvensen och ser ful ut i den slutliga versionen. Även med V-Sync-alternativet aktiverat.

När du använder G-Sync reglerar grafikprocessorn själv bildskärmens frekvens. Det är därför signaler når matrisen när det verkligen behövs. Tack vare detta är det möjligt att undvika bildrivning och förbättra bildens jämnhet som helhet. Eftersom konventionella bildskärmar inte tillåter GPU:n att styra sig själv uppfanns en G-Sync-skärm, som inkluderade ett NVIDIA-kort som reglerar frekvensen. Därför är det inte möjligt att använda konventionella monitorer.

Bildskärmar som stöder denna teknik

De dagar då användare dödade sin syn genom att stirra på gamla CRT-monitorer i timmar är förbi. Nuvarande modeller är eleganta och ofarliga. Så varför inte ge dem lite ny teknik? Första bildskärm med NVIDIA-stöd G-Sync och 4K-upplösning släpptes av Acer. Den nya produkten skapade en sensation.

Inte än kvalitetsmonitorer med G-Sync är ganska sällsynta. Men tillverkarna har planer på att göra dessa enheter till standard. Troligtvis kommer bildskärmar som stöder denna teknik om fem år att bli en standardlösning även för kontorsdatorer. Under tiden återstår bara att titta på dessa nya produkter och vänta på deras utbredda distribution. Det är då de blir billigare.

Efter det började monitorer med G-Sync-stöd bli nitade av alla och enstaka. Även budgetmodeller med denna teknik har dykt upp. Även om vad är nyttan med denna teknik? budgetskärm med en dålig matris? Men hur som helst, sådana modeller finns. Det bästa alternativet för detta alternativ är (G-Sync kommer att fungera med full kraft på det).

De bästa bildskärmarna med G-Sync

Bildskärmar med G-Sync-teknik sticker ut som en speciell linje av enheter. De måste ha de egenskaper som krävs för fullvärdigt arbete detta alternativ. Det är tydligt att inte alla skärmar klarar av denna uppgift. Flera ledare inom produktionen av sådana monitorer har redan identifierats. Deras modeller visade sig vara mycket framgångsrika.

Till exempel är G-Sync-skärmen en av de ljusaste representanterna för denna linje. Denna enhet är premium. Varför? Döm själv. Skärmens diagonal är 34 tum, upplösningen är 4K, kontrasten är 1:1000, 100 Hz, matrissvarstiden är 5 ms. Dessutom skulle många vilja få detta "monster" för sig själva. Det är klart att han kommer klara G-Sync-tekniken med råge. Den har inga analoger än. Du kan lugnt kalla den den bästa i sin klass och inte ta fel.

Generellt sett är ASUS G-Sync-skärmar nu i toppen av Olympus. Inte en enda tillverkare har ännu kunnat överträffa detta företag. Och det är osannolikt att detta någonsin kommer att hända. ASUS kan kallas en pionjär i detta avseende. Deras bildskärmar som stöder G-Sync säljer som smör.

Framtiden för G-Sync

Nu försöker de aktivt införa G-Sync-teknik i bärbara datorer. Vissa tillverkare har till och med släppt ett par sådana modeller. Dessutom kan de fungera utan ett G-Sync-kort i monitorn. Vilket är förståeligt. Ändå är den bärbara datorn något annorlunda design egenskaper. Ett grafikkort som stöder denna teknik är helt tillräckligt.

Det är troligt att NVIDIA G-Sync snart kommer att inta en betydande plats i datorbranschen. Bildskärmar med denna teknik borde bli billigare. Så småningom bör detta alternativ bli tillgängligt överallt. Annars, vad är poängen med att utveckla det? Allt är i alla fall inte så rosa än. Det finns några problem med implementeringen av G-Sync.

I framtiden kommer G-Sync-teknik att bli samma vanliga sak som en VGA-port för att ansluta en bildskärm en gång var för oss. Men alla typer av "vertikal synkronisering" mot bakgrund av denna teknik ser ut som en flagrant anakronism. Inte bara kan dessa föråldrade tekniker inte ge tillfredsställande bildkvalitet, utan de förbrukar också en avsevärd mängd systemresurser. Definitivt, med tillkomsten av G-Sync, deras plats i historiens soptunna.

NVIDIA G-SYNC monitorer har revolutionerande NVIDIA-teknik som eliminerar sönderrivning av skärmen och ingångsfördröjning med VSync-ramsynkronisering, och förbättrar prestandan hos moderna bildskärmar, vilket resulterar i den smidigaste, mest responsiva spelupplevelsen du någonsin sett.

Som ett resultat visas spelscener omedelbart, föremål blir tydligare och spelet blir smidigare.

HUR FUNGERAR NVIDIA G-SYNC?

NVIDIA® G-SYNC™ är en innovativ lösning som bryter gamla formar för att skapa de mest avancerade och responsiva datorskärmarna i historien. NVIDIA G-SYNC-modulen kan installeras oberoende eller köpas förinstallerad i de senaste spelmonitorerna. Det hjälper dig att glömma bort skärmslitage, ingångsfördröjning och ögonansträngningsinducerande jitter som orsakades av äldre teknologier som migrerade från analoga TV-apparater till moderna bildskärmar.

PROBLEM: GAMMEL MONITORTEKNIK

När tv-apparater uppfanns använde de katodstrålerör, som fungerade genom att skanna flödet av elektroner över ytan av ett fosforbelagt rör. Denna stråle fick pixeln att flimra och när tillräckligt många pixlar aktiverades ganska snabbt skapade katodstråleröret känslan av full-motion video. Tro det eller ej, dessa första TV-apparater fungerade med en uppdateringshastighet på 60 Hz, sedan den industriella frekvensen växelström i USA är det 60 Hz. Att matcha TV:ns uppdateringsfrekvens till industriell AC-frekvens gjorde det lättare att bygga tidig elektronik och minska skärmbruset.

När persondatorer uppfanns i början av 1980-talet var katodstråle-TV-tekniken fast etablerad som den enklaste och mest kostnadseffektiva tekniken för att skapa datorskärmar. 60Hz och fasta uppdateringsfrekvenser har blivit standarden, och systembyggare har lärt sig att få ut det mesta av en mindre än idealisk situation. Under de senaste tre decennierna, medan katodstråle-TV-tekniken har utvecklats till LCD- och LED-TV-teknik, har inget större företag vågat utmana denna stereotyp, och synkronisering av GPU:n med bildskärmens uppdateringsfrekvens är fortfarande standard i branschen än i dag.

Problemet är att grafikkort inte återger bilder med en konstant frekvens. Faktum är att GPU-bildhastigheten varierar avsevärt även inom samma scen i samma spel beroende på den aktuella GPU-belastningen. Och om bildskärmar har en fast uppdateringsfrekvens, hur överför du bilder från GPU:n till skärmen? Det första sättet är att helt enkelt ignorera monitorns uppdateringsfrekvens och uppdatera bilden mitt i cykeln. Vi kallar detta VSync inaktiverat läge, vilket är hur de flesta spelare spelar som standard. Nackdelen är att när en bildskärmsuppdateringscykel innehåller två bilder, uppstår en mycket märkbar "brottslinje", vanligen kallad screen tearing. Ett välkänt sätt att bekämpa skärmrivning är att aktivera VSync-teknik, vilket gör att GPU:n fördröjer skärmuppdateringar tills början av en ny bildskärmsuppdateringscykel. Detta orsakar bildrörlighet när grafikprocessorns bildfrekvens är lägre än skärmens uppdateringsfrekvens. Det ökar också latensen, vilket leder till ingångsfördröjning - en märkbar fördröjning mellan att trycka på en tangent och resultatet visas på skärmen.

För att göra saken värre lider många spelare av ansträngda ögon på grund av bildskakningar, och andra utvecklar huvudvärk och migrän. Detta ledde till att vi utvecklade Adaptive VSync-teknik, en effektiv lösning som mottogs väl av kritiker. Trots skapandet av denna teknik kvarstår problemet med inmatningsfördröjning, och detta är oacceptabelt för många entusiastspelare och är helt olämpligt för professionella spelare (e-sport) som självständigt konfigurerar sina grafikkort, bildskärmar, tangentbord och möss för att minimera irriterande förseningar mellan handling och reaktion.

LÖSNING: NVIDIA G-SYNC

Möt NVIDIA G-SYNC-teknik, som eliminerar skärmrivning, VSync-visningsfördröjning och bildflimmer. För att uppnå denna revolutionerande förmåga skapade vi G-SYNC för bildskärmar, som gör att bildskärmen kan synkroniseras med bildhastigheten för GPU:n snarare än tvärtom, vilket resulterar i snabbare, mjukare, rivfria bilder som tar spel till nästa nivå.

Branschgurus John Carmack, Tim Sweeney, Johan Andersson och Mark Rein var imponerade av NVIDIA G-SYNC-teknik. Esportsspelare och eSportsligor står i kö för att använda NVIDIA G-SYNC-teknik, som kommer att släppa lös sina verkliga färdigheter, vilket kräver ännu snabbare reaktioner tack vare en omärklig fördröjning mellan åtgärder på skärmen och tangentbordskommandon. Under interna tester tillbringade inbitna spelare sina lunchtimmar med att spela onlinematcher. lokalt nätverk, med hjälp av G-SYNC-aktiverade monitorer för att vinna.

Om du har en bildskärm som stöder NVIDIA G-SYNC, onlinespel du kommer att ha en obestridlig fördel gentemot andra spelare, förutsatt att du också har en låg ping.

EN REVOLUTIONÄR LÖSNING ÄR HÄR

I dessa tider av tekniska underverk kan få framsteg kallas verkligt "innovativa" eller "revolutionära". NVIDIA G-SYNC är dock ett av de få genombrotten som revolutionerar föråldrad bildskärmsteknik med ett innovativt tillvägagångssätt som aldrig har prövats tidigare.

G-SYNC eliminerar ingångsfördröjning, rivning och jitter för en fantastisk visuell upplevelse på alla G-SYNC-aktiverade skärmar; de är så bra att du aldrig vill använda dem igen regelbunden monitor. Förutom revolutionerande förändringar i visuella möjligheter, kommer flerspelarspelare att ha den extra fördelen att kombinera G-SYNC, ett höghastighetsgrafikkort GeForce GTX och indataenheter med låg latens. Detta kommer definitivt att intressera fans av skyttar. För eSport-atleter är NVIDIA G-SYNC en betydande förbättring. Eftersom G-SYNC eliminerar ingångsfördröjning är framgång eller misslyckande nu helt upp till spelarna, vilket hjälper till att skilja proffsen från amatörerna.

Om du, som eSport-atleter, vill ha det vassaste, smidigaste och mest lyhörda spelprocessen, då bildskärmar med NVIDIA G-SYNC-stöd är ett fullständigt genombrott, som inte kan hittas någon annanstans. NVIDIA G-SYNC är en sann innovation i förbättringarnas tid och kommer att revolutionera ditt sätt att spela spel.

Översikt över G-Sync-teknik | En kort historik om fast uppdateringsfrekvens

En gång i tiden var monitorer skrymmande och innehöll katodstrålerör och elektronkanoner. Elektronpistoler bombarderar skärmen med fotoner för att lysa upp färgade fosforprickar som vi kallar pixlar. De ritar från vänster till höger varje "skannande" linje uppifrån och ned. Att justera hastigheten på elektronkanonen från en fullständig uppdatering till nästa var inte särskilt praktiskt tidigare, och det fanns inget särskilt behov av detta innan 3D-spelen kom. Därför designades CRT och relaterade analoga videostandarder med en fast uppdateringsfrekvens.

LCD-skärmar ersatte gradvis CRT:er och digitala kontakter (DVI, HDMI och DisplayPort) ersatte analoga kontakter (VGA). Men de föreningar som ansvarar för standardisering av videosignaler (som leds av VESA) har inte gått bort från fasta uppdateringsfrekvenser. Film och TV förlitar sig fortfarande på en insignal med konstant bildhastighet. Återigen verkar det inte nödvändigt att byta till en variabel uppdateringsfrekvens.

Justerbara bildfrekvenser och fasta uppdateringsfrekvenser är inte samma sak

Före tillkomsten av modern 3D-grafik var fasta uppdateringsfrekvenser inte ett problem för skärmar. Men det kom upp när vi först stötte på kraftfulla GPU:er: hastigheten med vilken GPU:n renderade individuella bildrutor (det vi kallar bildrutehastigheten, vanligtvis uttryckt i FPS eller bildrutor per sekund) är inte konstant. Det förändras med tiden. I tunga grafiska scener kan kortet ge 30 FPS, och när man tittar på en tom himmel - 60 FPS.

Inaktivering av synkronisering orsakar luckor

Det visar sig att den varierande bildfrekvensen GPU och LCD-panelens fasta uppdateringsfrekvens fungerar inte särskilt bra tillsammans. I den här konfigurationen möter vi en grafisk artefakt som kallas "rivning". Det inträffar när två eller flera delbildrutor renderas tillsammans under samma bildskärmsuppdateringscykel. Vanligtvis är de förskjutna, vilket ger en mycket obehaglig effekt vid rörelse.

Bilden ovan visar två välkända artefakter som är vanliga men svåra att fånga. Eftersom dessa är visningsartefakter kommer du inte att se detta i vanliga spelskärmdumpar, men våra bilder visar vad du faktiskt ser när du spelar. För att fotografera dem behöver du en kamera med ett höghastighetsfotograferingsläge. Eller om du har ett kort som stöder videoinspelning kan du spela in en okomprimerad videoström från DVI-porten och tydligt se övergången från en bildruta till nästa; Detta är metoden vi använder för FCAT-tester. Det är dock bäst att observera den beskrivna effekten med dina egna ögon.

Rivningseffekten är synlig på båda bilderna. Den översta gjordes med en kamera, den nedersta gjordes med videoinspelningsfunktionen. Den nedre bilden är "skuren" horisontellt och ser förskjuten ut. På de två översta bilderna togs det vänstra fotot på en Sharp-skärm med 60 Hz uppdateringsfrekvens, den högra togs på en Asus-skärm med 120 Hz uppdateringsfrekvens. Rivningen på en 120Hz-skärm är mindre uttalad eftersom uppdateringsfrekvensen är dubbelt så hög. Effekten är dock synlig och visas på samma sätt som i den vänstra bilden. Denna typ av artefakter är ett tydligt tecken att bilderna togs med vertikal synk (V-sync) inaktiverad.

Battlefield 4 på GeForce GTX 770 med V-sync inaktiverad

Den andra effekten som är synlig i bilderna av BioShock: Infinite kallas spökbilder. Det är särskilt synligt längst ner till vänster på fotot och är associerat med en fördröjning i skärmuppdateringen. Kort sagt, enskilda pixlar ändrar inte färg tillräckligt snabbt, vilket resulterar i denna typ av glöd. En enda bildruta kan inte förmedla effekten av spökbilder på själva spelet. En panel med en 8ms grå-till-grå svarstid, som Sharp, kommer att producera en suddig bild med alla rörelser på skärmen. Det är därför dessa skärmar i allmänhet inte rekommenderas för förstapersonsskjutare.

V-sync: "slösat bort på tvål"

Vertikal synk, eller V-synk, är en mycket gammal lösning på rivningsproblemet. När den här funktionen är aktiverad försöker grafikkortet matcha skärmens uppdateringsfrekvens, vilket eliminerar riva helt. Problemet är att om ditt grafikkort inte kan hålla bildfrekvensen över 60 FPS (på en 60 Hz-skärm), kommer den effektiva bildfrekvensen att hoppa mellan multiplar av skärmens uppdateringsfrekvens (60, 30, 20, 15 FPS, etc. .) etc.), vilket i sin tur kommer att leda till märkbara nedgångar.

När bildfrekvensen sjunker under uppdateringsfrekvensen med V-sync aktiv kommer du att uppleva stamning

Dessutom, eftersom V-sync får grafikkortet att vänta och ibland förlitar sig på den osynliga ytbufferten, kan V-sync införa ytterligare ingångsfördröjning i renderingskedjan. Således kan V-sync vara både en välsignelse och en förbannelse, lösa vissa problem men orsaka andra nackdelar. En informell undersökning av vår personal fann att spelare tenderar att inaktivera V-sync och bara slå på den när rivningen blir outhärdlig.

Bli kreativ: Nvidia avslöjar G-Sync

När du startar ett nytt grafikkort GeForce GTX 680 Nvidia har inkluderat ett drivrutinsläge som heter Adaptive V-sync som försöker mildra problem genom att aktivera V-sync när bildhastigheten är över bildskärmens uppdateringsfrekvens och snabbt inaktivera den när prestandan sjunker kraftigt under uppdateringsfrekvensen. Även om tekniken gjorde sitt jobb bra, var det en lösning som inte eliminerade rivning om bildfrekvensen var lägre än bildskärmens uppdateringsfrekvens.

Genomförande G-Sync mycket mer intressant. Generellt sett visar Nvidia att istället för att tvinga grafikkort att köra med en fast visningsfrekvens, kan vi tvinga nya bildskärmar att köra med en variabel frekvens.

GPU-bildhastighet bestämmer bildskärmens uppdateringsfrekvens, tar bort artefakter som är associerade med att aktivera och inaktivera V-sync

DisplayPort-kontaktens paketdataöverföringsmekanism har öppnat nya möjligheter. Genom att använda variabla släckningsintervall i DisplayPort-videosignalen och ersätta bildskärmsskalaren med en modul som arbetar på variabla släckningssignaler, kan LCD-panelen arbeta med en variabel uppdateringsfrekvens relaterad till bildfrekvensen som grafikkortet matar ut (inom bildskärmens uppdateringsfrekvens). I praktiken blev Nvidia kreativa med de speciella funktionerna i DisplayPort-gränssnittet och försökte fånga två flugor i en smäll.

Redan innan testet börjar skulle jag vilja berömma teamet för deras kreativa inställning till att lösa ett verkligt problem som påverkar PC-spel. Detta är innovation när den är som bäst. Men vad blir resultatet G-Sync på praktik? Låt oss ta reda på.

Nvidia skickade oss ett tekniskt prov av monitorn Asus VG248QE, där skalningsanordningen ersätts av en modul G-Sync. Vi är redan bekanta med denna display. Artikeln är tillägnad honom "Asus VG248QE recension: 24-tums 144Hz spelskärm för $400", där bildskärmen fick Tom's Hardware Smart Buy award. Nu är det dags att ta reda på hur ny teknologi Nvidia kommer att påverka de mest populära spelen.

Översikt över G-Sync-teknik | 3D LightBoost, inbyggt minne, standarder och 4K

När vi granskade Nvidias pressmaterial ställde vi oss många frågor, både om teknikens plats i nuet och dess roll i framtiden. Under en resa nyligen till företagets huvudkontor i Santa Clara fick våra amerikanska kollegor några svar.

G-Sync och 3D LightBoost

Det första vi märkte var att Nvidia skickade en bildskärm Asus VG248QE, modifierad för att stödja G-Sync. Den här skärmen stöder även Nvidias 3D LightBoost-teknik, som ursprungligen designades för att öka ljusstyrkan på 3D-skärmar men har länge använts inofficiellt i 2D-läge, med pulserande panelbakgrundsbelysning för att minska spökbilder (eller rörelseoskärpa). Naturligtvis blev det intressant om det används denna teknik V G-Sync.

Nvidia gav ett negativt svar. Även om det skulle vara idealiskt att använda båda teknikerna samtidigt, leder det idag till flimmer och ljusstyrka problem att stroba bakgrundsbelysningen med en variabel uppdateringsfrekvens. Att lösa dem är otroligt svårt eftersom du måste justera ljusstyrkan och spåra pulserna. Som ett resultat står valet nu mellan de två teknologierna, även om företaget försöker hitta ett sätt att använda dem samtidigt i framtiden.

Inbyggt G-Sync-modulminne

Som vi redan vet, G-Sync eliminerar steginmatningsfördröjningen förknippad med V-sync eftersom det inte längre finns ett behov av att vänta på att panelskanningen ska slutföras. Vi märkte dock att modulen G-Sync har inbyggt minne. Kan modulen buffra ramar på egen hand? Om så är fallet, hur lång tid tar det för ramen att gå genom den nya kanalen?

Enligt Nvidia är ramar inte buffrade i modulens minne. När data kommer in visas den på skärmen och minnet utför några andra funktioner. Dock handläggningstiden för G-Sync märkbart mindre än en millisekund. Faktum är att vi stöter på nästan samma fördröjning när V-sync är avstängd, och det är förknippat med egenskaperna hos spelet, videodrivrutinen, musen, etc.

Kommer G-Sync att standardiseras?

Denna fråga ställdes nyligen i en intervju med AMD, när läsaren ville veta företagets reaktion på tekniken G-Sync. Vi ville dock fråga utvecklaren direkt och ta reda på om Nvidia planerar att föra tekniken till en branschstandard. I teorin kan ett företag erbjuda G-Sync som en uppgradering till DisplayPort-standarden, vilket ger varierande uppdateringsfrekvenser. Nvidia är trots allt medlem i VESA-föreningen.

Det finns dock inga nya specifikationer planerade för DisplayPort, HDMI eller DVI. G-Sync stöder redan DisplayPort 1.2, det vill säga standarden behöver inte ändras.

Som nämnts arbetar Nvidia på kompatibilitet G-Sync med en teknik som nu heter 3D LightBoost (men kommer snart att få ett annat namn). Dessutom letar företaget efter ett sätt att minska kostnaderna för moduler G-Sync och göra dem mer tillgängliga.

G-Sync i Ultra HD-upplösningar

Nvidia lovar skärmar med stöd G-Sync och upplösningar upp till 3840x2160 pixlar. Modellen från Asus, som vi ska titta på idag, stöder dock bara 1920x1080 pixlar. På det här ögonblicket Ultra HD-skärmar använder STMicro Athena-kontrollern, som har två skalare för att skapa en sida vid sida. Vi undrar om det blir en modul G-Sync stöder MST-konfiguration?

I själva verket kommer 4K-skärmar med varierande bildhastigheter fortfarande att behöva vänta. Det finns ingen separat uppskalningsenhet som stöder 4K-upplösning ännu; den närmaste bör dyka upp under första kvartalet 2014, och bildskärmar utrustade med dem kommer inte att dyka upp förrän under andra kvartalet. Sedan modulen G-Sync ersätter skalningsenheten, kommer kompatibla paneler att börja dyka upp efter denna punkt. Lyckligtvis har modulen inbyggt stöd för Ultra HD.