Nvidia g sync, katere kartice podpirajo. Tehnologija Nvidia G-Sync. Omogočanje Vsync v nastavitvah NVIDIA

Ta fotografija prikazuje, kako se zdi, da je okvir iz igre razdeljen na dva dela. Zakaj se je to zgodilo? Vse je več kot preprosto. Video kartica oblikuje sliko okvir za okvirjem, vsak nov okvir se pojavi na zaslonu monitorja. Vendar ne takoj po ustvarjanju, ampak šele med naslednjo posodobitvijo slike na zaslonu monitorja. Slika na njem se posodablja strogo določeno število krat na sekundo in, kar je v našem primeru pomembno, ne na celotnem zaslonu hkrati, ampak vrstico za vrstico od zgoraj navzdol. Medtem grafična kartica pripravlja okvirje ne z enako hitrostjo, ampak vsakega s popolnoma drugačno hitrostjo, odvisno od kompleksnosti prizora. Da bi nekako sinhronizirali usposabljanje kadrov grafični adapter in izhod teh okvirjev na monitor, video adapterji uporabljajo dva tako imenovana medpomnilnika: iz enega medpomnilnika monitor prebere nov okvir, v drugem se oblikuje naslednji. Vendar to pogosto ni dovolj za zagotovitev gladke slike in na zaslonu monitorja vidimo polovico dveh različnih sličic ali celo več sličic hkrati.

Obstaja izhod!

Da tega nereda ne bi opazovali trajno, obstaja tehnologija za vertikalno sinhronizacijo - sinhronizacija izhoda okvirjev z video kartico in posodabljanje slike na monitorju. Če pa vaša grafična kartica tega ne zmore in se novi okvirji ustvarjajo manj pogosto, kot se posodablja slika na monitorju, boste na monitorju videli isti zadnji okvir dvakrat ali večkrat, dokler ni pripravljen naslednji. Tudi če v povprečju vaš grafični pospeševalnik v določeni igri z določenimi nastavitvami v povprečju vzdržuje veliko število sličic na sekundo, takoj ko ena od mnogih sličic ne uspe pravočasno za naslednji cikel osveževanja slike na zaslonu, , se bo čas do prikaza tega okvirja podvojil. To se imenuje "friz". Če igrate hitre streljačine, potem vas lahko vsaka zamuda pri prikazu seveda stane enega neubitega sovražnika ali celo življenja vašega virtualnega alter ega.

Tehnologija NVIDIA G-SYNC je zasnovana tako, da igralce računalniških iger reši obeh nadlog "monitorja" hkrati. Res je, to ni prvi poskus »zelenih«, da najdejo rešitev, ki odpravlja raztrganine in frize. Prejšnja je bila druga tehnologija, imenovana Adaptive V-Sync. Res je, samo samodejno vklopi in izklopi vertikalno sinhronizacijo glede na hitrost sličic.

Kaj pa AMD? In to podjetje razume, da je treba skrbeti za živce igralcev, saj so praktično motor računalniške industrije in veliko tega, kar je povezano z njo. Zahvaljujoč AMD prihajajoča revizija DisplayPort, imenovana 1.2a, vključuje tehnologijo, ki vam omogoča prilagoditev hitrosti osveževanja monitorja, da jo sinhronizirate s hitrostjo sličic video kartice. In hkrati v monitorjih ni nobenih lastniških plošč. Zanimivo je in vsekakor manj draga alternativa, vendar še ni ugledal luči sveta, je pa že več kot en proizvajalec napovedal monitorje z G-SYNC.

V tistih dobrih starih časih, ko lastniki osebni računalniki Aktivno so uporabljali ogromne CRT monitorje, s čimer so si prislužili astigmatizem, o gladkosti slike ni bilo govora. Takratne tehnologije niso ravno podpirale 3D. Zato so se revni uporabniki morali zadovoljiti s tem, kar imajo. Toda čas teče, tehnologija se razvija in mnogi niso več zadovoljni s trganjem okvirja med dinamično igro. To še posebej velja za tako imenovane kiberšportnike. V njihovem primeru delček sekunde naredi vse. Kaj naj naredim?

Napredek ne miruje. Zato je tisto, kar se je prej zdelo nemogoče, zdaj lahko vzeto za samoumevno. Enako velja za kakovost slike v računalniku. Proizvajalci grafičnih kartic in drugih komponent osebnih računalnikov si zdaj močno prizadevajo rešiti problem slabe kakovosti slike na monitorjih. In moram reči, da so prišli že precej daleč. Ostaja le še malo in slika na monitorju bo popolna. Toda vse to je lirična digresija. Vrnimo se k naši glavni temi.

Malo zgodovine

Mnogi monitorji so aktivno poskušali premagati trganje in izboljšati sliko. Česa si niso izmislili: povečali so "herce" monitorja, vklopili V-Sync. Nič ni pomagalo. In nekega dne slavni proizvajalec video kartice NVIDIA predstavlja tehnologijo G-Sync, s katero lahko dosežete “neresnično” gladkost slike brez artefaktov. Zdi se, da je dobro, vendar obstaja en majhen, a zelo resen "ampak". Za uporabo te možnosti potrebujete monitorje, ki podpirajo G-Sync. Proizvajalci monitorjev so se morali bolj potruditi in na trg "vreči" nekaj ducatov modelov. Kaj je naslednje? Poglejmo tehnologijo in poskusimo ugotoviti, ali je dobra.

Kaj je G-Sync?

G-Sync je tehnologija za prikaz zaslona podjetja NVIDIA. Zanj je značilna gladka sprememba okvirja brez kakršnih koli artefaktov. Ni trganja ali zatikanja slike. Za ustrezno delovanje te tehnologije precej močan računalnik, saj obdelava digitalnega signala zahteva precejšnjo moč procesorja. Zato so s to tehnologijo opremljeni samo novi modeli video kartic NVIDIA. Poleg tega je G-Sync lastniška funkcija NVIDIA, zato lastniki video kartic drugih proizvajalcev nimajo možnosti.

Poleg tega je potreben monitor G-Sync. Dejstvo je, da so opremljeni s ploščo z digitalnim pretvornikom signala. Lastniki navadnih monitorjev ne bodo mogli izkoristiti te neverjetne možnosti. Seveda je nepošteno, a takšna je politika sodobnih proizvajalcev - od ubogega uporabnika izčrpati čim več denarja. Če konfiguracija vašega računalnika omogoča uporabo G-Sync in vaš monitor čudežno podpira to možnost, potem lahko v celoti cenite vse užitke te tehnologije.

Kako deluje G-Sync

Poskusimo na poenostavljen način razložiti, kako deluje G-Sync. Dejstvo je, da običajna GPE (grafična kartica) preprosto pošlje digitalni signal na monitor, vendar ne upošteva njegove frekvence. Zato je signal videti "raztrgan", ko je prikazan na zaslonu. Signal, ki prihaja iz grafičnega procesorja, prekine frekvenca monitorja in je v končni različici videti grdo. Tudi z omogočeno možnostjo V-Sync.

Ko uporabljate G-Sync, GPE sam uravnava frekvenco monitorja. Zato signali dosežejo matrico, ko je to res potrebno. Zahvaljujoč temu se je mogoče izogniti trganju slike in izboljšati gladkost slike kot celote. Ker običajni monitorji ne dovolijo GPU-ju, da bi sam sebe nadzoroval, je bil izumljen monitor G-Sync, ki je vključeval ploščo NVIDIA, ki uravnava frekvenco. Zato uporaba običajnih monitorjev ni mogoča.

Monitorji, ki podpirajo to tehnologijo

Minili so dnevi, ko so si uporabniki ubijali vid z večurnim buljenjem v starodavne CRT monitorje. Trenutni modeli so elegantni in neškodljivi. Zakaj jim torej ne bi dali nove tehnologije? Prvi monitor z Podpora NVIDIA G-Sync in ločljivost 4K je izdal Acer. Novi izdelek je povzročil pravo senzacijo.

Ne še monitorji kakovosti z G-Sync so precej redki. Toda proizvajalci nameravajo te naprave narediti standardne. Najverjetneje bodo v petih letih monitorji, ki podpirajo to tehnologijo, postali standardna rešitev tudi za pisarniške računalnike. Medtem pa ostane le še ogled teh novih izdelkov in čakanje na njihovo široko distribucijo. Takrat se bodo pocenile.

Po tem so monitorje s podporo G-Sync začeli prikovati vsi in vsi. Pojavili so se celo proračunski modeli s to tehnologijo. Čeprav kakšna je uporaba te tehnologije? proračunski zaslon s slabo matrico? Ampak, kakor koli že, takšni modeli obstajajo. Najboljša možnost za to možnost je (G-Sync bo na njej deloval s polno močjo).

Najboljši monitorji z G-Sync

Kot posebna linija naprav izstopajo monitorji s tehnologijo G-Sync. Imeti morajo lastnosti, potrebne za polnopravno delo to možnost. Jasno je, da se vsi zasloni ne morejo spopasti s to nalogo. Identificiranih je bilo že nekaj vodilnih v proizvodnji takih monitorjev. Njihovi modeli so se izkazali za zelo uspešne.

Na primer, monitor G-Sync je eden najsvetlejših predstavnikov te linije. Ta naprava je premium. Zakaj? Presodite sami. Diagonala zaslona je 34 palcev, ločljivost 4K, kontrast 1:1000, 100 Hz, odzivni čas matrike 5 ms. Poleg tega bi mnogi radi dobili to "pošast" zase. Jasno je, da se bo s tehnologijo G-Sync spopadel z velikim udarcem. Še nima analogov. Lahko ga mirno imenujete najboljši v svojem razredu in se ne boste zmotili.

Na splošno so monitorji ASUS G-Sync zdaj na vrhu Olympusa. Noben proizvajalec še ni uspel preseči tega podjetja. In malo verjetno je, da se bo to kdaj zgodilo. ASUS lahko imenujemo pionir v tem pogledu. Njihovi monitorji, ki podpirajo G-Sync, se prodajajo kot žeton.

Prihodnost G-Sync

Zdaj aktivno poskušajo uvesti tehnologijo G-Sync v prenosnike. Nekateri proizvajalci so celo izdali nekaj takih modelov. Poleg tega lahko delujejo brez kartice G-Sync v monitorju. Kar je razumljivo. Kljub temu je prenosnik nekoliko drugačen oblikovne značilnosti. Video kartica, ki podpira to tehnologijo, je povsem dovolj.

Verjetno bo NVIDIA G-Sync kmalu zasedel pomembno mesto v računalniški industriji. Monitorji s to tehnologijo naj bi postali cenejši. Sčasoma naj bi ta možnost postala na voljo povsod. V nasprotnem primeru, kakšen smisel ima razvijati? Vsekakor pa še ni vse tako rožnato. Pri izvajanju G-Sync je nekaj težav.

V prihodnosti bo tehnologija G-Sync postala enaka običajna stvar, kot so bila vrata VGA za povezavo monitorja nekoč za nas. Toda vse vrste "vertikalne sinhronizacije" na ozadju te tehnologije izgledajo kot očiten anahronizem. Ne samo, da te zastarele tehnologije ne morejo zagotoviti zadovoljive kakovosti slike, ampak tudi porabijo precejšnjo količino sistemskih virov. Vsekakor, s prihodom G-Sync, njihovo mesto na smetišču zgodovine.

NVIDIA G-SYNC monitorji vsebuje revolucionarno tehnologijo NVIDIA, ki odpravlja trganje zaslona in zamik vnosa s sinhronizacijo okvirja VSync ter izboljšuje zmogljivost sodobnih monitorjev, kar ima za posledico najbolj gladko in najbolj odzivno igralno izkušnjo, kar ste jih kdaj videli.

Posledično se prizori igre prikažejo takoj, predmeti postanejo jasnejši in igranje postane bolj tekoče.

KAKO DELUJE NVIDIA G-SYNC?

NVIDIA® G-SYNC™ je inovativna rešitev, ki razbija stare kalupe in ustvarja najnaprednejše in najbolj odzivne računalniške zaslone v zgodovini. Modul NVIDIA G-SYNC je mogoče namestiti neodvisno ali kupiti vnaprej nameščenega v najnovejših igralnih monitorjih. Pomaga vam pozabiti na trganje zaslona, ​​zamik vnosa in trepetanje, ki povzroča naprezanje oči, ki so ga povzročile starejše tehnologije, ki so se preselile iz analognih televizorjev na sodobne monitorje.

TEŽAVA: STARA TEHNOLOGIJA MONITORJA

Ko so izumili televizorje, so uporabljali katodne cevi, ki so delovale tako, da so skenirale tok elektronov po površini s fosforjem prevlečene cevi. Ta žarek je povzročil utripanje slikovne pike in ko se je dokaj hitro aktiviralo dovolj pikslov, je katodna cev ustvarila občutek videa s polnim gibanjem. Verjeli ali ne, ti prvi televizorji so delovali s hitrostjo osveževanja 60 Hz, saj je industrijska frekvenca izmenični tok v ZDA je 60 Hz. Ujemanje hitrosti osveževanja televizorja z industrijsko frekvenco izmeničnega toka je olajšalo izdelavo zgodnje elektronike in zmanjšalo šum zaslona.

Do izuma osebnih računalnikov v zgodnjih osemdesetih letih prejšnjega stoletja je bila tehnologija katodne televizije trdno uveljavljena kot najenostavnejša in stroškovno najučinkovitejša tehnologija za izdelavo računalniških monitorjev. 60 Hz in fiksne stopnje osveževanja so postale standard, izdelovalci sistemov pa so se naučili kar najbolje izkoristiti situacijo, ki ni idealna. V zadnjih treh desetletjih, ko se je katodna TV tehnologija razvila v LCD in LED TV tehnologijo, si nobeno večje podjetje ni upal oporekati temu stereotipu, sinhronizacija GPE s hitrostjo osveževanja monitorja pa ostaja standardna industrijska praksa do danes.

Težava je v tem, da video kartice ne upodabljajo slik s konstantno frekvenco. Pravzaprav se bo hitrost sličic GPE znatno razlikovala tudi znotraj iste scene v isti igri, odvisno od trenutne obremenitve GPE. In če imajo monitorji fiksno hitrost osveževanja, kako potem prenesete slike iz GPE na zaslon? Prvi način je, da preprosto ignorirate hitrost osveževanja monitorja in osvežite sliko sredi cikla. Temu pravimo onemogočeni način VSync, tako privzeto igra večina igralcev. Slaba stran je, da ko en cikel osveževanja monitorja vključuje dve sliki, se pojavi zelo opazna "prelomna črta", ki se običajno imenuje trganje zaslona. Dobro poznan način za boj proti trganju zaslona je omogočiti tehnologijo VSync, ki povzroči, da GPE zakasni osveževanje zaslona do začetka novega cikla osveževanja monitorja. To povzroči tresenje slike, ko je hitrost sličic GPE nižja od hitrosti osveževanja zaslona. Prav tako poveča zakasnitev, kar povzroči zakasnitev vnosa – opazen zamik med pritiskom na tipko in rezultatom, ki se pojavi na zaslonu.

Da je stvar še hujša, mnogi igralci trpijo zaradi obremenitve oči zaradi tresenja slike, drugi pa imajo glavobole in migrene. To nas je pripeljalo do razvoja tehnologije Adaptive VSync, učinkovite rešitve, ki so jo kritiki dobro sprejeli. Kljub uvedbi te tehnologije še vedno ostaja problem zakasnitve vnosa, kar je nesprejemljivo za mnoge navdušene igralce iger in popolnoma neprimerno za profesionalne igralce iger (e-šport), ki neodvisno konfigurirajo svoje video kartice, monitorje, tipkovnice in miške, da čim bolj zmanjšajo nadležno zamude med akcijo in reakcijo.

REŠITEV: NVIDIA G-SYNC

Spoznajte tehnologijo NVIDIA G-SYNC, ki odpravlja trganje zaslona, ​​zakasnitev zaslona VSync in trepetanje slike. Da bi dosegli to revolucionarno zmogljivost, smo ustvarili G-SYNC za monitorje, ki monitorju omogoča, da se sinhronizira s hitrostjo sličic GPE, namesto obratno, kar ima za posledico hitrejše, bolj gladke slike brez trganja, ki igranje iger popeljejo v Naslednja stopnja.

Industrijski guruji John Carmack, Tim Sweeney, Johan Andersson in Mark Rein so bili navdušeni nad tehnologijo NVIDIA G-SYNC. Igralci e-športa in lige e-športa se pripravljajo na uporabo tehnologije NVIDIA G-SYNC, ki bo sprostila njihove prave spretnosti in zahtevala še hitrejše odzive zahvaljujoč neopaznemu zamiku med dejanji na zaslonu in ukazi na tipkovnici. Med internim testiranjem so navdušeni igralci kosila preživljali ob igranju spletnih tekem. lokalno omrežje, z uporabo monitorjev, ki podpirajo G-SYNC, za zmago.

Če imate monitor, ki podpira NVIDIA G-SYNC, spletna igra imeli boste nesporno prednost pred drugimi igralci, pod pogojem, da imate tudi nizek ping.

REVOLUCIONARNA REŠITEV JE TU

V teh časih tehnoloških čudes je le malo napredka mogoče imenovati resnično »inovativnega« ali »revolucionarnega«. Vendar je NVIDIA G-SYNC eden tistih redkih prebojev, ki revolucionira zastarelo tehnologijo monitorja z inovativnim pristopom, ki še ni bil preizkušen.

G-SYNC odpravlja vnosni zamik, trganje in tresenje za osupljivo vizualno izkušnjo na katerem koli monitorju, ki podpira G-SYNC; tako odlični so, da jih nikoli več ne boste želeli uporabiti redni monitor. Poleg revolucionarnih sprememb v vizualnih zmožnostih bodo igralci iger za več igralcev imeli dodatno prednost združevanja G-SYNC, hitre grafične kartice. GeForce GTX in vhodne naprave z nizko zakasnitvijo. To bo zagotovo zanimalo ljubitelje strelcev. Za e-športnike je NVIDIA G-SYNC pomembna izboljšava. Ker G-SYNC odpravlja zamik vnosa, je uspeh ali neuspeh zdaj odvisen od igralcev, kar pomaga ločiti profesionalce od amaterjev.

Če želite, tako kot e-športniki, najostrejšo, najbolj gladko in najbolj odzivno proces igre, potem so monitorji s podporo NVIDIA G-SYNC popoln preboj, kakršnega ni mogoče najti nikjer drugje. Resnična inovacija v dobi izboljšav bo NVIDIA G-SYNC spremenila vaš način igranja iger.

Pregled tehnologije G-Sync | Kratka zgodovina fiksne hitrosti osveževanja

Nekoč so bili monitorji zajetni in so vsebovali katodne cevi in ​​elektronske puške. Elektronske puške bombardirajo zaslon s fotoni, da osvetlijo barvne fosforne pike, ki jih imenujemo slikovne pike. Narišejo od leve proti desni vsako "skenirno" črto od zgoraj navzdol. Prilagajanje hitrosti elektronske puške od ene popolne posodobitve do druge prej ni bilo zelo praktično in pred pojavom 3D iger za to ni bilo posebne potrebe. Zato so bili CRT-ji in sorodni analogni video standardi zasnovani s fiksno hitrostjo osveževanja.

LCD monitorji so postopoma zamenjali CRT, digitalni priključki (DVI, HDMI in DisplayPort) pa analogne priključke (VGA). Toda združenja, odgovorna za standardizacijo video signalov (na čelu z VESA), se niso oddaljila od fiksnih stopenj osveževanja. Film in televizija sta še vedno odvisna od vhodnega signala s konstantno hitrostjo sličic. Še enkrat, preklop na spremenljivo hitrost osveževanja se ne zdi tako potreben.

Nastavljiva hitrost sličic in fiksna hitrost osveževanja nista enaka

Pred prihodom sodobne 3D-grafike fiksne stopnje osveževanja niso bile težava za zaslone. Vendar se je pojavilo, ko smo se prvič srečali z zmogljivimi grafičnimi procesorji: hitrost, s katero je grafični procesor upodabljal posamezne sličice (kar imenujemo hitrost sličic, običajno izražena v FPS ali sličicah na sekundo), ni konstantna. S časom se spreminja. V težkih grafičnih prizorih lahko kartica zagotovi 30 FPS, pri pogledu na prazno nebo pa 60 FPS.

Onemogočanje sinhronizacije povzroči vrzeli

Izkazalo se je, da je spremenljiva hitrost sličic GPU in fiksna hitrost osveževanja zaslona LCD ne delujeta dobro skupaj. V tej konfiguraciji naletimo na grafični artefakt, imenovan »trganje«. Pojavi se, ko sta dva ali več delnih okvirjev upodobljena skupaj med istim ciklom osveževanja monitorja. Običajno so premaknjeni, kar daje zelo neprijeten učinek med premikanjem.

Zgornja slika prikazuje dva dobro znana artefakta, ki sta pogosta, a ju je težko ujeti. Ker so to prikazni artefakti, tega ne boste videli na običajnih posnetkih zaslona iger, naše slike pa prikazujejo, kaj dejansko vidite med igranjem. Če jih želite posneti, potrebujete kamero s hitrim načinom snemanja. Če pa imate kartico, ki podpira zajem videa, lahko posnamete nestisnjen video tok iz vrat DVI in jasno vidite prehod iz enega okvirja v drugega; To je metoda, ki jo uporabljamo za teste FCAT. Najbolje pa je opisani učinek opazovati na lastne oči.

Učinek trganja je viden na obeh slikah. Zgornji je bil narejen s kamero, spodnji pa s funkcijo za zajem videa. Spodnja slika je "odrezana" vodoravno in deluje premaknjeno. Na zgornjih dveh slikah je bila leva fotografija posneta na zaslonu Sharp s hitrostjo osveževanja 60 Hz, desna pa na zaslonu Asus s hitrostjo osveževanja 120 Hz. Trganje na 120Hz zaslonu je manj izrazito, ker je hitrost osveževanja dvakrat višja. Vendar je učinek viden in se pojavi na enak način kot na levi sliki. Ta vrsta artefakta je jasen znak da so bile slike posnete z onemogočeno navpično sinhronizacijo (V-sinhronizacija).

Battlefield 4 na GeForce GTX 770 z onemogočeno V-sinhronizacijo

Drugi učinek, ki je viden na slikah BioShock: Infinite, se imenuje ghosting. Še posebej je vidna v spodnjem levem delu fotografije in je povezana z zakasnitvijo osveževanja zaslona. Skratka, posamezne slikovne pike ne spremenijo barve dovolj hitro, kar povzroči to vrsto sijaja. Posamezen okvir ne more prenesti učinka, ki ga ima ghosting na samo igro. Plošča z odzivnim časom 8 ms sivo-sivo, kot je Sharp, bo na koncu proizvedla zamegljeno sliko ob vsakem premiku na zaslonu. Zato ti zasloni na splošno niso priporočljivi za prvoosebne strelce.

V-sync: "zapravljen na milo"

Navpična sinhronizacija ali V-sinhronizacija je zelo stara rešitev za problem trganja. Ko je ta funkcija aktivirana, se grafična kartica poskuša uskladiti s hitrostjo osveževanja zaslona, ​​kar popolnoma odpravi trganje. Težava je v tem, da če vaša grafična kartica ne more vzdrževati hitrosti sličic nad 60 sličic na sekundo (na zaslonu s 60 Hz), bo efektivna hitrost sličic skakala med večkratniki hitrosti osveževanja zaslona (60, 30, 20, 15 sličic na sekundo itd.). .) itd.), kar bo povzročilo opazne upočasnitve.

Ko hitrost sličic pade pod hitrost osveževanja z aktivno V-sinhronizacijo, boste občutili jecljanje

Še več, ker V-sync prisili grafično kartico v čakanje in se včasih zanaša na nevidni površinski medpomnilnik, lahko V-sync v verigo upodabljanja vnese dodatno zakasnitev vnosa. Tako je lahko V-sync tako blagoslov kot prekletstvo, saj rešuje nekatere težave, povzroča pa druge slabosti. Neuradna raziskava našega osebja je pokazala, da igralci računalniških iger običajno onemogočijo V-sync in ga vklopijo šele, ko trganje postane neznosno.

Bodite ustvarjalni: Nvidia razkriva G-Sync

Pri zagonu nove video kartice GeForce GTX 680 Nvidia je vključila način gonilnika, imenovan Adaptive V-sync, ki poskuša ublažiti težave tako, da omogoči V-sync, ko je hitrost sličic nad hitrostjo osveževanja monitorja, in jo hitro onemogoči, ko zmogljivost močno pade pod hitrost osveževanja. Čeprav je tehnologija dobro opravila svoje delo, je bila rešitev, ki ni odpravila trganja, če je bila hitrost sličic nižja od hitrosti osveževanja monitorja.

Izvedba G-Sync veliko bolj zanimivo. Na splošno Nvidia dokazuje, da namesto da grafične kartice prisilimo, da delujejo s fiksno frekvenco prikaza, lahko nove monitorje prisilimo, da delujejo s spremenljivo frekvenco.

Hitrost sličic GPE določa hitrost osveževanja monitorja in odstranjuje artefakte, povezane z omogočanjem in onemogočanjem V-sinhronizacije

Mehanizem paketnega prenosa podatkov priključka DisplayPort je odprl nove možnosti. Z uporabo spremenljivih intervalov praznjenja v video signalu DisplayPort in zamenjavo skalerja monitorja z modulom, ki deluje na spremenljivih signalih brisanja, lahko zaslon LCD deluje s spremenljivo hitrostjo osveževanja, ki je povezana s hitrostjo sličic, ki jo oddaja video kartica (znotraj monitorjevega hitrost osveževanja). Nvidia je v praksi postala kreativna s posebnostmi vmesnika DisplayPort in poskušala ujeti dve muhi na en mah.

Še preden se testiranje začne, bi rad pohvalil ekipo za njihov ustvarjalni pristop k reševanju resničnega problema, ki vpliva na igranje računalniških iger. To je najboljša inovacija. Toda kakšni so rezultati G-Sync na praksi? Pa ugotovimo.

Nvidia nam je poslala inženirski vzorec monitorja Asus VG248QE, v katerem je naprava za skaliranje nadomeščena z modulom G-Sync. Ta zaslon že poznamo. Članek je posvečen njemu "Recenzija Asus VG248QE: 24-palčni 144Hz igralni monitor za 400 USD", v katerem si je monitor prislužil nagrado Tom's Hardware Smart Buy. Zdaj je čas, da ugotovite, kako nova tehnologija Nvidia bo vplivala na najbolj priljubljene igre.

Pregled tehnologije G-Sync | 3D LightBoost, vgrajen pomnilnik, standardi in 4K

Ko smo pregledovali Nvidijina tiskovna gradiva, smo si zastavili veliko vprašanj, tako o mestu tehnologije v sedanjosti kot o njeni vlogi v prihodnosti. Med nedavnim obiskom sedeža podjetja v Santa Clari so naši ameriški kolegi prejeli nekaj odgovorov.

G-Sync in 3D LightBoost

Prva stvar, ki smo jo opazili, je bila, da je Nvidia poslala monitor Asus VG248QE, spremenjen za podporo G-Sync. Ta monitor podpira tudi Nvidijino tehnologijo 3D LightBoost, ki je bila prvotno zasnovana za povečanje svetlosti 3D-zaslonov, vendar se že dolgo neuradno uporablja v 2D-načinu, z uporabo utripajoče osvetlitve ozadja plošče za zmanjšanje nevidnosti (ali zamegljenosti gibanja). Seveda je postalo zanimivo, ali se uporablja to tehnologijo V G-Sync.

Nvidia je dala negativen odgovor. Medtem ko bi bila uporaba obeh tehnologij hkrati idealna, danes strobiranje osvetlitve ozadja s spremenljivo hitrostjo osveževanja povzroča težave z utripanjem in svetlostjo. Reševanje jih je neverjetno težko, ker morate prilagoditi svetlost in slediti impulzom. Posledično je zdaj izbira med obema tehnologijama, čeprav podjetje poskuša najti način, kako bi ju v prihodnosti uporabljalo hkrati.

Vgrajen pomnilnik modula G-Sync

Kot že vemo, G-Sync odpravlja zakasnitev vnosa korakov, povezano z V-sync, saj ni več treba čakati, da se skeniranje plošče konča. Vendar smo opazili, da modul G-Sync ima vgrajen pomnilnik. Ali lahko modul samostojno medpomni okvirje? Če je tako, koliko časa bo trajalo, da okvir potuje po novem kanalu?

Glede na Nvidia okvirji niso shranjeni v pomnilniku modula. Ko podatki prispejo, se prikažejo na zaslonu, pomnilnik pa opravlja nekatere druge funkcije. Vendar pa je čas obdelave za G-Sync občutno manj kot eno milisekundo. Pravzaprav na skoraj enako zamudo naletimo, ko je V-sync izklopljen, in je povezana z lastnostmi igre, video gonilnika, miške itd.

Bo G-Sync standardiziran?

To vprašanje je bilo zastavljeno v nedavnem intervjuju z AMD, ko je bralec želel izvedeti odziv podjetja na tehnologijo G-Sync. Vendar smo želeli neposredno vprašati razvijalca in ugotoviti, ali Nvidia namerava tehnologijo prilagoditi industrijskemu standardu. Teoretično lahko podjetje ponudi G-Sync kot nadgradnja standarda DisplayPort, ki omogoča spremenljivo hitrost osveževanja. Navsezadnje je Nvidia članica združenja VESA.

Vendar pa ni načrtovanih novih specifikacij za DisplayPort, HDMI ali DVI. G-Syncže podpira DisplayPort 1.2, to pomeni, da standarda ni treba spreminjati.

Kot že omenjeno, Nvidia dela na združljivosti G-Sync s tehnologijo, ki se zdaj imenuje 3D LightBoost (vendar bo kmalu imela drugo ime). Poleg tega podjetje išče način za znižanje stroškov modulov G-Sync in jih narediti bolj dostopne.

G-Sync pri ločljivostih Ultra HD

Nvidia obljublja monitorje s podporo G-Sync in ločljivosti do 3840x2160 slikovnih pik. Vendar pa Asusov model, ki si ga bomo ogledali danes, podpira samo 1920x1080 slikovnih pik. Vklopljeno ta trenutek Monitorji Ultra HD uporabljajo krmilnik STMicro Athena, ki ima dva merilnika za ustvarjanje zaslona s ploščicami. Zanima nas, ali bo kakšen modul G-Sync podpira konfiguracijo MST?

V resnici bodo morali zasloni 4K s spremenljivo hitrostjo sličic še počakati. Še ni ločene naprave za povečanje ločljivosti, ki bi podpirala ločljivost 4K; najbližja naj bi se pojavila v prvem četrtletju 2014, monitorji, opremljeni z njimi, pa šele v drugem četrtletju. Od modula G-Sync zamenja napravo za skaliranje, se bodo združljive plošče začele pojavljati po tej točki. Na srečo modul izvorno podpira Ultra HD.