Kort med støtte for g-synkronisering. Gjennomgang av NVIDIA G-Sync-teknologi og ASUS ROG SWIFT PG278Q-skjerm. De beste skjermene med G-Sync

Beste skjermer for spill | Modeller som støtter Nvidia G-Sync-teknologier

Teknologi med variabel eller adaptiv skjermoppdateringsfrekvens kommer i to varianter: AMD FreeSync og Nvidia G-Sync. De utfører samme funksjon - de reduserer oppdateringsfrekvensen til kilden (skjermkortet) og skjermen for å forhindre irriterende rammerivning under raske bevegelser i spillet. FreeSync er en del av DisplayPort-spesifikasjonen, mens G-Sync krever ekstra maskinvare lisensiert fra Nvidia. Implementeringen av G-Sync legger til omtrent $200 til prisen på skjermen. Hvis du allerede har et moderne GeForce grafikkort, er valget åpenbart. Hvis du fortsatt er usikker, bør du vite at G-Sync har én fordel. Når bildefrekvensen faller under G-Sync-terskelen, som er 40 fps, dupliseres bilder for å forhindre at bildet rives. FreeSync har ikke en slik funksjon.


Pivottabell


Modell AOC G2460PG Asus RoG PG248Q Dell S2417DG Asus ROG SWIFT PG279Q
Kategori FHD FHD QHD QHD
Beste pris i Russland, gni. 24300 28990 31000 58100
Panel/bakgrunnslys type TN/W-LED TN/W-LED kant array TN/W-LED kant array AHVA/W-LED kant array
24" / 16:9 24" / 16:9 24" / 16:9 27" / 16:9
Krumningsradius Nei Nei Nei Nei
1920 x 1080 @ 144 Hz 1920x1080 @ 144 Hz, 180 Hz overklokket 2560x1440 @ 144 Hz, 165 Hz overklokket 2560 x 1440 @ 165 Hz
FreeSync driftsområde Nei Nei Nei Nei
Fargedybde/fargeskala 8-bit (6-bit med FRC) / sRGB 8-bit/sRGB 8-bit/sRGB 8-bit/sRGB
Responstid (GTG), ms 1 1 1 4
Lysstyrke, cd/m2 350 350 350 350
Høyttalere Nei Nei Nei (2) 2 W
Videoinnganger (1) DisplayPort (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort v1.2, (1) HDMI v1.4
Lydkontakter Nei (1) 3,5 mm hodetelefonutgang (1) 3,5 mm stereoinngang, (1) 3,5 mm hodetelefonutgang (1) 3,5 mm hodetelefonutgang
USB v3.0: (1) inngang, (2) utganger; v2.0: (2) utganger v3.0: (1) inngang, (2) utgang v3.0: (1) inngang, (4) utgang v3.0: (1) inngang, (2) utgang
Energiforbruk, W 40 typisk 65 maks. 33 typisk 90 maks., 0,5 forventet
559 x 391-517 x 237 562 x 418-538 x 238 541 x 363 x 180 620 x 553 x 238
Paneltykkelse, mm 50 70 52 66
Rammebredde, mm 16-26 11 topp/side: 6, bunn: 15 8-12
Vekt (kg 6,5 6,6 5,8 7
Garanti 3 år 3 år 3 år 3 år

Modell Acer Predator XB271HK Acer Predator XB321HK Asus ROG PG348Q Acer Predator Z301CTМ
Kategori UHD UHD WQHD QHD
Beste pris i Russland, gni. 43900 62000 102000 58000
Panel/bakgrunnslys type AHVA/W-LED kant array IPS/W-LED kant array AH-IPS/W-LED kant array AMVA/W-LED, kant array
Skjermdiagonal/sideforhold 27" / 16:9 32" / 16:9 34" / 21:9 30" / 21:9
Krumningsradius Nei Nei 3800 mm 1800 mm
Maksimal oppløsning/frekvens oppdateringer 3840 x 2160 @ 60 Hz 3840 x 2160 @ 60 Hz 3440x1440 @ 75 Hz, 100 Hz overklokket 2560x1080 @ 144 Hz, 200 Hz overklokket
FreeSync driftsområde Nei Nei Nei 8-bit/sRGB
Fargedybde/fargeskala 10-bit/sRGB 10-bit/sRGB 10-bit/sRGB 10-bit/sRGB
Responstid (GTG), ms 4 4 5 4
Lysstyrke, cd/m2 300 350 300 300
Høyttalere (2) 2 W, DTS (2) 2 W, DTS (2) 2 W (2) 3W, DTS
Videoinnganger (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort, (1) HDMI (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort v1.2, (1) HDMI v1.4
Lydkontakter (1) 3,5 mm hodetelefonutgang (1) 3,5 mm hodetelefonutgang (1) 3,5 mm hodetelefonutgang (1) 3,5 mm hodetelefonutgang
USB v3.0: (1) inngang, (4) utgang v3.0: (1) inngang, (4) utgang v3.0: (1) inngang, (4) utgang v3.0: (1) inngang, (3) utgang
Energiforbruk, W 71,5 typisk 56 typisk 100 maks. 34 W ved 200 nits
Mål LxHxB (med sokkel), mm 614 x 401-551 x 268 737 x 452-579 x 297 829 x 558 x 297 714 x 384-508 x 315
Paneltykkelse, mm 63 62 73 118
Rammebredde, mm topp/side: 8, bunn: 22 topp/side: 13, bunn: 20 topp/side: 12, bunn: 24 topp/side: 12, bunn: 20
Vekt (kg 7 11,5 11,2 9,7
Garanti 3 år 3 år 3 år 3 år

AOC G2460PG – FHD 24 tommer


  • Beste pris i Russland: 24 300 gni.

FORDELER

  • Utmerket implementering av G-Sync
  • Skjermoppdateringsfrekvens 144 Hz
  • ULMB Undertrykkelse av bevegelsesuskarphet
  • Høy byggekvalitet
  • Veldig høy kvalitet fargegjengivelse og gråtoner

FEIL

  • Ikke-standard gamma
  • Utilstrekkelig lysstyrke for optimal ULMB-ytelse
  • Ikke IPS

KJENNELSE

Selv om G-Sync fortsatt er et premium og dyrt alternativ, er AOC G2460PG den første skjermen i dette segmentet som er rettet mot budsjettkjøperen. Det koster omtrent halvparten av prisen på Asus ROG Swift, så du kan spare litt penger, eller installere to skjermer på skrivebordet samtidig.

Asus RoG PG248Q – FHD 24 tommer


  • Beste pris i Russland: 28 990 gni.

FORDELER

  • G-Sync
  • 180 Hz
  • Lav ventetid
  • Respons
  • Fargenøyaktighet med kalibrering
  • Elegant utseende
  • Byggekvalitet

FEIL

  • For å oppnå det beste bildet, kreves justeringer
  • Kontrast
  • Dyrt

KJENNELSE

PG248Q er som en eksotisk sportsbil - dyr og upraktisk i drift. Men hvis du angir de riktige innstillingene under installasjonen, vil du få en utmerket spillopplevelse. Når det gjelder jevnhet og respons, er denne skjermen kanskje den beste vi har testet til dags dato. Det er verdt pengene og tiden brukt. Sterkt anbefalt.

Dell S2417DG


  • Beste pris i Russland: 31 000 gni.

    FORDELER

    • Overlegen bevegelsesbehandlingskvalitet
    • Fargenøyaktighet ved fabrikkinnstillinger
    • Oppløsning QHD
    • Oppdateringshastighet 165 Hz
    • Spillfunksjoner
    • Ramme 6 mm

    FEIL

    • Kontrast
    • Gammakurvenøyaktighet
    • ULMB reduserer lyseffekt og kontrast
    • Betraktningsvinkler

    KJENNELSE

    Hvis Dell hadde fikset gammaproblemene vi møtte i testing, ville S2417DG ha fått vår Editor's Choice-pris. Monitoren formidler bevegelser utrolig jevnt, helt uten spøkelser, risting eller riving - du kan ikke ta øynene fra den. Fordelen med ULMB-funksjonen er liten, men den er likevel tilstede. Det er ikke den billigste 24-tommers spillskjermen, men den slår ut sine dyrere konkurrenter og fortjener en plass på listen.

    Asus RoG Swift PG279Q – QHD 27 tommer


    • Beste pris i Russland: 58 100 gni.

    FORDELER

    • Stabil drift ved 165 Hz
    • G-Sync
    • Levende og skarpe bilder
    • Mettet farge
    • GamePlus
    • Joystick for OSD-meny
    • Stilig utseende
    • Høy byggekvalitet

    FEIL

    • Betydelig reduksjon i lysstrøm i ULMB-modus
    • For prestasjon beste kvalitet bilder trenger kalibrering
    • Dyrt

    KJENNELSE

    Asus' nye tillegg til ROG-serien er ikke perfekt, men det er definitivt verdt en titt. PG279Q har alt en entusiast trenger, inkludert et skarpt og lyst IPS-panel, 165Hz oppdateringsfrekvens og G-Sync. Denne skjermen er ikke billig, men vi har ikke hørt om brukere som har angret på kjøpet ennå. Vi likte å spille på denne skjermen, og du vil sannsynligvis like den også.

    Acer Predator XB271HK – UHD 27 tommer


    • Beste pris i Russland: 43 900 gni.

    FORDELER

    • Rike farger
    • Bildenøyaktighet ved fabrikkinnstillinger
    • G-Sync
    • Ultra HD-oppløsning
    • Betraktningsvinkler
    • Byggekvalitet

    FEIL

    • Dyrt

    Vi har lenge vært vant til at monitorer har en fast bildeskannefrekvens – vanligvis 60 Hz. Den faste frekvensen dateres tilbake til CRT-TV-er, da videosekvensen hadde et klart definert antall bilder per sekund – vanligvis 24. Men i spill er ikke bildefrekvensen konstant – den kan variere innenfor svært vide grenser, og pga. at skanningsfrekvensen ikke er sammenfallende med rammegjengivelsesfrekvensen til skjermkortet, som et resultat oppstår bilderivning, noe som forstyrrer en komfortabel spilling. Dette skjer fordi bildet vises på skjermen selv om utdata fra en del av forrige bilde ennå ikke er fullstendig fullført - den gjenværende delen av bufferen står for den gjeldende skjermoppdateringen. Det er grunnen til at hvert bilde som vises på skjermen, hvis frekvensene som er angitt ovenfor ikke stemmer overens, i hovedsak vil bestå av to rammer gjengitt av skjermkortet.

    Vertikal synkronisering

    Den enkleste metoden for å løse problemet er å aktivere vertikal synkronisering. Hva gjør hun? Den viser bildet på skjermen bare når rammen er helt klar. Følgelig, hvis du har en 60 Hz-skjerm og skjermkortet produserer mer enn 60 fps, vil du få et jevnt bilde uten en eneste rift eller artefakt (og skjermkortet vil ikke være 100 % lastet). Men her dukker det opp et annet problem - forsinkelsen i bildeutgang. Hvis skjermen oppdateres 60 ganger per sekund, brukes 16,7 ms på én ramme, og selv om skjermkortet forberedte rammen på 5 ms, vil skjermen fortsatt vente i de resterende 11 ms:

    Derfor blir kontrollen "klebrig" - når du beveger musen, skjer responsen på skjermen med en liten forsinkelse, så det blir vanskeligere å plassere trådkorset i skytespill og andre dynamiske spill. Det er enda verre hvis skjermkortet ikke er i stand til å levere 60 fps i spillet - for eksempel hvis fps er 50, og vertikal synkronisering er aktivert, vil det hvert sekund være 10 bilder der ny informasjon ikke vil vises på skjerm, det vil si at hvert sekund vil det være 50 bilder med en forsinkelse på opptil 16,7 ms, og 10 bilder med en forsinkelse på 33,4 ms - som et resultat vil bildet ryke og det vil være umulig å spille av.

    Derfor, inntil nylig, hadde spillere tre alternativer - enten aktivere vertikal synkronisering (hvis fps er over 60) og tåle ikke de mest praktiske kontrollene, eller deaktiver synkronisering og tåle bildeartefakter.

    AMD FreeSync og Nvidia G-Sync

    Selvfølgelig fant store selskaper en løsning på problemet - de kom opp med tvungen synkronisering av skannefrekvensen og bildegjengivelse av skjermkortet. Det vil si at hvis skjermkortet tok en ramme på 5 ms, vil skjermen vise forrige bilde på 5 ms, uten å forvente noe. Hvis neste bilde ble gjengitt etter 20 ms, vil skjermen igjen beholde forrige bilde på skjermen i 20 ms:


    Hva gir dette? For det første, siden skjermen viser helt ferdige rammer og de er synkronisert med skannehastigheten, er det ingen artefakter. For det andre, siden skjermen viser rammen så snart den er klar, uten å vente på noe, er det ingen "viskositet" for kontroll - bildet på skjermen endres så snart du beveger musen.

    Forskjeller mellom FreeSync og G-Sync

    Hver av leverandørene gikk sin vei: med AMD styres oppdateringsfrekvensen av selve skjermkortet, og skjermen må kobles til via DisplayPort. På den ene siden er dette dårlig - hvis skjermkortet ikke har maskinvarestøtte for FreeSync, så vil du ikke kunne bruke det. Tatt i betraktning at denne teknologien kun støttes av brikker fra R7- og R9-linjen fra 200-tallet, samt Fury- og RX-linjene, blir brikkene til HD 7000-linjene igjen, hvorav noen generelt sett , er ikke forskjellig fra sjetongene til 200-linjen (ja, en banal omdøping ). Mobilversjoner AMD-skjermkort støtter ikke FreeSync i det hele tatt, selv om de er kraftigere enn skrivebordskort som støtter det. På den annen side, siden i hovedsak all kontroll kommer fra skjermkortet, viser en FreeSync-skjerm seg å være $80-100 billigere enn en med G-Sync, noe som er ganske merkbart.

    Nvidia tok en annen rute - skannefrekvensen styres av selve skjermen, som har en spesiell brikke innebygd. På den ene siden er dette bra - skjermkort som starter fra GTX 650 Ti støttes, samt mobile løsninger fra 965M. På den annen side koster brikken penger, så skjermer med G-Sync er dyrere.

    De tillatte skannefrekvensene er også forskjellige. For AMD er det 9-240 Hz, for Nvidia er det 30-144 Hz. Tallet på 9 Hz vekker heller et smil (siden dette er en lysbildefremvisning), og Nvidias 30 kan i prinsippet betraktes som et akseptabelt minimum. Men det faktum at Nvidia har en grense på 144 Hz er kanskje ikke nok, siden topp spillmonitorer har frekvenser opp til 240 Hz. Men akk, AMD har ennå ikke slike skjermkort som kan produsere mer enn 200 fps i e-sportspill, så 240 Hz kl. dette øyeblikket- bare en god reserve for fremtiden. På den annen side, hvis bildefrekvensen i spillet faller under minimumsskannefrekvensen til skjermen, tvinger AMD ganske enkelt denne frekvensen til å stilles inn, det vil si at vi får de samme problemene som ved vertikal synkronisering. Nvidia gjorde noe mer smart - G-Sync-brikken kan duplisere rammer for å komme inn i frekvensområdet til skjermen, så det vil ikke være noen forsinkelser i kontroll eller artefakter:

    Et annet pluss for AMD er fraværet av små forsinkelser ved overføring av data til skjermen, siden FreeSync bruker Adaptive-Sync-teknologi av DisplayPort-standarden for å vite på forhånd minimums- og maksimumsoppdateringsfrekvensen til skjermen, slik at dataoverføringen ikke blir avbrutt. ved å koordinere driften av skjermkortet med modulen G-Sync i skjermen, som Nvidia. Men i praksis viser forskjellen seg å ikke være mer enn 1-2%, så dette kan neglisjeres.

    Selvfølgelig oppstår spørsmålet - påvirker rammesynkroniseringsteknologier spillytelsen? Svaret er nei, det gjør de ikke: forskjellen med synkronisering slått av og FreeSync eller G-Sync viser seg å være null, og dette er forståelig - faktisk tvinger ikke disse teknologiene skjermkortet til å beregne mer data - de bare gi ferdige data raskere.

    Til slutt - hva er bedre? Uansett hvor morsomt det høres ut, har brukerne ikke noe valg: de som bruker de "røde" produktene blir tvunget til å bruke FreeSync. De som bruker grønne produkter kan tilsvarende kun bruke G-Sync. Men i prinsippet gir teknologiene for øyeblikket lignende resultater, så valget ligger egentlig bare i produsenten og kraften til skjermkortet.

    I de gode gamle dager da eierne personlige datamaskiner De brukte aktivt store CRT-skjermer, og tjente seg selv astigmatisme; det var ikke snakk om jevnhet i bildet. Den tidens teknologier støttet egentlig ikke 3D. Derfor måtte fattige brukere nøye seg med det de hadde. Men tiden går, teknologien utvikler seg, og mange er ikke lenger fornøyd med rammerivning under dynamisk lek. Dette gjelder spesielt for de såkalte cyber-atletene. I deres tilfelle utgjør et delt sekund hele forskjellen. Hva burde jeg gjøre?

    Fremgangen står ikke stille. Derfor kan det som tidligere virket umulig nå tas for gitt. Den samme situasjonen gjelder bildekvalitet på en datamaskin. Produsenter av skjermkort og andre PC-komponenter jobber nå hardt for å løse problemet med bildeutgang av dårlig kvalitet på skjermer. Og, jeg må si, de har allerede kommet ganske langt. Bare litt gjenstår, og bildet på skjermen blir perfekt. Men alt dette er en lyrisk digresjon. La oss gå tilbake til hovedemnet vårt.

    Litt historie

    Mange skjermer prøvde aktivt å overvinne riving og forbedre bildet. Det de ikke fant opp: de økte "hertz" på skjermen, slått på V-Sync. Ingenting hjalp. Og en vakker dag vil den berømte skjermkortprodusenten NVIDIA presentere G-Sync-teknologi, som du kan oppnå "uvirkelig" bildejevnhet uten noen artefakter. Det ser ut til å være bra, men det er et lite, men veldig alvorlig "men". For å bruke dette alternativet trenger du skjermer som støtter G-Sync. Skjermprodusenter måtte jobbe hardere og "kaste" et par dusin modeller på markedet. Hva blir det neste? La oss se på teknologien og prøve å finne ut om den er bra.

    Hva er G-Sync?

    G-Sync er en skjermvisningsteknologi fra NVIDIA. Den er preget av et jevnt rammeskifte uten noen artefakter. Det er ingen bilde som rives eller stammer. For tilstrekkelig drift av denne teknologien, ganske kraftig datamaskin, siden behandling av et digitalt signal krever betydelig prosessorkraft. Det er derfor bare nye modeller av skjermkort fra NVIDIA er utstyrt med teknologien. I tillegg er G-Sync en proprietær funksjon i NVIDIA, så eiere av skjermkort fra andre produsenter har ingen sjanse.

    I tillegg kreves en G-Sync-skjerm. Faktum er at de er utstyrt med et brett med digital signalomformer. Eiere av vanlige skjermer vil ikke kunne dra nytte av dette fantastiske alternativet. Det er selvfølgelig urettferdig, men dette er policyen til moderne produsenter - å sifon så mye penger som mulig fra den fattige brukeren. Hvis PC-konfigurasjonen din lar deg bruke G-Sync, og skjermen på mirakuløst vis støtter dette alternativet, kan du fullt ut sette pris på alle gledene ved denne teknologien.

    Hvordan G-Sync fungerer

    La oss prøve å forklare på en forenklet måte hvordan G-Sync fungerer. Faktum er at en vanlig GPU (skjermkort) bare sender digitalt signal til monitoren, men tar ikke hensyn til frekvensen. Dette er grunnen til at signalet virker "fillete" når det vises på skjermen. Signalet som kommer fra GPUen blir avbrutt av skjermfrekvensen og ser skjemmende ut i den endelige versjonen. Selv med V-Sync-alternativet aktivert.

    Ved bruk av G-Sync regulerer GPU selv skjermfrekvensen. Det er derfor signaler når matrisen når det virkelig trengs. Takket være dette er det mulig å unngå riving av bildet og forbedre jevnheten til bildet som helhet. Siden konvensjonelle skjermer ikke lar GPUen kontrollere seg selv, ble en G-Sync-skjerm oppfunnet, som inkluderte et NVIDIA-kort som regulerer frekvensen. Derfor er bruk av konvensjonelle skjermer ikke mulig.

    Skjermer som støtter denne teknologien

    Borte er tidene da brukere drepte synet sitt ved å stirre på gamle CRT-skjermer i timevis. Nåværende modeller er elegante og ufarlige. Så hvorfor ikke gi dem litt ny teknologi? Den første skjermen med NVIDIA G-Sync-støtte og 4K-oppløsning ble utgitt av Acer. Det nye produktet skapte en sensasjon.

    Ikke ennå kvalitetsmonitorer med G-Sync er ganske sjeldne. Men produsentene har planer om å gjøre disse enhetene til standard. Mest sannsynlig vil skjermer som støtter denne teknologien om fem år bli en standardløsning selv for kontor-PCer. I mellomtiden gjenstår det bare å se på disse nye produktene og vente på deres utbredte distribusjon. Det er da de blir billigere.

    Etter det begynte skjermer med G-Sync-støtte å bli naglet av alle og enhver. Til og med budsjettmodeller med denne teknologien har dukket opp. Selv om hva er nytten med denne teknologien? budsjettskjerm med en dårlig matrise? Men uansett, slike modeller finnes. Det beste alternativet for dette alternativet er (G-Sync vil fungere i full kraft på det).

    De beste skjermene med G-Sync

    Skjermer med G-Sync-teknologi skiller seg ut som en spesiell serie med enheter. De må ha de egenskapene som er nødvendige for fullverdig arbeid dette alternativet. Det er tydelig at ikke alle skjermer kan takle denne oppgaven. Flere ledere innen produksjon av slike monitorer er allerede identifisert. Modellene deres viste seg å være svært vellykkede.

    For eksempel er G-Sync-skjermen en av de lyseste representantene for denne linjen. Denne enheten er premium. Hvorfor? Døm selv. Skjermdiagonalen er 34 tommer, oppløsningen er 4K, kontrasten er 1:1000, 100 Hz, matrisens responstid er 5 ms. I tillegg vil mange gjerne få dette "monsteret" for seg selv. Det er klart at han vil takle G-Sync-teknologien med et brak. Den har ingen analoger ennå. Du kan trygt kalle den den beste i sin klasse og ikke ta feil.

    Generelt er ASUS G-Sync-skjermer nå på toppen av Olympus. Ikke en eneste produsent har ennå klart å overgå dette selskapet. Og det er usannsynlig at dette noen gang vil skje. ASUS kan kalles en pioner i denne forbindelse. Skjermene deres som støtter G-Sync selger som varmt kaker.

    Fremtiden til G-Sync

    Nå prøver de aktivt å introdusere G-Sync-teknologi i bærbare datamaskiner. Noen produsenter har til og med gitt ut et par slike modeller. Dessuten kan de fungere uten et G-Sync-kort i skjermen. Noe som er forståelig. Likevel er den bærbare datamaskinen noe annerledes designfunksjoner. Et skjermkort som støtter denne teknologien er ganske tilstrekkelig.

    Det er sannsynlig at NVIDIA G-Sync snart vil innta en betydelig plass i dataindustrien. Skjermer med denne teknologien bør bli billigere. Etter hvert skulle dette alternativet bli tilgjengelig overalt. Ellers, hva er vitsen med å utvikle det? Uansett er ikke alt så rosenrødt ennå. Det er noen problemer med implementeringen av G-Sync.

    I fremtiden vil G-Sync-teknologi bli den samme vanlige tingen som en VGA-port for tilkobling av en skjerm en gang var for oss. Men alle slags "vertikal synkronisering" mot bakgrunnen av denne teknologien ser ut som en åpenbar anakronisme. Ikke bare kan disse utdaterte teknologiene ikke gi tilfredsstillende bildekvalitet, men de bruker også en betydelig mengde systemressurser. Definitivt, med bruken av G-Sync, deres plass i historiens søppelkasse.

    Har du en G-SYNC-kompatibel skjerm og et NVIDIA-grafikkort? La oss se på hva G-SYNC er, hvordan du aktiverer den og konfigurerer den riktig for å utnytte potensialet og egenskapene til denne teknologien fullt ut. Husk at det å slå den på ikke er alt.

    Hver spiller vet hva vertikal synkronisering (V-Sync) er. Denne funksjonen synkroniserer bilderammene på en slik måte at effekten av skjermrivning elimineres. Hvis du deaktiverer vertikal synkronisering på vanlig monitor, da vil inngangsforsinkelsen (forsinkelsen) reduseres og du vil legge merke til at spillet vil reagere bedre på kommandoene dine, men dermed blir ikke rammene ordentlig synkronisert og det vil ende opp med skjermrivning.

    V-Sync eliminerer skjermrivning, men forårsaker samtidig en økning i forsinkelsen av bildeutgangen i forhold til kontrollene, slik at spillet blir mindre komfortabelt. Hver gang du beveger musen, ser det ut til at bevegelseseffekten oppstår med en liten forsinkelse. Og her kommer G-SYNC-funksjonen til unnsetning, som lar deg eliminere begge disse manglene.

    Hva er G-SYNC?

    En ganske dyr, men effektiv løsning for skjermkort NVIDIA GeForce er bruk av G-SYNC-teknologi, som eliminerer skjermrivning uten bruk av ekstra forsinkelse (inngangsforsinkelse). Men for å implementere det trenger du en skjerm som inkluderer G-SYNC-modulen. Modulen justerer skjermens oppdateringsfrekvens til antall bilder per sekund, så det er ingen ekstra forsinkelse og effekten av skjermrivning elimineres.

    Mange brukere, etter å ha kjøpt en slik skjerm, slår seg bare på NVIDIA-støtte G-SYNC i panelinnstillinger NVIDIA-administrasjon med overbevisning om at dette er alt som må gjøres. Teoretisk sett ja, fordi G-SYNC vil fungere, men hvis du vil fullt ut maksimere bruken av denne teknologien, må du bruke en rekke tilleggsfunksjoner, assosiert med den passende innstillingen for klassisk vertikal synkronisering og begrense FPS i spill til et tall som er flere bilder lavere enn den maksimale oppdateringsfrekvensen til skjermen. Hvorfor? Du vil lære alt dette fra de følgende anbefalingene.

    Aktiverer G-SYNC i NVIDIA-kontrollpanelet

    La oss starte med det enkleste grunnleggende løsning, det vil si fra det øyeblikket G-SYNC-modulen slås på. Dette kan gjøres ved å bruke NVIDIA-kontrollpanelet. Høyreklikk på skrivebordet og velg NVIDIA Control Panel.

    Gå deretter til fanen Display - G-SYNC Setup. Her kan du aktivere teknologien ved å bruke "Enable G-SYNC"-feltet. Merk den.

    Du kan deretter spesifisere om det bare skal fungere i fullskjermmodus, eller også kan aktiveres i spill som kjører i vindumodus eller et fullskjermsvindu (uten grenser).

    Hvis du velger alternativet "Aktiver G-SYNC for fullskjermmodus", vil funksjonen bare fungere i spill som har fullskjermmodus satt (dette alternativet kan endres i innstillingene til spesifikke spill). Spill i vindusmodus eller fullskjerm vil ikke bruke denne teknologien.

    Hvis du vil at spill med vindu også skal bruke G-SYNC-teknologi, aktiverer du alternativet "Aktiver G-SYNC for vindu- og fullskjermmodus". Når dette alternativet er valgt, avskjærer funksjonen det aktive vinduet og legger handlingen på det, slik at det kan støtte endret skjermoppdatering. Du må kanskje starte datamaskinen på nytt for å aktivere dette alternativet.

    Hvordan sjekke at denne teknologien er aktivert. For å gjøre dette, åpne Display-menyen øverst i vinduet og sjekk "G-SYNC Indicator"-feltet i den. Dette vil informere deg om at G-SYNC er aktivert når du starter spillet.

    Gå deretter til fanen Administrer 3D-innstillinger i sidemenyen. I delen "Globale innstillinger" ( Generelle innstillinger) Finn feltet "Foretrukket oppdateringsfrekvens".

    Sett dette til "Høyeste tilgjengelig". Noen spill kan pålegge sin egen oppdateringsfrekvens, noe som kan føre til at G-SYNC ikke blir fullt utnyttet. Takket være denne parameteren vil alle spillinnstillinger bli ignorert og muligheten til å bruke den maksimale skjermens oppdateringsfrekvens vil alltid være aktivert, som i enheter med G-SYNC oftest er 144Hz.

    Generelt, dette grunnleggende oppsett som du må gjøre for å aktivere G-SYNC. Men hvis du vil utnytte potensialet til utstyret ditt fullt ut, bør du lese følgende instruksjoner.

    Hva bør jeg gjøre med V-SYNC hvis jeg har G-SYNC? La den være på eller slå den av?

    Dette er det vanligste dilemmaet for eiere av G-SYNC-skjermer. Det er generelt akseptert at denne teknologien fullstendig erstatter den klassiske V-SYNC, som kan deaktiveres helt i NVIDIA-kontrollpanelet eller bare ignoreres.

    Først må du forstå forskjellen mellom dem. Oppgaven til begge funksjonene er teoretisk den samme - å overvinne effekten av skjermrivning. Men handlingsmetoden er vesentlig annerledes.

    V-SYNC synkroniserer rammer for å matche skjermens konstante oppdateringsfrekvens. Følgelig fungerer funksjonen som et mellomledd, og fanger bildet og dermed visningsrammen for å tilpasse dem til en konstant bildefrekvens, og dermed forhindre at bildet rives. Som et resultat kan dette føre til inngangsforsinkelse (forsinkelse), fordi V-SYNC først må "fange og organisere" bildet, og først deretter vise det på skjermen.

    G-SYNC fungerer akkurat motsatt. Den justerer ikke bildet, men skjermens oppdateringsfrekvens til antall bilder som vises på skjermen. Alt gjøres i maskinvare ved å bruke G-SYNC-modulen innebygd i skjermen, så det er ingen ekstra forsinkelse i visningen av bildet, slik tilfellet er med vertikal synkronisering. Dette er dens viktigste fordel.

    Hele problemet er at G-SYNC bare fungerer bra når FPS er i det støttede oppdateringsfrekvensområdet. Dette området dekker frekvenser fra 30 Hz til den maksimale verdien monitoren støtter (60Hz eller 144Hz). Det vil si at denne teknologien fungerer til sitt fulle potensial når FPS ikke synker under 30 og ikke overstiger 60 eller 144 bilder per sekund, avhengig av den maksimale støttede oppdateringsfrekvensen. Infografikken nedenfor, laget av BlurBusters, ser veldig bra ut.

    Hva skjer hvis fps går utenfor dette området? G-SYNC vil ikke kunne justere skjermoppdateringen, så alt utenfor området vil ikke fungere. Du finner nøyaktig de samme problemene som på en vanlig skjerm uten G-SYNC og klassisk vertikal synkronisering vil fungere. Hvis den er slått av, vil skjermen rives. Hvis den er slått på, vil du ikke se gap-effekten, men en iput-forsinkelse (forsinkelse) vises.

    Derfor er det i din beste interesse å holde deg innenfor G-SYNC-oppdateringsområdet, som er minimum 30Hz og maksimalt hva skjermen maksimalt oppnår (144Hz er mest vanlig, men det er også 60Hz-skjermer). Hvordan gjøre det? Bruk av passende vertikale synkroniseringsparametere, samt ved å begrense maksimalt antall FPS.

    Hva er så konklusjonen fra dette? I en situasjon der antall bilder per sekund faller under 30 FPS, må du fortsatt la vertikal synkronisering være aktivert. Dette er sjeldne tilfeller, men hvis det skjer, sikrer V-SYNC at det ikke blir noen riveeffekt. Hvis den øvre grensen overskrides, er alt enkelt - du må begrense det maksimale antallet bilder per sekund for ikke å nærme seg den øvre grensen, når den krysses, er V-SYNC slått på, og dermed sikre kontinuerlig drift av G-SYNC .

    Derfor, hvis du har en 144 Hz-skjerm, må du aktivere FPS-hetten på 142 for å unngå å gå for nær den øvre grensen. Hvis skjermen er 60 Hz, sett grensen til 58. Selv om datamaskinen er i stand til å lage flere FPS, vil den ikke gjøre dette. Da vil ikke V-SYNC slå seg på og bare G-SYNC vil være aktiv.

    Aktiverer Vsync i NVIDIA-innstillinger

    Åpne NVIDIA-kontrollpanelet og gå til fanen "Administrer 3D-innstillinger". I Global Setting-delen finner du alternativet Vertical Sync og setter alternativet til "On".

    Takket være dette vil vertikal synkronisering alltid være klar til å slå på dersom FPS synker under 30 FPS, og en skjerm med G-SYNC-teknologi ville ikke kunne takle dette.

    Begrens FPS til mindre enn maksimal skjermoppdateringsfrekvens

    Den beste måten å begrense bilder per sekund på er å bruke RTSS-programmet (RivaTuner Statistics Server). Utvilsomt, den beste løsningen er å bruke limiteren innebygd i spillet, men ikke alle har det.

    Last ned og kjør programmet, og sjekk deretter Global-feltet i listen over spill på venstre side. Her kan du sette en felles begrenser for alle applikasjoner. På høyre side finner du «Framerate limit»-feltet. Sett grensen her for 144Hz-skjermer - henholdsvis 142 FPS for 60Hz-enheter -58 FPS.

    Når grensen er satt, vil det ikke være noen forsinkelse i å aktivere klassisk vertikal synkronisering, og spillingen vil bli mye mer komfortabel.

    I tillegg til realistiske, vakre bilder for maksimal nytelse dataspill Du trenger en stabil bildefrekvens. Litt innsynkning, så vel som visuelle gjenstander som rammerivning, kan gjøre den uspillbar. Tidligere har V-Sync-teknologi blitt brukt for å løse slike problemer, men resultatene lar ofte mye å være ønsket. Foreløpig har begge de store GPU-produsentene, NVIDIA og AMD, utviklet sine egne synkroniseringsteknologier kalt henholdsvis G-Sync og FreeSync, som får spill til å se mye jevnere ut enn før.

    Hvis frekvensene ikke er synkronisert...

    Hvorfor oppstår stamming eller rammerivning under spillet? Faktum er at skjermoppdateringsfrekvensen til dataskjermer vanligvis er fast på 60 Hz, det vil si at skjermen oppdateres 60 ganger per sekund. Antall bilder som opprettes per sekund av skjermkortet under spillet er ikke konstant. Det er når skjermens oppdateringsfrekvens ikke samsvarer med bildefrekvensen til skjermkortet at vi kan observere de ovennevnte effektene som på en ubehagelig måte påvirker oppfatningen av spillet. Tatt i betraktning at ytelsen til skjermkort stadig forbedres, øker bildefrekvensen i spill – selv ved høye bildekvalitetsinnstillinger, men skjermoppdateringsfrekvensen på de fleste skjermer forblir på 60 Hz. Som et resultat av denne inkonsekvensen ender vi opp med enda flere uønskede visuelle artefakter mens vi spiller.

    V-Sync teknologi

    Tidligere har vi slått på V-Sync for å få spill til å se jevnere ut. Denne funksjonen forteller skjermkortet å sende ut nøyaktig 60 bilder per sekund til skjermen, som oppdateres samme 60 ganger per sekund. Resultatet er ingen avrivning av rammen. Dette begrenser imidlertid ytelsen til flaggskip-skjermkort. I tillegg, hvis spillhastigheten ikke når 60 bilder per sekund, for eksempel fordi en scene er for kompleks grafisk, vil skjermkortet bli tvunget til å sende ut enda mindre - 30 bilder per sekund til en mindre kompleks scene er nådd, og deretter bildefrekvensen vil igjen stige til 60. Siden svingningene i bildefrekvensen er for store, vil en slik veksling mellom 30 og 60 bilder per sekund være merkbar for øyet som en "nedbremsing" av bildet.

    NVIDIA G-Sync-teknologi

    Begge de store GPU-produsentene, NVIDIA og AMD, streber etter å forbedre bildekvaliteten i spill, så de løste begge problemet med å synkronisere skjermkortet og skjermen, men forskjellige måter. NVIDIA var den første som introduserte sin teknologi kalt G-Sync. Dette er en maskinvareløsning som krever at en spesiell brikke bygges direkte inn i skjermen. Brikken har et bufferminne som data utveksles gjennom med NVIDIA GeForce-seriens videokort. G-Sync-brikken leser rammer fra skjermkortet og endrer automatisk skjermens oppdateringsfrekvens for å matche gjeldende spillhastighet slik at de matcher hverandre. I dette tilfellet kan skjermens oppdateringsfrekvens variere dynamisk i området fra 0 til 240 Hz i sanntid. Resultatet er et fullstendig fravær av alle slags visuelle artefakter i spill, slik som rammerivning, stamming og skjermflimmer.

    AMD FreeSync-teknologi

    AMD FreeSync-teknologi dukket opp senere, men har allerede nådd sin andre versjon. Som G-Sync gir den dynamisk endring oppdateringsfrekvensen på skjermen - i samsvar med bildeutgangshastigheten til Radeon-seriens videokort. Dette eliminerer stammeproblemet som er typisk for tradisjonell V-Sync, noe som resulterer i jevnere bilder i spillet.

    I motsetning til NVIDIA G-Sync-teknologi, som krever bruk av diskrete brikker, implementeres FreeSync på grensesnittnivå. Det er en implementering av industristandarden DisplayPort Adaptive-Sync, som lar deg endre oppdateringsfrekvensen i sanntid via DisplayPort-grensesnittet. Siste versjon HDMI-grensesnittet støtter også FreeSync. FreeSync-teknologi krever ikke å legge til noen brikker på skjermer, men den krever en skjerm med DisplayPort- eller HDMI-grensesnitt, samt et skjermkort med GPU Radeon.

    I tillegg til forbedret bildeglathet, forbedrer FreeSync 2-teknologi bildekvaliteten. Low Framerate Compensation (LFC) har utvidet oppdateringsfrekvensområdet til FreeSync-aktiverte skjermer, og sikrer jevne bilder selv når spillhastigheten faller under 30 bilder per sekund. I tillegg støtter FreeSync 2 dobbel sRGB-fargeskala og HDR høyt dynamisk område.


    Konklusjon

    Begge adaptive synkroniseringsteknologier, NVIDIA G-Sync og AMD FreeSync, fungerer effektivt. Forbedringen i bildet etter aktiveringen vil være merkbar, spesielt i dynamiske spill med komplekse scener, for eksempel førstepersons skytespill, racing og sportssimulatorer. Det er imidlertid svært vanskelig å sammenligne begge teknologiene med hverandre basert på kvantitative data. Vi kan bare stole på våre egne øyne, så hver bruker vil ha sin egen subjektive mening om hvilken som er best.

    Den objektive forskjellen mellom de to teknologiene er kostnadene. I tillegg til å ha et kompatibelt grafikkort med riktig GPU, for NVIDIA fungerer G-Sync krever en skjerm med en ekstra diskret brikke og en betalt lisens fra NVIDIA, noe som påvirker kostnaden og prisen på det ferdige produktet. G-Sync-skjermer er dyrere enn deres AMD FreeSync-motparter, og det er derfor det er flere FreeSync-skjermer på markedet. På den annen side er det virkelig verdt det: skjermer med G-Sync er vanligvis høyere i forhold til tekniske egenskaper og, i kombinasjon med høy ytelse GeForce skjermkort, produsere et flott bilde. Tar vi hensyn til prisforskjellen, representerer skjermer med FreeSync og Radeon grafikkort en mer lønnsom løsning med tanke på maksimal avkastning på investeringen.

    Lær hvordan du konfigurerer FreeSync for et oppsett med tre skjermer i denne artikkelen.