Integrerte GPUer – Alt om plugging og frakobling. Hvordan overvåke GPU-bruk i Windows Task Manager Hvordan sjekke om Vis GPU-ytelse støttes

I 2016 håper vi på et fullverdig generasjonsskifte i GPUer, som tidligere ble hemmet av mangelen på produksjonsevner som er nødvendige for å frigjøre brikker med betydelig mer høy tetthet transistorer og klokkefrekvenser, som tillot den velprøvde 28 nm prosessteknologien. 20nm-teknologien vi håpet på for to år siden har vist seg å være kommersielt lite levedyktig for brikker så store som diskrete GPUer. Siden TSMC og Samsung, som kunne fungere som kontraktører for AMD og NVIDIA, ikke brukte FinFETs ved 20 nm, var den potensielle økningen i ytelse per watt sammenlignet med 28 nm slik at begge selskapene valgte å vente på masseadopsjon av 14/16- nm-standarder, som allerede bruker FinFET.

Imidlertid har årene med angstfull venting gått, og nå kan vi evaluere hvordan GPU-produsenter har brukt mulighetene til den oppdaterte tekniske prosessen. Som praksis nok en gang har vist, garanterer ikke "nanometer" i seg selv høy energieffektivitet til en brikke, så de nye arkitekturene til NVIDIA og AMD viste seg å være veldig forskjellige i denne parameteren. Og ytterligere intriger ble lagt til av det faktum at selskaper ikke lenger bruker tjenestene til en fabrikk (TSMC), slik tilfellet var de siste årene. AMD valgte GlobalFoundries for å produsere Polaris GPUer basert på 14 nm FinFET-teknologi. NVIDIA, på den annen side, samarbeider fortsatt med TSMC, som har en 16nm FinFET-prosess, på alle Pascal-brikker bortsett fra low-end GP107 (som er laget av Samsung). Det var Samsungs 14nm FinFET-linje som en gang ble lisensiert av GlobalFoundries, så GP107 og dens rival Polaris 11 gir oss en praktisk mulighet til å sammenligne ingeniørprestasjonene til AMD og NVIDIA på en lignende produksjonsbase.

La oss imidlertid ikke dykke ned i tekniske detaljer for tidlig. Generelt ser forslagene fra begge selskapene basert på den nye generasjonen GPU-er slik ut. NVIDIA har laget en komplett serie med Pascal-akseleratorer basert på tre GPUer av forbrukerkvalitet - GP107, GP106 og GP104. Plassen til flaggskipadapteren, som trolig vil hete GeForce GTX 1080 Ti, er imidlertid nå ledig. En kandidat for denne stillingen er et kort med en GP102-prosessor, som så langt bare brukes i "prosumer"-akseleratoren NVIDIA TITAN X. Og til slutt, NVIDIAs største stolthet er GP100-brikken, som selskapet tilsynelatende ikke er. selv kommer til å introdusere i spillprodukter og dro til Teslas dataakseleratorer.

AMDs suksesser er mer beskjedne så langt. To prosessorer fra Polaris-familien ble utgitt, produkter basert på dem tilhører de nedre og midterste kategoriene av spillvideokort. De øvre sjiktene vil bli okkupert av den kommende Vega-familien av GPUer, som forventes å ha en omfattende oppgradert GCN-arkitektur (mens Polaris ikke er så forskjellig fra 28nm Fiji- og Tonga-brikkene i denne forbindelse).

NVIDIA Tesla P100 og nye TITAN X

Gjennom innsatsen til Jensen Huang, den faste sjefen for NVIDIA, posisjonerer selskapet seg allerede som produsent dataprosessorer generell formål ikke mindre enn en produsent av spill-GPUer. Et signal om at NVIDIA tar superdatavirksomheten mer seriøst enn noen gang med delingen av Pascal-serien med GPUer i spill på den ene siden og databehandling på den andre.

Da 16nm FinFET-prosessen kom på nett hos TSMC, satte NVIDIA sin første innsats for å gi ut GP100-superdatamaskinbrikken, som debuterte foran Pascal-serien med forbrukerprodukter.

De karakteristiske egenskapene til GP100 var et enestående antall transistorer (15,3 milliarder) og shader ALUer (3840 CUDA-kjerner). I tillegg er dette den første akseleratoren som er utstyrt med HBM2-minne (16 GB) kombinert med en GPU på et silisiumsubstrat. GP100 brukes som en del av Tesla P100-akseleratorene, i utgangspunktet begrenset til feltet superdatamaskiner på grunn av en spesiell formfaktor med NVLINK-bussen, men senere ga NVIDIA ut Tesla P100 i et standard utvidelseskortformat PCI Express.

I utgangspunktet antok eksperter at P100 kunne dukke opp spill skjermkort. NVIDIA nektet tilsynelatende ikke denne muligheten, fordi brikken har en fullverdig rørledning for gjengivelse av 3D-grafikk. Men det er nå klart at det neppe noen gang vil gå utover databehandlingsnisjen. For grafikk har NVIDIA et beslektet produkt - GP102, som har samme sett med shader ALU-er, teksturkartleggingsenheter og ROP-er som GP100, men mangler ballasten til et stort antall 64-biters CUDA-kjerner, for ikke å nevne andre arkitektoniske endringer (færre planleggere, redusert L2-buffer osv.). Resultatet er en mer kompakt (12 milliarder transistorer) kjerne, som sammen med oppgivelsen av HBM2-minne til fordel for GDDR5X, tillot NVIDIA å distribuere GP102 til et bredere marked.

Nå er GP102 reservert for prosumer-akseleratoren TITAN X (ikke å forveksle med GeForce GTX TITAN X basert på GM200-brikken til Maxwell-arkitekturen), som er plassert som et brett for beregninger med redusert presisjon (i området fra 8 til 32 biter, hvorav 8 og 16 er NVIDIAs favoritt dyptrening) enda mer enn for spill, selv om velstående spillere kan kjøpe et skjermkort for 1200 dollar -20 prosent fordel over GeForce GTX 1080, men det kommer til unnsetning overklokking. Sammenligner vi overklokket GTX 1080 og TITAN X, vil sistnevnte være 34 % raskere. Imidlertid vil det nye spillflaggskipet basert på GP102 mest sannsynlig ha færre aktive dataenheter eller miste støtte for datafunksjoner (eller begge deler).

Totalt sett er det å slippe massive GPUer som GP100 og GP102 tidlig i 16nm FinFET-prosessen en stor prestasjon for NVIDIA, spesielt med tanke på utfordringene selskapet sto overfor i 40nm- og 28nm-fasene.

NVIDIA GeForce GTX 1070 og 1080

NVIDIA implementerte linjen med GeForce 10-seriens spillakseleratorer i sin vanlige sekvens - fra de kraftigste modellene til mer budsjettmodeller. GeForce GTX 1080 og andre spillkort med Pascal-arkitektur som ble utgitt senere, viste tydeligst at NVIDIA fullt ut realiserte mulighetene til 14/16 nm FinFET-prosessen for å gjøre brikkene tettere og mer energieffektive.

I tillegg, ved å lage Pascal, økte NVIDIA ikke bare ytelsen i forskjellige beregningsoppgaver (som vist med eksemplet med GP100 og GP102), men kompletterte også Maxwell-brikkearkitekturen med funksjoner som optimerer grafikkgjengivelsen.

La oss kort nevne de viktigste nyvinningene:

  • forbedret fargekomprimering med forhold opp til 8:1;
  • Samtidig multiprojeksjonsfunksjon til PolyMorph Engine-geometrimotoren, som lar deg lage opptil 16 projeksjoner av scenegeometri i én omgang (for VR og systemer med flere skjermer i NVIDIA-konfigurasjoner Omgi);
  • muligheten til å avbryte (preemption) under utførelsen av et tegneanrop (under gjengivelse) og kommandoflyten (under beregninger), som sammen med den dynamiske distribusjonen av GPU-databehandlingsressurser gir full støtte for asynkron databehandling (Async Compute) - en ekstra kilde til ytelse i spill som kjører DirectX 12 API redusert ventetid i VR.

Det siste punktet er spesielt interessant, siden Maxwell-brikker var teknisk kompatible med asynkron databehandling (samtidig arbeid med en beregnings- og grafikkkommandokø), men ytelsen i denne modusen lot mye å være ønsket. Pascals asynkrone databehandling fungerer etter hensikten, og lar spill laste GPUen mer effektivt med en egen tråd for fysikkberegninger (men riktignok på brikker NVIDIA-problem fulllasting av shader-ALUer er ikke like akutt som for AMD GPUer).

GP104-prosessoren, som brukes i GTX 1070 og GTX 1080, er etterfølgeren til GM204 (den andre tier-brikken i Maxwell-familien), men NVIDIA har oppnådd så høye klokkefrekvenser at GTX 1080 overgår GTX TITAN X (basert på en større GPU) med et gjennomsnitt på 29 %, alt innenfor en mer konservativ termisk pakke (180 vs 250 W). Selv GTX 1070, kuttet mye mer enn GTX 970 ble kuttet sammenlignet med GTX 980 (og GTX 1070 bruker GDDR5-minne i stedet for GDDR5X i GTX 1080), er fortsatt 5% raskere enn GTX TITAN X.

NVIDIA har oppdatert skjermkontrolleren i Pascal, som nå er kompatibel med DisplayPort 1.3/1.4 og HDMI 2.b-grensesnitt, noe som betyr at den lar deg sende ut et bilde med økt oppløsning eller oppdateringsfrekvens over én kabel – opptil 5K ved 60 Hz eller 4K ved 120 Hz. 10/12-bits fargerepresentasjon gir støtte for dynamisk område (HDR) på de få skjermene som har denne muligheten. Den dedikerte Pascal-maskinvareenheten er i stand til å kode og dekode HEVC (H.265)-video med oppløsninger på opptil 4K, 10-bits farger (12-bits dekoding) og 60 Hz.

Til slutt har Pascal eliminert begrensningene som ligger i den forrige versjonen av SLI-bussen. Utviklerne økte frekvensen til grensesnittet og ga ut en ny, to-kanals bro.

Du kan lese mer om disse funksjonene til Pascal-arkitekturen i vår GeForce GTX 1080-gjennomgang. Men før du går videre til andre nye produkter fra det siste året, er det verdt å nevne at i den 10. GeForce-linjen vil NVIDIA for første gang gi ut referansedesignkort gjennom hele levetiden til de tilsvarende modellene. De heter nå Founders Edition og selges over utsalgsprisen anbefalt for partnergrafikkkort. For eksempel har GTX 1070 og GTX 1080 anbefalte priser på $379 og $599 (som allerede er høyere enn GTX 970 og GTX 980 i deres ungdom), mens Founders Edition er priset til $449 og $699.

GeForce GTX 1050 og1060

GP106-brikken brakte Pascal-arkitekturen til mainstream-segmentet av spillakseleratorer. Funksjonelt er den ikke forskjellig fra eldre modeller, og når det gjelder antall dataenheter er den halve GP104. Riktignok bruker GP106, i motsetning til GM206 (som var halvparten av GM204), en 192-bits minnebuss. I tillegg fjernet NVIDIA SLI-kontakter fra GTX 1060-kortet, og forstyrret fans av gradvise oppgraderinger av videoundersystemet: når denne akseleratoren uttømmer funksjonene, kan du ikke legge til et ekstra skjermkort til det (bortsett fra de spillene som kjører DirectX 12, som lar deg fordele belastningen mellom GPUer, omgå driver).

GTX 1060 inneholdt opprinnelig 6 GB GDDR5, en fullt funksjonell GP106-brikke, og ble solgt for $249/$299 (henholdsvis partnerkort og Founders Edition). Men så ga NVIDIA ut et skjermkort med 3 GB minne og en veiledende pris på $199, som også reduserte antallet dataenheter. Begge skjermkortene har en attraktiv TDP på ​​120 W, og er like i ytelse som GeForce GTX 970 og GTX 980.

GeForce GTX 1050 og GTX 1050 Ti tilhører den laveste kategorien som mestres av Pascal-arkitekturen. Men uansett hvor beskjedne de kan se ut sammenlignet med sine eldre brødre, har NVIDIA tatt det største steget fremover i budsjettnisjen. GTX 750/750 Ti, som okkuperte den før, tilhører den første iterasjonen av Maxwell-arkitekturen, så GTX 1050/1050 Ti, i motsetning til andre akseleratorer i Pascal-familien, har avansert ikke én, men en og en halv generasjon. Med en betydelig større GPU og høyere klokket minne, forbedrer GTX 1050/1050 Ti ytelsen i forhold til forgjengerne mer enn noe annet medlem av Pascal-serien (90 % forskjell mellom GTX 750 Ti og GTX 1050 Ti).

Og selv om GTX 1050/1050 Ti bruker litt mer strøm (75 mot 60 W), passer de fortsatt innenfor strømstandardene for PCI Express-kort som ikke har en ekstra strømkontakt. NVIDIA ga ikke ut lave akseleratorer i Founders Edition-formatet, men anbefalt utsalgspriser var $109 og $139.

AMD Polaris: Radeon RX 460/470/480

AMDs svar på Pascal var Polaris-familien av brikker. Polaris-linjen inkluderer nå bare to brikker, på grunnlag av hvilke AMD produserer tre skjermkort (Radeon RX 460, RX 470 og RX 480), der mengden innebygd RAM i tillegg varierer. Som du lett kan se selv fra modellnumrene, forblir det øvre sjiktet av ytelse i Radeon 400-serien ubesatt. AMD må fylle den med produkter basert på Vega-silisium. Tilbake i 28 nm-æraen skaffet AMD seg denne vanen med å teste innovasjoner på relativt små brikker og først deretter introdusere dem i flaggskip-GPUer.

Det skal bemerkes med en gang at når det gjelder AMD, er ikke den nye familien av grafikkprosessorer identisk ny verson den underliggende GCN (Graphics Core Next)-arkitekturen, men reflekterer en kombinasjon av arkitektur og andre produktfunksjoner. For GPUer bygget ved hjelp av den nye prosessteknologien, har AMD forlatt de forskjellige "øyene" i kodenavnet (Northern Islands, South Islands, etc.) og betegner dem med navn på stjerner.

Likevel mottok GCN-arkitekturen i Polaris en annen, tredje oppdatering, takket være denne (sammen med overgangen til 14 nm FinFET-prosessteknologi) AMD økte ytelsen per watt betydelig.

  • Compute Unit, den elementære formen for organisering av shader ALUer i GCN, har gjennomgått en rekke endringer knyttet til instruksjonsforhåndshenting og caching, og tilgang til L2-cachen, som til sammen økte den spesifikke ytelsen til CU med 15 %.
  • Det er nå støtte for halvpresisjonsberegninger (FP16), som brukes i datasyn og maskinlæringsprogrammer.
  • GCN 1.3 gir direkte tilgang til det interne instruksjonssettet (ISA) av strømprosessorer, der utviklere kan skrive ekstremt lavt nivå og rask kode - i motsetning til DirectX- og OpenGL-shader-språkene abstrahert fra maskinvaren.
  • Geometriprosessorer er nå i stand til å eliminere null-størrelse polygoner eller polygoner som ikke har noen piksler i projeksjonen tidlig i pipelinen, og har en indeksbuffer som reduserer ressursforbruket ved gjengivelse av liten, duplisert geometri.
  • Dobbel L2-cache.

I tillegg har AMD-ingeniører jobbet hardt for å få Polaris til å kjøre på så høy frekvens som mulig. GPU-frekvensen styres nå med minimal latens (latens mindre enn 1 ns), og spenningskurven til kortet justeres hver gang PC-en startes opp for å ta hensyn til variasjonen i parametere mellom individuelle brikker og aldring av silisium under drift.

Overgangen til 14nm FinFET-prosessen har imidlertid ikke vært problemfri for AMD. Faktisk var selskapet i stand til å øke ytelsen per watt med 62 % (bedømt etter resultatene til Radeon RX 480 og Radeon R9 380X i spilltestene og kortenes TDP). Polaris' maksimale frekvenser overstiger imidlertid ikke 1266 MHz, og bare noen få av deres produksjonspartnere har oppnådd mer med tilleggsarbeid på kjøle- og strømsystemene. På den annen side beholder GeForce-skjermkort fortsatt lederskapet når det gjelder ytelse-kraftforhold, som NVIDIA oppnådde tilbake i Maxwell-generasjonen. Det ser ut til at AMD på det første stadiet ikke var i stand til å avsløre alle egenskapene til den nye generasjonens tekniske prosess, eller selve GCN-arkitekturen krever allerede dyp modernisering - den siste oppgaven ble overlatt til Vega-brikkene.

Polaris-baserte akseleratorer okkuperer prisområdet fra $109 til $239 (se tabell), men som svar på utseendet til GeForce GTX 1050/1050 Ti, reduserte AMD prisene på de to lavere kortene til henholdsvis $100 og $170. På dette øyeblikket I hver pris/ytelseskategori er det en lignende maktbalanse mellom konkurrerende produkter: GeForce GTX 1050 Ti er raskere enn Radeon RX 460 med 4 GB RAM, GTX 1060 med 3 GB minne er raskere enn RX 470, og den fullverdige GTX 1060 er foran RX 480. Sammen Samtidig er AMD-skjermkort billigere, noe som betyr at de er populære.

AMD Radeon Pro Duo

Rapporten om det siste året innen diskrete GPUer vil ikke være komplett hvis vi ignorerer ett til av de "røde" skjermkortene. Mens AMD ennå ikke hadde sluppet et flaggskip med én prosessor videoadapter for å erstatte Radeon R9 Fury X, hadde selskapet ett bevist trekk igjen for å fortsette å erobre nye grenser – å installere to Fiji-brikker på ett bord. Dette kortet, som AMD gjentatte ganger utsatte utgivelsen av, ble likevel solgt like før GeForce GTX 1080, men falt i kategorien profesjonelle Radeon Pro-akseleratorer og ble posisjonert som en plattform for å lage spill i VR-miljøet.

For spillere, til $1 499 (dyrere enn et par Radeon R9 Fury Xs ved lansering), er Radeon Pro Duo ikke av interesse, og vi hadde ikke engang muligheten til å teste dette kortet. Det er synd, for fra et teknisk synspunkt ser Radeon Pro Duo spennende ut. Kortets navneskilt TDP økte med bare 27% sammenlignet med Fury X, til tross for at toppfrekvenser AMD-prosessorer redusert med 50 MHz. Tidligere har AMD allerede klart å gi ut et vellykket skjermkort med to prosessorer - Radeon R9 295X2, så spesifikasjonene som er deklarert av produsenten forårsaker ikke mye skepsis.

Hva du kan forvente i 2017

Hovedforventningene for det kommende året er knyttet til AMD. NVIDIA vil mest sannsynlig begrense seg til å gi ut et flaggskipspillkort basert på GP102 under navnet GeForce GTX 1080 Ti og kanskje fylle en annen ledig stilling i den 10. GeForce-serien - GTX 1060 Ti. Ellers er Pascal-linjen med akseleratorer allerede dannet, og debuten til den neste arkitekturen, Volta, er planlagt bare for 2018.

Som på CPU-plassen har AMD satt alle kreftene sammen for å utvikle en virkelig banebrytende GPU-mikroarkitektur, mens Polaris har blitt bare en mellomstasjon på veien til sistnevnte. Antagelig allerede i første kvartal 2017 selskapet vil gi ut sitt beste silisium, Vega 10, til massemarkedet for første gang (og sammen med det eller senere en eller flere nedre brikker i rekken). Det mest pålitelige beviset på dens evner var kunngjøringen av MI25-databehandlingskortet i Radeon Instinct-linjen, som er posisjonert som en akselerator for dyplæringsoppgaver. Basert på spesifikasjonene er det basert på ingen ringere enn Vega 10. Kortet utvikler 12,5 TFLOPS prosessorkraft i enkeltpresisjonsberegninger (FP32), som er mer enn TITAN X på GP102, og er utstyrt med 16 GB av HBM2 minne. TDP på ​​skjermkortet er innenfor 300 W. Den virkelige ytelsen til prosessoren kan bare gjettes på, men det er kjent at Vega vil bringe den mest storskala oppdateringen til GPU-mikroarkitekturen siden utgivelsen av de første GCN-baserte brikkene for fem år siden. Sistnevnte vil forbedre ytelsen per watt betydelig og tillate deg å administrere mer effektivt datakraft shader ALUer (som AMD-brikker tradisjonelt ikke har mangel på) i spillapplikasjoner.

Det går også rykter om at AMD-ingeniører nå har mestret 14 nm FinFET-prosessteknologien og selskapet er klare til å gi ut den andre versjonen av Polaris-skjermkort med en betydelig lavere TDP. Det virker for oss at hvis dette er sant, vil de oppdaterte brikkene heller gå inn i Radeon RX 500-linjen enn å motta økte indekser i den eksisterende 400-serien.

Applikasjon. Nåværende linjer med diskrete videoadaptere fra AMD og NVIDIA

Produsent AMD
Modell Radeon RX 460 Radeon RX 470 Radeon RX 480 Radeon R9 Nano Radeon R9 Fury Radeon R9 Fury X
GPU
Navn Polaris 11 Polaris 10 Polaris 10 Fiji XT Fiji PRO Fiji XT
Mikroarkitektur GCN 1.3 GCN 1.3 GCN 1.3 GCN 1.2 GCN 1.2 GCN 1.2
Teknisk prosess, nm 14 nm FinFET 14 nm FinFET 14 nm FinFET 28 28 28
Antall transistorer, millioner 3 000 5 700 5 700 8900 8900 8900
1 090 / 1 200 926 / 1 206 1 120 / 1 266 — / 1 000 — / 1 000 — / 1 050
Antall shader ALUer 896 2 048 2 304 4096 3584 4096
56 128 144 256 224 256
ROP-nummer 16 32 32 64 64 64
RAM
Bussbredde, bits 128 256 256 4096 4096 4096
Chip type GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM H.B.M. H.B.M. H.B.M.
1 750 (7 000) 1 650 (6 600) 1 750 (7 000) / 2 000 (8 000) 500 (1000) 500 (1000) 500 (1000)
Volum, MB 2 048 / 4 096 4 096 4 096 / 8 192 4096 4096 4096
I/O buss PCI Express 3.0 x8 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16
Opptreden
2 150 4 940 5 834 8 192 7 168 8 602
Ytelse FP32/FP64 1/16 1/16 1/16 1/16 1/16 1/16
112 211 196/224 512 512 512
Bildeutgang
DL DVI-D, HDMI 2.0b, DisplayPort 1.3/1.4 DL DVI-D, HDMI 2.0b, DisplayPort 1.3/1.4 HDMI 1.4a, DisplayPort 1.2 HDMI 1.4a, DisplayPort 1.2 HDMI 1.4a, DisplayPort 1.2
TDP, W <75 120 150 175 275 275
109/139 179 199/229 649 549 649
8 299 / 10 299 15 999 16 310 / 18 970 ND ND ND
Produsent NVIDIA
Modell GeForce GTX 1050 GeForce GTX 1050 Ti GeForce GTX 1060 3 GB GeForce GTX 1060 GeForce GTX 1070 GeForce GTX 1080 TITAN X
GPU
Navn GP107 GP107 GP106 GP106 GP104 GP104 GP102
Mikroarkitektur Pascal Pascal Maxwell Maxwell Pascal Pascal Pascal
Teknisk prosess, nm 14 nm FinFET 14 nm FinFET 16 nm FinFET 16 nm FinFET 16 nm FinFET 16 nm FinFET 16 nm FinFET
Antall transistorer, millioner 3 300 3 300 4 400 4 400 7 200 7 200 12 000
Klokkefrekvens, MHz: Base Clock / Boost Clock 1 354 / 1 455 1 290 / 1 392 1506/1708 1506/1708 1 506 / 1 683 1 607 / 1 733 1 417 / 1531
Antall shader ALUer 640 768 1 152 1 280 1 920 2 560 3 584
Antall teksturkartleggingsenheter 40 48 72 80 120 160 224
ROP-nummer 32 32 48 48 64 64 96
RAM
Bussbredde, bits 128 128 192 192 256 256 384
Chip type GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5X SDRAM GDDR5X SDRAM
Klokkefrekvens, MHz (båndbredde per kontakt, Mbit/s) 1 750 (7 000) 1 750 (7 000) 2000 (8000) 2000 (8000) 2000 (8000) 1 250 (10 000) 1 250 (10 000)
Volum, MB 2 048 4 096 6 144 6 144 8 192 8 192 12 288
I/O buss PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16
Opptreden
Topp ytelse FP32, GFLOPS (basert på maksimal spesifisert frekvens) 1 862 2 138 3 935 4 373 6 463 8 873 10 974
Ytelse FP32/FP64 1/32 1/32 1/32 1/32 1/32 1/32 1/32
RAM-båndbredde, GB/s 112 112 192 192 256 320 480
Bildeutgang
Bildeutgangsgrensesnitt DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b
TDP, W 75 75 120 120 150 180 250
Foreslått utsalgspris på utgivelsestidspunktet (USA, eksklusive avgifter), $ 109 139 199 249/299 (Founders Edition / tilknyttede kort) 379/449 (Founders Edition / tilknyttede kort) 599/699 (Founders Edition / tilknyttede kort) 1 200
Anbefalt utsalgspris på utgivelsestidspunktet (Russland), gni. 8 490 10 490 ND 18 999/- (Founders Edition/tilknyttede kort) ND / 34 990 (Founders Edition / partnerkort) ND / 54 990 (Founders Edition / partnerkort)

Oppgavebehandling Windows 10 inneholder detaljerte overvåkingsverktøy GPU (GPU). Du kan se GPU-bruk per app og systemomfattende, og Microsoft lover at indikatorene oppgavebehandling vil være mer nøyaktig enn indikatorer fra tredjepartsverktøy.

Hvordan det fungerer

Disse funksjonene GPU ble lagt til i oppdateringen Fall Creators for Windows 10 , også kjent som Windows 10 versjon 1709 . Hvis du bruker Windows 7, 8 eller en eldre versjon av Windows 10, vil du ikke se disse verktøyene i oppgavebehandlingen.

Windows bruker nyere funksjoner i Windows Display Driver Model for å trekke ut informasjon direkte fra GPU (VidSCH) og videominnebehandling (VidMm) i WDDM-grafikkjernen, som er ansvarlige for selve allokeringen av ressurser. Den viser svært nøyaktige data uansett hvilke API-applikasjoner som bruker for å få tilgang til GPU - Microsoft DirectX, OpenGL, Vulkan, OpenCL, NVIDIA CUDA, AMD Mantle eller noe annet.

Det er derfor i oppgavebehandling Kun WDDM 2.0-kompatible systemer vises GPUer . Hvis du ikke ser dette, bruker sannsynligvis systemets GPU en eldre type driver.

Du kan sjekke hvilken versjon av WDDM driveren din bruker GPU ved å trykke Windows-tasten + R, skrive "dxdiag" i feltet, og deretter trykke "Enter" for å åpne verktøyet " DirectX diagnoseverktøy" Gå til "Skjerm"-fanen og se til høyre for "Modell" i "Drivere"-delen. Hvis du ser en WDDM 2.x-driver her, er systemet ditt kompatibelt. Hvis du ser en WDDM 1.x-driver her, vil din GPU uforenlig.

Slik ser du GPU-ytelse

Denne informasjonen er tilgjengelig i oppgavebehandling , selv om den er skjult som standard. For å åpne den, åpne Oppgavebehandling ved å høyreklikke på en ledig plass på oppgavelinjen og velge " Oppgavebehandling"eller ved å trykke Ctrl+Shift+Esc på tastaturet.

Klikk på "Mer detaljer"-knappen nederst i vinduet " Oppgavebehandling" hvis du ser den enkle standardvisningen.

Hvis GPU vises ikke i oppgavebehandling , i fullskjermmodus på "-fanen Prosesser"Høyreklikk på hvilken som helst kolonneoverskrift og aktiver deretter alternativet" GPU " Dette vil legge til en kolonne GPU , som lar deg se prosentandelen av ressurser GPU , brukt av hver applikasjon.

Du kan også aktivere alternativet " GPU kjerne" for å se hvilken GPU appen bruker.

Generell bruk GPU av alle applikasjoner på systemet ditt vises øverst i kolonnen GPU. Klikk på en kolonne GPU for å sortere listen og se hvilke apper som bruker din GPU mest for øyeblikket.

Nummer i kolonne GPU- Dette er den høyeste bruken som applikasjonen bruker på tvers av alle motorer. Så, for eksempel, hvis en applikasjon bruker 50 % GPU 3D-motor og 2 % GPU videomotordekoding, vil du ganske enkelt se GPU-kolonnen som viser tallet 50 %.

I kolonnen " GPU kjerne» hver applikasjon vises. Dette viser deg hva fysisk GPU og hvilken motor applikasjonen bruker, for eksempel om den bruker en 3D-motor eller en videodekodingsmotor. Du kan finne ut hvilken GPU som kvalifiserer for en bestemt beregning ved å sjekke " Opptreden", som vi skal snakke om i neste avsnitt.

Hvordan se en applikasjons videominnebruk

Hvis du lurer på hvor mye videominne som brukes av et program, må du gå til fanen Detaljer i Oppgavebehandling. På fanen Detaljer høyreklikker du på en kolonneoverskrift og velger Velg kolonner. Rull ned og slå på kolonner " GPU », « GPU kjerne », « "Og" " De to første er også tilgjengelige i kategorien Prosesser, men de to siste minnealternativene er bare tilgjengelige i detaljpanelet.

Kolonne " Dedikert GPU-minne » viser hvor mye minne applikasjonen bruker på din GPU. Hvis PC-en din har et NVIDIA- eller AMD-diskret grafikkort, er dette en del av VRAM-en, som er hvor mye fysisk minne på grafikkortet applikasjonen bruker. Hvis du har integrert grafikkprosessor , er en del av ditt vanlige systemminne reservert eksklusivt for din grafikkmaskinvare. Dette viser hvor mye av det reserverte minnet som brukes av applikasjonen.

Windows lar også programmer lagre noen data i vanlig system-DRAM. Kolonne " Delt GPU-minne " viser hvor mye minne applikasjonen bruker for videoenheter fra datamaskinens vanlige system-RAM.

Du kan klikke på hvilken som helst av kolonnene for å sortere etter dem og se hvilken applikasjon som bruker mest ressurser. For å se applikasjonene som bruker mest videominne på GPU-en, klikker du for eksempel " Dedikert GPU-minne ».

Slik sporer du bruk av GPU-andel

For å spore samlet ressursbruksstatistikk GPU, gå til " Opptreden"og se på" GPU" nederst i sidefeltet. Hvis datamaskinen din har flere GPUer, vil du se flere alternativer her GPU.

Hvis du har flere koblede GPUer - ved å bruke en funksjon som NVIDIA SLI eller AMD Crossfire, vil du se dem identifisert med en "#" i navnet.

Windows viser bruk GPU i virkeligheten. Misligholde Oppgavebehandling prøver å vise de mest interessante fire motorene i henhold til hva som skjer i systemet ditt. Du vil for eksempel se forskjellig grafikk avhengig av om du spiller 3D-spill eller koder videoer. Du kan imidlertid klikke på et av navnene over diagrammene og velge en av de andre tilgjengelige motorene.

Navnet på din GPU vises også i sidefeltet og øverst i dette vinduet, noe som gjør det enkelt å sjekke hvilken grafikkmaskinvare som er installert på PC-en din.

Du vil også se grafer for dedikert og delt minnebruk GPU. Bruk av delt minne GPU refererer til hvor mye av systemets totale minne som brukes til oppgaver GPU. Dette minnet kan brukes til både vanlige systemoppgaver og videoopptak.

Nederst i vinduet vil du se informasjon som versjonsnummeret til den installerte videodriveren, utviklingsdato og fysisk plassering GPU på systemet ditt.

Hvis du vil se denne informasjonen i et mindre vindu som er lettere å la på skjermen, dobbeltklikker du hvor som helst på GPU-skjermen eller høyreklikker hvor som helst inne i den og velger alternativet Grafisk sammendrag" Du kan maksimere et vindu ved å dobbeltklikke i panelet eller ved å høyreklikke i det og fjerne merket for " Grafisk sammendrag».

Du kan også høyreklikke på grafen og velge "Rediger graf" > "Enkeltkjerne" for å se kun én motorgraf GPU.

For å holde dette vinduet permanent vist på skjermen, klikk "Alternativer" > " På toppen av andre vinduer».

Dobbeltklikk inne i panelet GPU igjen, og du vil ha et minimalt vindu som du kan plassere hvor som helst på skjermen.

Den integrerte grafikkprosessoren spiller en viktig rolle for både spillere og lite krevende brukere.

Kvaliteten på spill, filmer, se videoer på Internett og bilder avhenger av det.

Prinsipp for operasjon

Grafikkprosessoren er integrert i datamaskinens hovedkort – slik ser integrert grafikk ut.

Som regel bruker de det for å fjerne behovet for å installere en grafikkadapter -.

Denne teknologien bidrar til å redusere kostnadene for det ferdige produktet. I tillegg, på grunn av kompaktheten og det lave strømforbruket til slike prosessorer, er de ofte installert i bærbare datamaskiner og stasjonære datamaskiner med lav effekt.

Dermed har integrerte grafikkprosessorer fylt denne nisjen så mye at 90 % av bærbare datamaskiner i amerikanske butikkhyller har en slik prosessor.

I stedet for et vanlig skjermkort bruker integrert grafikk ofte selve datamaskinens RAM som et hjelpeverktøy.

Riktignok begrenser denne løsningen ytelsen til enheten noe. Likevel bruker selve datamaskinen og grafikkprosessoren samme minnebussen.

Så dette "nabolaget" påvirker utførelsen av oppgaver, spesielt når du jobber med kompleks grafikk og underveis spilling.

Slags

Integrert grafikk har tre grupper:

  1. Delt minnegrafikk - en enhet basert på delt kontroll med hovedprosessoren RAM. Dette reduserer kostnadene betydelig, forbedrer energisparesystemet, men reduserer ytelsen. Følgelig, for de som jobber med komplekse programmer, er integrerte grafikkprosessorer av denne typen mest sannsynlig ikke egnet.
  2. Diskret grafikk - en videobrikke og en eller to videominnemoduler er loddet på hovedkortet. Takket være denne teknologien forbedres bildekvaliteten betydelig, og den blir også mulig å jobbe med 3D-grafikk med de beste resultatene. Riktignok må du betale mye for dette, og hvis du ser etter en prosessor med høy effekt på alle måter, kan kostnadene være utrolig høye. I tillegg vil strømregningen din øke litt – strømforbruket til diskrete GPUer er høyere enn vanlig.
  3. Hybrid diskret grafikk er en kombinasjon av de to tidligere typene, som sørget for opprettelsen av PCI Express-bussen. Dermed utføres tilgang til minne både gjennom det loddede videominnet og gjennom RAM. Med denne løsningen ønsket produsentene å lage en kompromissløsning, men den eliminerer likevel ikke manglene.

Produsenter

Som regel er store selskaper - , og - engasjert i produksjon og utvikling av integrerte grafikkprosessorer, men mange små bedrifter er også involvert i dette området.

Dette er ikke vanskelig å gjøre. Se etter Primær skjerm eller Init Display først. Hvis du ikke ser noe sånt, se etter Onboard, PCI, AGP eller PCI-E (alt avhenger av bussene som er installert på hovedkortet).

Ved å velge PCI-E, for eksempel, aktiverer du PCI-Express-skjermkortet og deaktiverer det innebygde integrerte.

For å aktivere det integrerte skjermkortet, må du derfor finne de riktige parametrene i BIOS. Ofte er aktiveringsprosessen automatisk.

Deaktiver

Det er bedre å deaktivere det i BIOS. Dette er det enkleste og mest upretensiøse alternativet, egnet for nesten alle PC-er. De eneste unntakene er noen bærbare datamaskiner.

Igjen, søk etter periferiutstyr eller integrert periferiutstyr i BIOS hvis du jobber på et skrivebord.

For bærbare datamaskiner er navnet på funksjonen forskjellig, og ikke det samme overalt. Så bare finn noe relatert til grafikk. For eksempel kan de nødvendige alternativene plasseres i avsnittene Avansert og Konfigurasjon.

Deaktivering utføres også på ulike måter. Noen ganger er det nok å bare klikke på "Deaktivert" og sette PCI-E-skjermkortet først i listen.

Hvis du er en bærbar PC-bruker, ikke bli skremt hvis du ikke finner et passende alternativ på forhånd, du har kanskje ikke en slik funksjon. For alle andre enheter er reglene enkle - uansett hvordan BIOS selv ser ut, er fyllingen den samme.

Hvis du har to skjermkort og begge vises i enhetsbehandlingen, er saken ganske enkel: Høyreklikk på ett av dem og velg "deaktiver". Vær imidlertid oppmerksom på at skjermen kan bli mørk. Dette vil mest sannsynlig skje.

Dette er imidlertid også et løsbart problem. Det er nok å starte datamaskinen eller programvaren på nytt.

Gjør alle påfølgende innstillinger på den. Hvis det ikke fungerer denne metoden, rulle tilbake handlingene dine ved hjelp av sikkerhetsmodus. Du kan også ty til den forrige metoden - gjennom BIOS.

To programmer - NVIDIA Control Center og Katalysatorkontroll Senter - konfigurer bruken av en bestemt skjermadapter.

De er de mest upretensiøse sammenlignet med de to andre metodene - det er usannsynlig at skjermen slår seg av, og du vil heller ikke ved et uhell ødelegge innstillingene gjennom BIOS.

For NVIDIA er alle innstillinger i 3D-delen.

Du kan velge din foretrukne videoadapter for alle operativsystem, og for visse programmer og spill.

I Catalyst-programvare er en identisk funksjon plassert i "Strøm"-alternativet i underelementet "Switchable Graphics".

Så å bytte mellom GPUer er en lek.

Det er forskjellige metoder, spesielt gjennom programmer og gjennom BIOS. Slå på eller av en eller annen integrert grafikk kan være ledsaget av noen feil, hovedsakelig relatert til bildet.

Det kan gå ut eller rett og slett bli forvrengt. Ingenting skal påvirke selve filene på datamaskinen, med mindre du klikket på noe i BIOS.

Konklusjon

Som et resultat er integrerte grafikkprosessorer etterspurt på grunn av deres lave kostnader og kompakthet.

Du må betale for dette med ytelsesnivået til selve datamaskinen.

I noen tilfeller er integrert grafikk ganske enkelt nødvendig - diskrete prosessorer er ideelle for å jobbe med tredimensjonale bilder.

I tillegg er industrilederne Intel, AMD og Nvidia. Hver av dem tilbyr sine egne grafikkakseleratorer, prosessorer og andre komponenter.

De siste populære modellene er Intel HD Graphics 530 og AMD A10-7850K. De er ganske funksjonelle, men har noen feil. Spesielt gjelder dette kraft, ytelse og kostnad for det ferdige produktet.

Du kan aktivere eller deaktivere en grafikkprosessor med innebygd kjerne enten selv gjennom BIOS, verktøy og ulike programmer, men datamaskinen selv kan enkelt gjøre dette for deg. Alt avhenger av hvilket skjermkort som er koblet til selve skjermen.

I moderne enheter Det brukes en grafikkprosessor, som også omtales som en GPU. Hva er det og hva er dets operasjonsprinsipp? GPU (Graphics) er en prosessor som har som hovedoppgave å behandle grafikk og flyttallsberegninger GPUen letter arbeidet til hovedprosessoren når det kommer til tunge spill og applikasjoner med 3D-grafikk.

Hva er dette?

GPUen lager grafikk, teksturer, farger. En prosessor som har flere kjerner kan kjøres på høye hastigheter. Grafikkortet har mange kjerner som primært opererer på lave hastigheter. De gjør piksel- og toppunktberegninger. Sistnevnte behandles hovedsakelig i et koordinatsystem. Grafikkprosessoren behandler ulike oppgaver ved å lage et tredimensjonalt rom på skjermen, det vil si at objekter beveger seg i den.

Prinsipp for operasjon

Hva gjør en GPU? Han driver med grafikkbehandling i 2D- og 3D-formater. Takket være GPUen kan datamaskinen utføre viktige oppgaver raskere og enklere. Det særegne med grafikkprosessoren er at den øker beregningshastigheten med maksimalt nivå. Arkitekturen er utformet på en slik måte at den lar den behandle visuell informasjon mer effektivt enn den sentrale CPU-en til en datamaskin.

Han er ansvarlig for plasseringen av tredimensjonale modeller i rammen. I tillegg filtrerer hver prosessor trekantene som er inkludert i den. Den bestemmer hvilke som er synlige og fjerner de som er skjult bak andre objekter. Tegner lyskilder og bestemmer hvordan disse kildene påvirker fargen. Grafikkprosessoren (hva det er er beskrevet i artikkelen) lager et bilde og viser det på brukerens skjerm.

Effektivitet

Hva er grunnen effektivt arbeid GPU? Temperatur. Et av problemene med PC-er og bærbare datamaskiner er overoppheting. Dette er hovedårsaken til at enheten og dens elementer raskt mislykkes. GPU-problemer begynner når CPU-temperaturen overstiger 65 °C. I dette tilfellet merker brukere at prosessoren begynner å fungere svakere og hopper over klokkesykluser for å senke den økte temperaturen uavhengig.

Temperaturområde 65-80 °C er kritisk. I dette tilfellet starter systemet på nytt (nød) og datamaskinen slår seg av av seg selv. Det er viktig for brukeren å sørge for at GPU-temperaturen ikke overstiger 50 °C. En temperatur på 30-35 °C regnes som normal ved tomgang, 40-45 °C med lange timer med belastning. Jo lavere temperatur, jo høyere ytelse har datamaskinen. Til hovedkort, skjermkort, etuier og harddisk- dine egne temperaturforhold.

Men mange brukere er også bekymret for spørsmålet om hvordan man kan redusere temperaturen på prosessoren for å øke effektiviteten. Først må du finne ut årsaken til overoppheting. Dette kan være et tilstoppet kjølesystem, uttørket termisk pasta, skadevare, overklokking av prosessoren, rå BIOS-fastvare. Det enkleste en bruker kan gjøre er å erstatte den termiske pastaen, som er plassert på selve prosessoren. I tillegg må kjølesystemet rengjøres. Eksperter anbefaler også å installere en kraftig kjøler som forbedrer luftsirkulasjonen i systemenhet, øk rotasjonshastigheten med grafikkadapter kjøligere. Alle datamaskiner og GPUer har samme temperaturreduksjonsskjema. Det er viktig å overvåke enheten og rengjøre den i tide.

Detaljer

Grafikkprosessoren er plassert på skjermkortet, dens hovedoppgave er å behandle 2D- og 3D-grafikk. Hvis en GPU er installert på datamaskinen, utfører ikke enhetens prosessor unødvendig arbeid, og fungerer derfor raskere. hovedfunksjon grafisk er at hovedmålet er å øke hastigheten på å beregne objekter og teksturer, det vil si grafisk informasjon. Prosessorarkitekturen lar dem jobbe mye mer effektivt og behandle visuell informasjon. En vanlig prosessor kan ikke gjøre dette.

Slags

Hva er dette - en grafikkprosessor? Dette er en komponent som er inkludert i skjermkortet. Det finnes flere typer sjetonger: innebygd og diskret. Eksperter sier at den andre takler oppgaven bedre. Den er installert på separate moduler, siden den kjennetegnes ved sin kraft, men den krever utmerket kjøling. Nesten alle datamaskiner har en innebygd grafikkprosessor. Den er installert i CPU for å gjøre energiforbruket flere ganger lavere. Det kan ikke sammenlignes med diskrete når det gjelder makt, men det har det også gode egenskaper, viser gode resultater.

Data-grafikk

Hva er dette? Dette er navnet på aktivitetsfeltet der datateknologi brukes til å lage bilder og behandle visuell informasjon. Moderne data-grafikk, inkludert vitenskapelig, lar deg behandle resultater grafisk, bygge diagrammer, grafer, tegninger og også utføre ulike typer virtuelle eksperimenter.

Tekniske produkter er laget ved hjelp av konstruktiv grafikk. Det finnes andre typer datagrafikk:

  • animert;
  • multimedia;
  • kunstnerisk;
  • reklame;
  • illustrerende.

Fra et teknisk synspunkt er datagrafikk todimensjonal og 3D-bilder.

CPU og GPU: forskjellen

Hva er forskjellen mellom disse to betegnelsene? Mange brukere er klar over at grafikkprosessoren (hva det er - beskrevet ovenfor) og skjermkortet utfører forskjellige oppgaver. I tillegg er de forskjellige i deres indre struktur. Både CPUer og GPUer har mange lignende funksjoner, men de er laget for forskjellige formål.

CPU-en utfører en bestemt kjede med instruksjoner i løpet av kort tid. Den er utformet på en slik måte at den danner flere kjeder samtidig, deler strømmen av instruksjoner i mange, utfører dem, for så å slå dem sammen til én i en bestemt rekkefølge. Instruksjonen i tråden avhenger av de som følger den, derfor inneholder CPUen et lite antall utførelsesenheter, her er hovedprioriteten gitt til utførelseshastighet og reduksjon av nedetid. Alt dette oppnås ved hjelp av en pipeline og cache-minne.

GPUen har en annen viktig funksjon - gjengivelse av visuelle effekter og 3D-grafikk. Det fungerer enklere: det mottar polygoner som input, utfører nødvendige logiske og matematiske operasjoner, og sender ut pikselkoordinater. Arbeidet til en GPU innebærer å håndtere en stor flyt av forskjellige oppgaver. Dets særegne er at den er utstyrt med stor kraft, men fungerer sakte sammenlignet med CPU. I tillegg har moderne GPUer mer enn 2000 utførelsesenheter. De er forskjellige i minnetilgangsmetoder. For eksempel trenger ikke grafikk stort bufret minne. GPUer har mer båndbredde. Hvis du forklarer med enkle ord, så tar CPU-en beslutninger i samsvar med oppgavene til programmet, og GPU-en utfører mange identiske beregninger.