Integrerade GPU:er – Allt om att koppla in och koppla ur. Hur man övervakar GPU-användning i Windows Task Manager Hur man kontrollerar om View GPU-prestanda stöds

Under 2016 hoppas man på en fullfjädrad generationsväxling i GPU:er, som tidigare hämmades av bristen på produktionskapacitet som krävs för att släppa chips med betydligt fler hög densitet transistorer och klockfrekvenser, vilket möjliggjorde den beprövade 28 nm processtekniken. 20nm-tekniken vi hoppades på för två år sedan har visat sig vara kommersiellt olämplig för chips så stora som diskreta GPU:er. Eftersom TSMC och Samsung, som skulle kunna fungera som entreprenörer för AMD och NVIDIA, inte använde FinFET vid 20 nm, var den potentiella ökningen av prestanda per watt jämfört med 28 nm sådan att båda företagen valde att vänta på massantagande av 14/16- nm.nm-standarder, använder redan FinFET.

Men åren av orolig väntan har passerat, och nu kan vi utvärdera hur GPU-tillverkarna har använt kapaciteten i den uppdaterade tekniska processen. Som praxis återigen har visat, garanterar "nanometer" i sig inte hög energieffektivitet för ett chip, så de nya arkitekturerna för NVIDIA och AMD visade sig vara mycket olika i denna parameter. Och ytterligare intriger lades till av det faktum att företag inte längre använder tjänsterna från en fabrik (TSMC), vilket var fallet under tidigare år. AMD valde GlobalFoundries för att producera Polaris GPU:er baserade på 14 nm FinFET-teknik. NVIDIA, å andra sidan, samarbetar fortfarande med TSMC, som har en 16nm FinFET-process, på alla Pascal-chips förutom low-end GP107 (som är tillverkad av Samsung). Det var Samsungs 14nm FinFET-linje som en gång licensierades av GlobalFoundries, så GP107 och dess rival Polaris 11 ger oss en bekväm möjlighet att jämföra AMDs och NVIDIAs tekniska prestationer på en liknande tillverkningsbas.

Låt oss dock inte dyka in i tekniska detaljer i förtid. I allmänhet ser förslagen från båda företagen baserade på den nya generationens GPU:er ut så här. NVIDIA har skapat en komplett linje av Pascal-acceleratorer baserade på tre konsumentklassade GPU:er - GP107, GP106 och GP104. Men platsen för flaggskeppsadaptern, som säkert kommer att få namnet GeForce GTX 1080 Ti, för närvarande vakant. En kandidat för denna position är ett kort med en GP102-processor, som hittills endast används i "prosumer"-acceleratorn NVIDIA TITAN X. Och slutligen är NVIDIAs främsta stolthet GP100-chippet, vilket företaget uppenbarligen inte är kommer även att implementeras i spelprodukter och lämnade för Teslas datoracceleratorer.

AMD:s framgångar är mer blygsamma än så länge. Två processorer från Polaris-familjen släpptes, produkter baserade på vilka tillhör de lägre och mellersta kategorierna av spelvideokort. De övre nivåerna kommer att ockuperas av den kommande Vega-familjen av GPU:er, som förväntas ha en omfattande uppgraderad GCN-arkitektur (medan Polaris inte skiljer sig så mycket från 28nm Fiji- och Tonga-chippen i detta avseende).

NVIDIA Tesla P100 och nya TITAN X

Genom insatser från Jensen Huang, den permanenta chefen för NVIDIA, positionerar företaget sig redan som tillverkare datorprocessorer generellt syfte inte mindre än en tillverkare av spel-GPU:er. En signal om att NVIDIA tar superdatorverksamheten på större allvar än någonsin med uppdelningen av sin Pascal-linje av GPU:er i spel å ena sidan och datorer å andra sidan.

När 16nm FinFET-processen kom online på TSMC, gjorde NVIDIA sina första ansträngningar för att släppa superdatorchippet GP100, som debuterade före Pascal-serien av konsumentprodukter.

De utmärkande egenskaperna hos GP100 var ett aldrig tidigare skådat antal transistorer (15,3 miljarder) och shader-ALU (3840 CUDA-kärnor). Dessutom är detta den första acceleratorn som är utrustad med HBM2-minne (16 GB) kombinerat med en GPU på ett silikonsubstrat. GP100 används som en del av Tesla P100-acceleratorerna, som från början var begränsade till superdatorer på grund av en speciell formfaktor med NVLINK-bussen, men senare släppte NVIDIA Tesla P100 i standardformatet PCI Express-expansionskort.

Till en början antog experter att P100 kunde dyka upp i spelvideokort. NVIDIA förnekade tydligen inte denna möjlighet, eftersom chippet har en fullfjädrad pipeline för att rendera 3D-grafik. Men det står nu klart att det är osannolikt att det någonsin kommer att gå längre än till datornischen. För grafik har NVIDIA en relaterad produkt - GP102, som har samma uppsättning shader ALU, texturmapping-enheter och ROPs som GP100, men saknar ballasten av ett stort antal 64-bitars CUDA-kärnor, för att inte tala om andra arkitektoniska ändringar (färre schemaläggare, minskad L2-cache, etc.). Resultatet är en mer kompakt (12 miljarder transistorer) kärna, som tillsammans med övergivandet av HBM2-minne till förmån för GDDR5X gjorde det möjligt för NVIDIA att distribuera GP102 till en bredare marknad.

Nu är GP102 reserverad för prosumeracceleratorn TITAN X (inte att förväxla med GeForce GTX TITAN X baserat på GM200-chippet i Maxwell-arkitekturen), som är placerat som ett kort för beräkningar med reducerad precision (i intervallet från 8 till 32 bitar, bland vilka 8 och 16 är NVIDIAs favorit djupträning) ännu mer än för spel, även om rika spelare kan köpa ett grafikkort för $1 200. I våra speltester motiverar TITAN X faktiskt inte sin kostnad med en 15 -20 procents fördel jämfört med GeForce GTX 1080, men det kommer till räddningen överklockning. Om vi ​​jämför det överklockade GTX 1080 och TITAN X så blir det senare 34% snabbare. Det nya spelflaggskeppet baserat på GP102 kommer dock med största sannolikhet att ha färre aktiva datorenheter eller förlora stöd för alla datorfunktioner (eller båda).

Sammantaget är att släppa massiva GPU:er som GP100 och GP102 tidigt i 16nm FinFET-processen en stor prestation för NVIDIA, särskilt med tanke på de utmaningar företaget stod inför i 40nm- och 28nm-faserna.

NVIDIA GeForce GTX 1070 och 1080

NVIDIA distribuerade linjen av GeForce 10-seriens spelacceleratorer i sin vanliga ordning – från de mest kraftfulla modellerna till mer budgetmodeller. GeForce GTX 1080 och andra spelkort med Pascal-arkitektur som släpptes senare visade tydligast att NVIDIA till fullo insåg kapaciteten hos 14/16 nm FinFET-processen för att göra chips tätare och mer energieffektiva.

Dessutom, genom att skapa Pascal, ökade NVIDIA inte bara prestandan i olika beräkningsuppgifter (som visas av exemplet med GP100 och GP102), utan kompletterade också Maxwell-chiparkitekturen med funktioner som optimerar grafikåtergivningen.

Låt oss kort notera de viktigaste innovationerna:

  • förbättrad färgkompression med förhållanden upp till 8:1;
  • Simultan Multi-Projection-funktion i PolyMorph Engine-geometrimotorn, som låter dig skapa upp till 16 projektioner av scengeometri i ett steg (för VR och system med flera skärmar i NVIDIA-konfigurationer Omge);
  • förmågan att avbryta (preemption) under exekveringen av ett ritanrop (under rendering) och kommandoflödet (under beräkningar), som tillsammans med den dynamiska fördelningen av GPU-beräkningsresurser ger fullt stöd för asynkron beräkning (Async Compute) - en extra källa till prestanda i spel som kör DirectX 12 API reducerad latens i VR.

Den sista punkten är särskilt intressant, eftersom Maxwell-chips var tekniskt kompatibla med asynkron beräkning (samtidigt arbete med en beräknings- och grafikkommandokö), men prestanda i detta läge lämnade mycket övrigt att önska. Pascals asynkrona beräkningar fungerar som avsett, vilket gör att spel kan ladda GPU:n mer effektivt med en separat tråd för fysikberäkningar (men visserligen på chips NVIDIA problem fullt laddade shader-ALU är inte lika akut som för AMD GPU).

GP104-processorn, som används i GTX 1070 och GTX 1080, är ​​efterföljaren till GM204 (den andra klassens chip i Maxwell-familjen), men NVIDIA har uppnått så höga klockfrekvenser att GTX 1080 överträffar GTX TITAN X (baserat på en större GPU) med i genomsnitt 29 %, allt inom ett mer konservativt termiskt paket (180 vs 250 W). Även GTX 1070, skär mycket mer än GTX 970 skars jämfört med GTX 980 (och GTX 1070 använder GDDR5-minne istället för GDDR5X i GTX 1080), är fortfarande 5% snabbare än GTX TITAN X.

NVIDIA har uppdaterat skärmkontrollern i Pascal, som nu är kompatibel med DisplayPort 1.3/1.4 och HDMI 2.b-gränssnitt, vilket innebär att du kan mata ut en bild med en ökad upplösning eller uppdateringsfrekvens över en kabel - upp till 5K vid 60 Hz eller 4K vid 120 Hz. 10/12-bitars färgrepresentation ger stöd för dynamiskt omfång (HDR) på de få skärmar som har denna förmåga. Den dedikerade Pascal-hårdvaruenheten kan koda och avkoda HEVC (H.265)-video med upplösningar upp till 4K, 10-bitars färg (12-bitars avkodning) och 60 Hz.

Slutligen har Pascal eliminerat de inneboende begränsningarna i den tidigare versionen av SLI-bussen. Utvecklarna höjde frekvensen på gränssnittet och släppte en ny tvåkanalsbrygga.

Du kan läsa mer om dessa funktioner i Pascal-arkitekturen i vår GeForce GTX 1080-recension. Men innan vi går vidare till andra nya produkter från det senaste året är det värt att nämna att i den 10:e GeForce-linjen kommer NVIDIA för första gången att släppa referensdesignkort under hela livslängden för motsvarande modeller. De heter nu Founders Edition och säljs över det rekommenderade försäljningspriset för partnergrafikkort. Till exempel har GTX 1070 och GTX 1080 rekommenderade priser på $379 och $599 (vilket redan är högre än GTX 970 och GTX 980 i sin ungdom), medan Founders Edition kostar $449 och $699.

GeForce GTX 1050 och1060

GP106-chippet förde Pascal-arkitekturen till det vanliga segmentet av spelacceleratorer. Funktionellt skiljer den sig inte från äldre modeller, och sett till antalet beräkningsenheter är det halva GP104. Det är sant att GP106, till skillnad från GM206 (som var hälften av GM204), använder en 192-bitars minnesbuss. Dessutom tog NVIDIA bort SLI-kontakter från GTX 1060-kortet, vilket störde fans av gradvisa uppgraderingar av videoundersystemet: när denna accelerator tar slut kan du inte lägga till ett andra grafikkort till det (förutom de spel som kör DirectX 12, som låter dig fördela belastningen mellan GPU:er, förbigående drivrutin).

GTX 1060 innehöll ursprungligen 6 GB GDDR5, ett fullt fungerande GP106-chip, och såldes för $249/$299 (partnerkort respektive Founders Edition). Men sedan släppte NVIDIA ett grafikkort med 3 GB minne och ett rekommenderat pris på $199, vilket också minskade antalet datorenheter. Båda grafikkorten har en attraktiv TDP på ​​120 W och liknar i prestanda GeForce GTX 970 och GTX 980.

GeForce GTX 1050 och GTX 1050 Ti tillhör den lägsta kategorin som Pascal-arkitekturen behärskar. Men oavsett hur blygsamma de kan se ut jämfört med sina äldre bröder har NVIDIA tagit det största steget framåt i budgetnischen. GTX 750/750 Ti, som ockuperade den tidigare, tillhör den första iterationen av Maxwell-arkitekturen, så GTX 1050/1050 Ti har, till skillnad från andra acceleratorer i Pascal-familjen, inte avancerat en, utan en och en halv generation. Med en betydligt större GPU och högre klockat minne förbättrar GTX 1050/1050 Ti prestanda jämfört med sina föregångare mer än någon annan medlem i Pascal-serien (90 % skillnad mellan GTX 750 Ti och GTX 1050 Ti).

Och även om GTX 1050/1050 Ti förbrukar lite mer ström (75 mot 60 W), passar de fortfarande inom strömstandarden för PCI Express-kort som inte har en extra strömkontakt. NVIDIA släppte inte low-end acceleratorer i Founders Edition-formatet, men rekommenderas detaljhandelspriser var $109 och $139.

AMD Polaris: Radeon RX 460/470/480

AMD:s svar på Pascal var Polaris-kretsfamiljen. Polaris-serien innehåller nu bara två chips, på basis av vilka AMD producerar tre grafikkort (Radeon RX 460, RX 470 och RX 480), där mängden inbyggt RAM-minne dessutom varierar. Som du enkelt kan se även från modellnumren, är det övre skiktet av prestanda i Radeon 400-serien fortfarande obesatt. AMD kommer att behöva fylla den med produkter baserade på Vega-kisel. Tillbaka i 28 nm-eran fick AMD denna vana att testa innovationer på relativt små chips och först därefter introducera dem i flaggskepps-GPU:er.

Det bör genast noteras att i fallet med AMD är den nya familjen av grafikprocessorer inte identisk ny version den underliggande GCN-arkitekturen (Graphics Core Next), men återspeglar en kombination av arkitektur och andra produktegenskaper. För GPU:er byggda med den nya processtekniken har AMD övergett de olika "öarna" i kodnamnet (Northern Islands, South Islands, etc.) och betecknar dem med namnen på stjärnor.

Ändå fick GCN-arkitekturen i Polaris ytterligare en tredje uppdatering, tack vare vilken (tillsammans med övergången till 14 nm FinFET-processteknologin) AMD avsevärt ökade prestandan per watt.

  • Compute Unit, den elementära formen för att organisera shader-ALUer i GCN, har genomgått ett antal förändringar relaterade till instruktionsförhämtning och cachning, och tillgång till L2-cachen, vilket tillsammans ökade CU:ns specifika prestanda med 15 %.
  • Det finns nu stöd för halvprecisionsberäkningar (FP16), som används i datorseende och maskininlärningsprogram.
  • GCN 1.3 ger direkt åtkomst till den interna instruktionsuppsättningen (ISA) av strömprocessorer, genom vilken utvecklare kan skriva extremt låg nivå och snabb kod - i motsats till DirectX- och OpenGL-skuggningsspråken abstraherad från hårdvaran.
  • Geometriprocessorer kan nu eliminera nollstora polygoner eller polygoner som inte har några pixlar i projektionen tidigt i pipelinen, och har en indexcache som minskar resursförbrukningen vid rendering av liten, duplicerad geometri.
  • Dubbel L2-cache.

Dessutom har AMD-ingenjörer arbetat hårt för att få Polaris att köra på så hög frekvens som möjligt. GPU-frekvensen styrs nu med minimal latens (latens mindre än 1 ns), och kortets spänningskurva justeras varje gång datorn startas för att ta hänsyn till variationen i parametrar mellan enskilda chips och åldrandet av kisel Under operationen.

Övergången till 14nm FinFET-processen har dock inte gått smidigt för AMD. Faktum är att företaget kunde öka prestandan per watt med 62 % (att döma av resultaten från Radeon RX 480 och Radeon R9 380X i speltester och kortens TDP). Polaris maximala frekvenser överstiger dock inte 1266 MHz, och endast ett fåtal av dess tillverkningspartner har uppnått mer med ytterligare arbete på kyl- och kraftsystemen. Å andra sidan behåller GeForce grafikkort fortfarande ledarskapet när det gäller prestanda-effektförhållande, vilket NVIDIA uppnådde redan i Maxwell-generationen. Det verkar som att AMD i det första skedet inte kunde avslöja alla funktioner i den nya generationens tekniska process, eller så kräver GCN-arkitekturen redan djup modernisering - den sista uppgiften lämnades till Vega-chipsen.

Polaris-baserade acceleratorer upptar prisintervallet från $109 till $239 (se tabell), även om AMD, som svar på utseendet på GeForce GTX 1050/1050 Ti, sänkte priserna på de två lägre korten till $100 respektive $170. På det här ögonblicket I varje pris/prestandakategori finns det en liknande maktbalans mellan konkurrerande produkter: GeForce GTX 1050 Ti är snabbare än Radeon RX 460 med 4 GB RAM, GTX 1060 med 3 GB minne är snabbare än RX 470, och det fullfjädrade GTX 1060 är före RX 480. Tillsammans Samtidigt är AMD-grafikkort billigare, vilket betyder att de är populära.

AMD Radeon Pro Duo

Rapporten om det senaste året inom området diskreta GPU:er kommer inte att vara komplett om vi ignorerar ytterligare ett av de "röda" grafikkorten. Medan AMD ännu inte hade släppt en flaggskeppsvideoadapter med en processor för att ersätta Radeon R9 Fury X, hade företaget ett bevisat drag kvar för att fortsätta erövra nya gränser - att installera två Fiji-chips på ett kort. Detta kort, vars släpp AMD upprepade gånger skjutit upp, började ändå säljas strax före GeForce GTX 1080, men föll i kategorin professionella Radeon Pro-acceleratorer och positionerades som en plattform för att skapa spel i VR-miljön.

För spelare, för $1 499 (dyrare än ett par Radeon R9 Fury Xs vid lanseringen), är Radeon Pro Duo inte av intresse, och vi hade inte ens möjlighet att testa detta kort. Det är synd, för ur teknisk synvinkel ser Radeon Pro Duo spännande ut. Kortets namnskylt TDP ökade med endast 27 % jämfört med Fury X, trots att toppfrekvenser AMD-processorer reduceras med 50 MHz. Tidigare har AMD redan lyckats släppa ett framgångsrikt videokort med dubbla processorer - Radeon R9 295X2, så specifikationerna som deklarerats av tillverkaren orsakar inte mycket skepsis.

Vad du kan förvänta dig under 2017

De viktigaste förväntningarna för det kommande året är relaterade till AMD. NVIDIA kommer med största sannolikhet att begränsa sig till att släppa ett flaggskeppsspelkort baserat på GP102 under namnet GeForce GTX 1080 Ti och kanske fylla ytterligare en ledig plats i den tionde GeForce-serien - GTX 1060 Ti. Annars har Pascal-linjen av acceleratorer redan bildats, och debuten av nästa arkitektur, Volta, är planerad endast för 2018.

Liksom i CPU-utrymmet har AMD lagt alla sina ansträngningar på att utveckla en verkligt banbrytande GPU-mikroarkitektur, medan Polaris har blivit bara en mellanstation på vägen till den senare. Förmodligen redan under första kvartalet 2017 företaget kommer att släppa sitt bästa kisel, Vega 10, till massmarknaden för första gången (och tillsammans med det eller senare ett eller flera lägre chip i raden). Det mest tillförlitliga beviset på dess kapacitet var tillkännagivandet av MI25-datorkortet i Radeon Instinct-linjen, som är positionerat som en accelerator för djupinlärningsuppgifter. Baserat på specifikationerna är det baserat på ingen mindre än Vega 10. Kortet utvecklar 12,5 TFLOPS processorkraft i enkelprecisionsberäkningar (FP32), vilket är mer än TITAN X på GP102, och är utrustat med 16 GB av HBM2 minne. Grafikkortets TDP är inom 300 W. Processorns verkliga prestanda kan bara gissas till, men det är känt att Vega kommer att ta med den mest storskaliga uppdateringen till GPU-mikroarkitekturen sedan lanseringen av de första GCN-baserade chipsen för fem år sedan. Det senare kommer avsevärt att förbättra prestandan per watt och möjliggöra effektivare användning av processorkraften hos shader-ALU (som AMD-chips traditionellt saknar) i spelapplikationer.

Det finns också rykten om att AMD-ingenjörer nu har behärskat 14 nm FinFET-processtekniken och företaget är redo att släppa den andra versionen av Polaris grafikkort med en betydligt lägre TDP. Det verkar för oss att om detta är sant, så skulle de uppdaterade chipsen hellre gå in i Radeon RX 500-linjen än att få ökade index i den befintliga 400-serien.

Ansökan. Aktuella rader av diskreta videoadaptrar från AMD och NVIDIA

Tillverkare AMD
Modell Radeon RX 460 Radeon RX 470 Radeon RX 480 Radeon R9 Nano Radeon R9 Fury Radeon R9 Fury X
GPU
namn Polaris 11 Polaris 10 Polaris 10 Fiji XT Fiji PRO Fiji XT
Mikroarkitektur GCN 1.3 GCN 1.3 GCN 1.3 GCN 1.2 GCN 1.2 GCN 1.2
Teknisk process, nm 14 nm FinFET 14 nm FinFET 14 nm FinFET 28 28 28
Antal transistorer, miljoner 3 000 5 700 5 700 8900 8900 8900
1 090 / 1 200 926 / 1 206 1 120 / 1 266 — / 1 000 — / 1 000 — / 1 050
Antal shader-ALUer 896 2 048 2 304 4096 3584 4096
56 128 144 256 224 256
ROP-nummer 16 32 32 64 64 64
Bagge
Buss bredd, bitar 128 256 256 4096 4096 4096
Chip typ GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM H.B.M. H.B.M. H.B.M.
1 750 (7 000) 1 650 (6 600) 1 750 (7 000) / 2 000 (8 000) 500 (1000) 500 (1000) 500 (1000)
Volym, MB 2 048 / 4 096 4 096 4 096 / 8 192 4096 4096 4096
I/O-buss PCI Express 3.0 x8 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16
Prestanda
2 150 4 940 5 834 8 192 7 168 8 602
Prestanda FP32/FP64 1/16 1/16 1/16 1/16 1/16 1/16
112 211 196/224 512 512 512
Bildutgång
DL DVI-D, HDMI 2.0b, DisplayPort 1.3/1.4 DL DVI-D, HDMI 2.0b, DisplayPort 1.3/1.4 HDMI 1.4a, DisplayPort 1.2 HDMI 1.4a, DisplayPort 1.2 HDMI 1.4a, DisplayPort 1.2
TDP, W <75 120 150 175 275 275
109/139 179 199/229 649 549 649
8 299 / 10 299 15 999 16 310 / 18 970 ND ND ND
Tillverkare NVIDIA
Modell GeForce GTX 1050 GeForce GTX 1050 Ti GeForce GTX 1060 3 GB GeForce GTX 1060 GeForce GTX 1070 GeForce GTX 1080 TITAN X
GPU
namn GP107 GP107 GP106 GP106 GP104 GP104 GP102
Mikroarkitektur Pascal Pascal Maxwell Maxwell Pascal Pascal Pascal
Teknisk process, nm 14 nm FinFET 14 nm FinFET 16 nm FinFET 16 nm FinFET 16 nm FinFET 16 nm FinFET 16 nm FinFET
Antal transistorer, miljoner 3 300 3 300 4 400 4 400 7 200 7 200 12 000
Klockfrekvens, MHz: Basklocka / Boostklocka 1 354 / 1 455 1 290 / 1 392 1506/1708 1506/1708 1 506 / 1 683 1 607 / 1 733 1 417 / 1531
Antal shader-ALUer 640 768 1 152 1 280 1 920 2 560 3 584
Antal texturmappningsenheter 40 48 72 80 120 160 224
ROP-nummer 32 32 48 48 64 64 96
Bagge
Buss bredd, bitar 128 128 192 192 256 256 384
Chip typ GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5X SDRAM GDDR5X SDRAM
Klockfrekvens, MHz (bandbredd per kontakt, Mbit/s) 1 750 (7 000) 1 750 (7 000) 2000 (8000) 2000 (8000) 2000 (8000) 1 250 (10 000) 1 250 (10 000)
Volym, MB 2 048 4 096 6 144 6 144 8 192 8 192 12 288
I/O-buss PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16
Prestanda
Toppprestanda FP32, GFLOPS (baserat på maximal specificerad frekvens) 1 862 2 138 3 935 4 373 6 463 8 873 10 974
Prestanda FP32/FP64 1/32 1/32 1/32 1/32 1/32 1/32 1/32
RAM-bandbredd, GB/s 112 112 192 192 256 320 480
Bildutgång
Bildutgångsgränssnitt DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b
TDP, W 75 75 120 120 150 180 250
Rekommenderat pris vid utgivningstillfället (USA, exklusive moms), $ 109 139 199 249/299 (Founders Edition / affiliate-kort) 379/449 (Founders Edition / affiliate-kort) 599/699 (Founders Edition / affiliate-kort) 1 200
Rekommenderat pris vid utgivningstillfället (Ryssland), gnugga. 8 490 10 490 ND 18 999/- (Founders Edition/affiliatekort) ND / 34 990 (Founders Edition / partnerkort) ND / 54 990 (Founders Edition / partnerkort)

Aktivitetshanteraren Windows 10 innehåller detaljerade övervakningsverktyg GPU (GPU). Du kan se GPU-användning per app och systemomfattande, och Microsoft lovar att indikatorerna Aktivitetshanteraren kommer att vara mer exakta än indikatorer från tredjepartsverktyg.

Hur det fungerar

Dessa funktioner GPU lades till i uppdateringen Fall Creators för Windows 10 , också känd som Windows 10 version 1709 . Om du använder Windows 7, 8 eller en äldre version av Windows 10 kommer du inte att se dessa verktyg i aktivitetshanteraren.

Windows använder nyare funktioner i Windows Display Driver Model för att extrahera information direkt från GPU (VidSCH) och videominneshanterare (VidMm) i WDDM-grafikkärnan, som ansvarar för den faktiska allokeringen av resurser. Den visar mycket exakta data oavsett vilka API-applikationer som använder för att komma åt GPU:n - Microsoft DirectX, OpenGL, Vulkan, OpenCL, NVIDIA CUDA, AMD Mantle eller något annat.

Det är därför i Aktivitetshanteraren Endast WDDM 2.0-kompatibla system visas GPU:er . Om du inte ser detta använder ditt systems GPU förmodligen en äldre typ av drivrutin.

Du kan kontrollera vilken version av WDDM som din drivrutin använder GPU genom att trycka på Windows-tangenten + R, skriva "dxdiag" i fältet och sedan trycka på "Enter" för att öppna verktyget " Diagnostikverktyg för DirectX" Gå till fliken "Skärm" och titta till höger om "Modell" i avsnittet "Drivrutiner". Om du ser en WDDM 2.x-drivrutin här är ditt system kompatibelt. Om du ser en WDDM 1.x-drivrutin här, din GPU oförenlig.

Så här ser du GPU-prestanda

Denna information finns tillgänglig i Aktivitetshanteraren , även om den är dold som standard. Öppna den för att öppna den Aktivitetshanteraren genom att högerklicka på ett tomt utrymme i aktivitetsfältet och välja " Aktivitetshanteraren"eller genom att trycka på Ctrl+Skift+Esc på tangentbordet.

Klicka på knappen "Mer information" längst ner i fönstret " Aktivitetshanteraren" om du ser standardvyn.

Om GPU visas inte i Aktivitetshanteraren , i helskärmsläge på fliken " Processer"Högerklicka på valfri kolumnrubrik och aktivera sedan alternativet" GPU " Detta kommer att lägga till en kolumn GPU , som låter dig se andelen resurser GPU , som används av varje applikation.

Du kan också aktivera alternativet " GPU kärna" för att se vilken GPU appen använder.

Allmän användning GPU av alla program på ditt system visas högst upp i kolumnen GPU. Klicka på en kolumn GPU för att sortera listan och se vilka appar som använder din GPU mest för tillfället.

Nummer i kolumn GPU- Detta är den högsta användningen som applikationen använder för alla motorer. Så, till exempel, om en applikation använder 50 % GPU 3D-motor och 2 % GPU-videomotoravkodning, kommer du helt enkelt att se GPU-kolumnen som visar talet 50 %.

I kolumnen " GPU kärna» varje applikation visas. Detta visar dig vad fysisk GPU och vilken motor applikationen använder, till exempel om den använder en 3D-motor eller en videoavkodningsmotor. Du kan avgöra vilken GPU som kvalificerar sig för ett specifikt mått genom att markera " Prestanda", som vi kommer att prata om i nästa avsnitt.

Hur man visar en applikations användning av videominne

Om du undrar hur mycket videominne som används av ett program, måste du gå till fliken Detaljer i Aktivitetshanteraren. På fliken Detaljer högerklickar du på valfri kolumnrubrik och väljer Välj kolumner. Rulla ned och aktivera kolumner " GPU », « GPU kärna », « "och" " De två första är också tillgängliga på fliken Processer, men de två sista minnesalternativen är bara tillgängliga i panelen Detaljer.

kolumn " Dedikerat GPU-minne » visar hur mycket minne programmet använder på din GPU. Om din PC har ett NVIDIA- eller AMD-diskret grafikkort är detta en del av dess VRAM, vilket är hur mycket fysiskt minne på ditt grafikkort som applikationen använder. Om du har integrerad grafikprocessor , är en del av ditt vanliga systemminne reserverat exklusivt för din grafikhårdvara. Detta visar hur mycket av det reserverade minnet som används av programmet.

Windows tillåter även applikationer att lagra vissa data i vanliga system-DRAM. kolumn " Delat GPU-minne " visar hur mycket minne programmet för närvarande använder för videoenheter från datorns normala system-RAM.

Du kan klicka på någon av kolumnerna för att sortera efter dem och se vilket program som använder mest resurser. Till exempel, för att se de program som använder mest videominne på din GPU, klicka på " Dedikerat GPU-minne ».

Hur man spårar GPU-delningsanvändning

För att spåra övergripande resursanvändningsstatistik GPU, gå till " Prestanda"och titta på" GPU" längst ned i sidofältet. Om din dator har flera GPU:er ser du flera alternativ här GPU.

Om du har flera länkade GPU:er - med en funktion som NVIDIA SLI eller AMD Crossfire, kommer du att se dem identifierade med ett "#" i deras namn.

Windows visar användning GPU i realtid. Standard Aktivitetshanteraren försöker visa de mest intressanta fyra motorerna enligt vad som händer i ditt system. Du kommer till exempel att se olika grafik beroende på om du spelar 3D-spel eller kodar videor. Du kan dock klicka på något av namnen ovanför diagrammen och välja någon av de andra tillgängliga motorerna.

Namn på din GPU visas också i sidofältet och högst upp i det här fönstret, vilket gör det enkelt att kontrollera vilken grafikhårdvara som är installerad på din PC.

Du kommer också att se grafer för dedikerade och delade minnesanvändning GPU. Användning av delat minne GPU avser hur mycket av systemets totala minne som används för uppgifter GPU. Detta minne kan användas för både vanliga systemuppgifter och videoinspelningar.

Längst ner i fönstret ser du information som versionsnumret för den installerade videodrivrutinen, utvecklingsdatum och fysisk plats GPU på ditt system.

Om du vill se den här informationen i ett mindre fönster som är lättare att lämna på skärmen, dubbelklicka var som helst på GPU-skärmen eller högerklicka var som helst inuti den och välj alternativet Grafisk sammanfattning" Du kan maximera ett fönster genom att dubbelklicka i panelen eller genom att högerklicka i det och avmarkera " Grafisk sammanfattning».

Du kan också högerklicka på grafen och välja "Redigera graf" > "Single Core" för att bara se en motorgraf GPU.

För att behålla det här fönstret permanent på din skärm, klicka på "Alternativ" > " Ovanpå andra fönster».

Dubbelklicka inuti panelen GPU igen och du kommer att ha ett minimalt fönster som du kan placera var som helst på skärmen.

Den integrerade grafikprocessorn spelar en viktig roll för både spelare och kravlösa användare.

Kvaliteten på spel, filmer, titta på videor på Internet och bilder beror på det.

Funktionsprincip

Grafikprocessorn är integrerad i datorns moderkort – så här ser integrerad grafik ut.

Som regel använder de det för att ta bort behovet av att installera en grafikadapter -.

Denna teknik hjälper till att minska kostnaderna för den färdiga produkten. Dessutom, på grund av kompaktheten och låga energiförbrukningen hos sådana processorer, installeras de ofta i bärbara datorer och stationära datorer med låg effekt.

Således har integrerade grafikprocessorer fyllt denna nisch så mycket att 90 % av bärbara datorer på amerikanska butikshyllor har en sådan processor.

Istället för ett vanligt grafikkort använder integrerad grafik ofta själva datorns RAM som ett hjälpverktyg.

Det är sant att denna lösning begränsar enhetens prestanda något. Ändå använder själva datorn och grafikprocessorn samma minnesbuss.

Så detta "grannskap" påverkar utförandet av uppgifter, särskilt när man arbetar med komplex grafik och under spel.

Typer

Integrerad grafik har tre grupper:

  1. Delat minnesgrafik - en enhet baserad på delad kontroll med huvudprocessorn Bagge. Detta minskar kostnaderna avsevärt, förbättrar energisparsystemet, men försämrar prestandan. Följaktligen, för dem som arbetar med komplexa program, är integrerade grafikprocessorer av denna typ troligen inte lämpliga.
  2. Diskret grafik - ett videochip och en eller två videominnesmoduler löds fast på moderkort. Tack vare denna teknik förbättras bildkvaliteten avsevärt, och den blir även möjlig att arbeta med 3D-grafik med bästa resultat. Det är sant att du kommer att få betala mycket för detta, och om du letar efter en kraftfull processor i alla avseenden kan kostnaden bli otroligt hög. Dessutom kommer din elräkning att öka något – strömförbrukningen för diskreta GPU:er är högre än vanligt.
  3. Hybrid diskret grafik är en kombination av de två tidigare typerna, vilket säkerställde skapandet av PCI Express-bussen. Således utförs åtkomst till minnet både genom det lödda videominnet och genom RAM-minnet. Med denna lösning ville tillverkarna skapa en kompromisslösning, men den eliminerar fortfarande inte bristerna.

Tillverkare

Som regel är stora företag - och - engagerade i tillverkning och utveckling av integrerade grafikprocessorer, men många små företag är också involverade i detta område.

Detta är inte svårt att göra. Leta efter Primary Display eller Init Display först. Om du inte ser något sådant, leta efter Onboard, PCI, AGP eller PCI-E (allt beror på vilka bussar som är installerade på moderkortet).

Genom att välja PCI-E, till exempel, aktiverar du PCI-Express grafikkortet och inaktiverar det inbyggda integrerade.

För att aktivera det integrerade grafikkortet måste du därför hitta lämpliga parametrar i BIOS. Ofta är aktiveringsprocessen automatisk.

Inaktivera

Det är bättre att inaktivera det i BIOS. Detta är det enklaste och mest opretentiösa alternativet, lämpligt för nästan alla datorer. De enda undantagen är vissa bärbara datorer.

Återigen, sök efter kringutrustning eller integrerad kringutrustning i BIOS om du arbetar på ett skrivbord.

För bärbara datorer är namnet på funktionen annorlunda, och inte detsamma överallt. Så bara hitta något relaterat till grafik. Till exempel kan de nödvändiga alternativen placeras i avsnitten Advanced och Config.

Inaktivering utförs också på olika sätt. Ibland räcker det med att bara klicka på "Inaktiverad" och sätta PCI-E-videokortet först i listan.

Om du är en bärbar datoranvändare, bli inte orolig om du inte kan hitta ett lämpligt alternativ, på förhand kanske du inte har en sådan funktion. För alla andra enheter är reglerna enkla - oavsett hur själva BIOS ser ut är fyllningen densamma.

Om du har två grafikkort och de båda visas i enhetshanteraren, är saken ganska enkel: högerklicka på ett av dem och välj "inaktivera". Tänk dock på att skärmen kan bli mörk. Detta kommer med största sannolikhet att hända.

Detta är dock också ett lösbart problem. Det räcker med att starta om datorn eller programvaran.

Gör alla efterföljande inställningar på den. Om det inte fungerar den här metoden, rulla tillbaka dina handlingar med säkert läge. Du kan också tillgripa den tidigare metoden - via BIOS.

Två program - NVIDIA Control Center och Catalyst Control Center - konfigurerar användningen av en specifik videoadapter.

De är de mest opretentiösa jämfört med de andra två metoderna - det är osannolikt att skärmen stängs av, och du kommer inte heller att förstöra inställningarna av misstag genom BIOS.

För NVIDIA finns alla inställningar i 3D-sektionen.

Du kan välja önskad videoadapter för alla operativ system, och för vissa program och spel.

I Catalyst-programvaran finns en identisk funktion i alternativet "Power" i underpunkten "Switchable Graphics".

Så att byta mellan GPU:er är en bris.

Det finns olika metoder, särskilt genom program och genom BIOS. Att slå på eller stänga av en eller annan integrerad grafik kan åtföljas av vissa fel, främst relaterade till bilden.

Det kan slockna eller helt enkelt bli förvrängt. Ingenting ska påverka filerna på själva datorn, om du inte klickade på något i BIOS.

Slutsats

Som ett resultat är integrerade grafikprocessorer efterfrågade på grund av deras låga kostnad och kompakthet.

Du kommer att få betala för detta med prestandanivån på själva datorn.

I vissa fall är integrerad grafik helt enkelt nödvändig - diskreta processorer är idealiska för att arbeta med tredimensionella bilder.

Branschledare är dessutom Intel, AMD och Nvidia. Var och en av dem erbjuder sina egna grafikacceleratorer, processorer och andra komponenter.

De senaste populära modellerna är Intel HD Graphics 530 och AMD A10-7850K. De är ganska funktionella, men har några brister. I synnerhet gäller detta effekt, prestanda och kostnad för den färdiga produkten.

Du kan aktivera eller inaktivera en grafikprocessor med en inbyggd kärna antingen själv genom BIOS, verktyg och olika program, men datorn själv kan enkelt göra detta åt dig. Allt beror på vilket grafikkort som är anslutet till själva bildskärmen.

I moderna apparater En grafikprocessor används, som också kallas en GPU. Vad är det och vad är dess funktionsprincip? GPU (Graphics) är en processor vars huvuduppgift är att bearbeta grafik och flyttalsberäkningar.GPU:n underlättar huvudprocessorns arbete när det kommer till tunga spel och applikationer med 3D-grafik.

Vad är detta?

GPU:n skapar grafik, texturer, färger. En processor som har flera kärnor kan köras på höga hastigheter. Grafikkortet har många kärnor som huvudsakligen fungerar på låga hastigheter. De gör pixel- och vertexberäkningar. De senare bearbetas huvudsakligen i ett koordinatsystem. Grafikprocessorn bearbetar olika uppgifter genom att skapa ett tredimensionellt utrymme på skärmen, det vill säga objekt rör sig i den.

Funktionsprincip

Vad gör en GPU? Han sysslar med grafikbehandling i 2D- och 3D-format. Tack vare GPU:n kan din dator utföra viktiga uppgifter snabbare och enklare. Det speciella med GPU:n är att den ökar beräkningshastigheten på maximal nivå. Dess arkitektur är utformad på ett sådant sätt att den gör att den kan bearbeta visuell information mer effektivt än en dators centrala CPU.

Han ansvarar för placeringen av tredimensionella modeller i ramen. Dessutom filtrerar varje processor trianglarna som ingår i den. Den avgör vilka som är synliga och tar bort de som är gömda bakom andra objekt. Ritar ljuskällor och bestämmer hur dessa källor påverkar färg. Grafikprocessorn (vad det är beskrivs i artikeln) skapar en bild och visar den på användarens skärm.

Effektivitet

Vad är anledningen effektivt arbete GPU? Temperatur. Ett av problemen med datorer och bärbara datorer är överhettning. Detta är huvudorsaken till att enheten och dess element snabbt misslyckas. GPU-problem börjar när CPU-temperaturen överstiger 65 °C. I det här fallet märker användarna att processorn börjar arbeta svagare och hoppar över klockcykler för att självständigt sänka den ökade temperaturen.

Temperaturområde 65-80 °C är kritiskt. I det här fallet startar systemet om (nödsituation) och datorn stängs av av sig själv. Det är viktigt för användaren att se till att GPU-temperaturen inte överstiger 50 °C. En temperatur på 30-35 °C anses vara normal vid tomgång, 40-45 °C med långa timmars belastning. Ju lägre temperatur, desto högre prestanda på datorn. För moderkort, grafikkort, fodral och hårddiskar- dina egna temperaturförhållanden.

Men många användare är också bekymrade över frågan om hur man sänker temperaturen på processorn för att öka dess effektivitet. Först måste du ta reda på orsaken till överhettning. Detta kan vara ett igensatt kylsystem, uttorkad termisk pasta, skadlig programvara, överklockning av processorn, rå BIOS-firmware. Det enklaste en användare kan göra är att byta ut den termiska pastan, som sitter på själva processorn. Dessutom behöver kylsystemet rengöras. Experter rekommenderar också att du installerar en kraftfull kylare som förbättrar luftcirkulationen systemenhet, öka rotationshastigheten med grafikadapter kylare. Alla datorer och GPU:er har samma temperatursänkningsschema. Det är viktigt att övervaka enheten och rengöra den i tid.

Specifikt

Grafikprocessorn är placerad på grafikkortet, dess huvuduppgift är att bearbeta 2D- och 3D-grafik. Om en GPU är installerad på datorn utför inte enhetens processor onödigt arbete och fungerar därför snabbare. huvud funktion grafiskt är att dess huvudsakliga mål är att öka hastigheten för att beräkna objekt och texturer, det vill säga grafisk information. Processorarkitekturen gör att de kan arbeta mycket mer effektivt och bearbeta visuell information. En vanlig processor kan inte göra detta.

Typer

Vad är det här - en grafikprocessor? Detta är en komponent som ingår i grafikkortet. Det finns flera typer av marker: inbyggda och diskreta. Experter säger att den andra klarar sin uppgift bättre. Den är installerad på separata moduler, eftersom den kännetecknas av sin kraft, men den kräver utmärkt kylning. Nästan alla datorer har en inbyggd grafikprocessor. Den är installerad i CPU:n för att göra energiförbrukningen flera gånger lägre. Det går inte att jämföra med diskreta när det gäller makt, men det har det också bra egenskaper, visar bra resultat.

Datorgrafik

Vad är det här? Detta är namnet på det verksamhetsområde där datorteknik används för att skapa bilder och bearbeta visuell information. Modern Datorgrafik, inklusive vetenskapliga, låter dig grafiskt bearbeta resultat, bygga diagram, grafer, ritningar och även utföra olika typer av virtuella experiment.

Tekniska produkter skapas med konstruktiv grafik. Det finns andra typer av datorgrafik:

  • animerad;
  • multimedia;
  • konstnärlig;
  • reklam;
  • belysande.

Ur teknisk synvinkel är datorgrafik tvådimensionell och 3D-bilder.

CPU och GPU: skillnaden

Vad är skillnaden mellan dessa två beteckningar? Många användare är medvetna om att grafikprocessorn (vad det är - beskrivet ovan) och grafikkortet utför olika uppgifter. Dessutom skiljer de sig åt i sin inre struktur. Både CPU:er och GPU:er har många liknande funktioner, men de är gjorda för olika ändamål.

CPU:n utför en specifik kedja av instruktioner under en kort tidsperiod. Den är utformad på ett sådant sätt att den bildar flera kedjor samtidigt, delar upp strömmen av instruktioner i många, exekverar dem och sedan slår samman dem tillbaka till en i en specifik ordning. Instruktionen i tråden beror på de som följer den, därför innehåller CPU:n ett litet antal exekveringsenheter, här ges huvudprioritet till exekveringshastighet och reducering av stilleståndstid. Allt detta uppnås med hjälp av en pipeline och cacheminne.

GPU:n har en annan viktig funktion - rendering av visuella effekter och 3D-grafik. Det fungerar enklare: det tar emot polygoner som indata, utför nödvändiga logiska och matematiska operationer och matar ut pixelkoordinater. Arbetet med en GPU innebär att hantera ett stort flöde av olika uppgifter. Dess egenhet är att den är utrustad med stor kraft men fungerar långsamt jämfört med processorn. Dessutom har moderna GPU:er mer än 2000 exekveringsenheter. De skiljer sig åt i sina metoder för minnesåtkomst. Till exempel behöver grafik inte stort cachelagrat minne. GPU:er har mer bandbredd. Om du förklarar med enkla ord, sedan fattar CPU:n beslut i enlighet med programmets uppgifter, och GPU:n utför många identiska beräkningar.