Gtx 480 jämförelse. Granskning och testning av NVIDIA GTX480. Testkonfiguration, verktyg och testmetodik

Nvidia Geforce GTX 480:

beskrivning av grafikkortet och resultat av syntetiska tester

Det är vettigt att säga att kortet kräver extra ström, och två kontakter, varav en är 8-stift och den andra 6-stift. Om det inte finns några problem med det senare, eftersom alla moderna nätaggregat redan har sådana "svansar", krävs en speciell adapter för strömförsörjning genom en 8-stiftskontakt, som bör levereras med seriella grafikkort.

Chipet togs emot under den fjärde veckan i år, det vill säga i slutet av januari.

Om kylsystemet.

Nvidia Geforce GTX 480 1536MB PCI-E

I grund och botten skiljer sig kylaren inte från tidigare lösningar i GTX-familjen: en cylindrisk fläkt driver luft genom kylaren och tar bort värme utanför systemenheten. Men på grund av den överdrivna strömförbrukningen för den nya produkten, och därför uppvärmningen, har CO genomgått förbättringar när det gäller att förbättra värmeavledningen med hjälp av värmerör. Som vi kan se kyler den centrala radiatorn med rör bara kärnan. När minneschips kyls av en platta som pressas mot dem, placerad under höljet.

Förmodligen har möjligheterna att söka efter COs av denna typ redan uttömts så att de kan klara en väldigt het kärna utan buller. Därför måste vi säga att CO visade sig vara bullrig. Även i 2D-läge fungerar kylaren på 44% av maxvärdet, även om denna siffra tidigare var någonstans runt 20-25%. Bruset börjar efter 50 %. Därför fungerar kylaren på gränsen till hörbart ljud, och detta är under vilotid! Vad kan vi säga om belastningen när CO börjar gradvis öka turbinens rotationshastighet och når ett genomsnitt på 70-80% när kortet arbetar i tredimensionellt läge.

Vi genomförde en temperaturstudie med hjälp av EVGA Precision-verktyget (författare A. Nikolaychuk AKA Unwinder) och fick följande resultat:

Nvidia Geforce GTX 480 1536MB PCI-E

Och detta är inte förvånande, eftersom uppvärmningen av kärnan når 95 grader, och till och med en så hög siffra uppnås till bekostnad av mycket bullrig drift av CO. Så älskare av den mest avancerade och snabba tredimensionella spelgrafiken måste glömma vad tystnad är när man kör spel eller tester. Även i 2D, när kortet är laddat med allt möjligt komplext innehåll (som flash eller video), är kylaren redan ganska hörbar.

Utrustning.

Detta är en referensprodukt, så det finns inget kit eller förpackning.

Låt oss nu gå vidare till testerna. Först kommer vi att visa testbänkens konfiguration.

Installation och drivrutiner

Testbänkkonfiguration:

  • Datorbaserat Intel core I7 CPU 920 (socket 1366 LGA)
    • processor Intel Core I7 CPU 920 (2667 MHz);
    • Asus P6T Deluxe moderkort baserat på Intel X58 chipset;
    • RAM 3 GB DDR3 SDRAM Corsair 1066MHz;
    • hårddisk WD Caviar SE WD1600JD 160GB SATA;
    • strömförsörjning Tagan TG900-BZ 900W.
  • operativsystem Windows 7 32bit; DirectX 11;
  • Dell 3007WFP-skärm (30");
  • ATI-drivrutinversion CATALYST 10.3; Nvidia version 197.17.

VSync är inaktiverat.

Syntetiska tester

De syntetiska testpaketen vi använder kan laddas ner här:

  • D3D RightMark Beta 4 (1050) med en beskrivning på webbplatsen http://3d.rightmark.org.
  • D3D RightMark Pixel Shading 2 och D3D RightMark Pixel Shading 3 tester av pixel shaders version 2.0 och 3.0 länk.
  • RightMark3D 2.0 med en kort beskrivning: , .

Eftersom vi inte har våra egna syntetiska DirectX 11-tester var vi tvungna att använda exempel från olika SDK-paket och demoprogram. Först finns det HDRToneMappingCS11.exe och NBodyGravityCS11.exe från DirectX SDK (februari 2010).

Vi tog också två exempel från båda tillverkarna: Nvidia och AMD, så att det inte skulle finnas några påståenden om partiskhet från någon. Exemplen DetailTessellation11.exe och PNTriangles11.exe togs från ATI Radeon SDK (de finns också i DX SDK, förresten). Nåväl, Nvidia presenterade två demoprogram: Realistic Character Hair och Realistic Water Terrain, som snart borde bli tillgängliga för nedladdning på företagets hemsida.

Syntetiska tester utfördes på följande grafikkort:

  • GeForce GTX 480 GTX 480)
  • GeForce GTX 295 med standardparametrar (ytterligare GTX 295)
  • GeForce GTX 285 med standardparametrar (ytterligare GTX 285)
  • Radeon HD 5970 med standardparametrar (ytterligare HD 5970)
  • Radeon HD 5870 med standardparametrar (ytterligare HD 5870)

För att jämföra resultaten av den nya Geforce GTX 480-modellen valdes just dessa grafikkort av följande skäl: Radeon HD 5870 och HD 5970 är de mest produktiva modellerna med en och två chip från det konkurrerande företaget AMD, med priserna närmast till GTX 480. Med Nvidias lösningar är allt ännu enklare: Geforce GTX 285 är det mest kraftfulla enchipskortet på en GPU av den senaste generationen, efter vilket vi kommer att bedöma arkitektoniska förändringar, och GTX 295 är det kraftfullaste dual-chipkortet från Nvidia t.o.m. lanseringen av nya lösningar.

Direct3D 9: Pixelfyllningstest

Testet bestämmer högsta textursamplingsprestanda (texelhastighet) i FFP-läge för ett annat antal texturer som appliceras på en pixel:

Vårt test är lite föråldrat, och grafikkorten i det når inte teoretiskt möjliga värden, men det visar fortfarande korrekt den maximala textureringshastigheten för grafikkort i förhållande till varandra. Som vanligt når de syntetiska resultaten inte toppvärdena, det visar sig att GTX 480 väljer upp till 40 texel per klockcykel från 32-bitars texturer med bilinjär filtrering i detta test, vilket är en och en halv gånger lägre än teoretisk siffra på 60 filtrerade texlar.

Detta räcker inte för att nå åtminstone GTX 285, som väljer texturdata 5-7% snabbare. För att inte tala om att komma ikapp den konkurrerande HD 5870, som har mer än en och en halv gånger högre prestanda i nästan alla lägen, att döma av vår DX9-syntet. Nvidia-kortet med dubbla chip föll helt klart offer för mjukvaruproblem, men HD 5970 är ännu kraftfullare än HD 5870.

Skillnaden mellan GTX 480 och GTX 285 är nästan alltid densamma, förutom i fall med ett litet antal texturer, där begränsningen i bandbredd har större effekt. Och HD 5870 är inte så långt före i dessa tester. Men med 4-8 texturer blir skillnaden större, vilket antyder bristen på textureringshastighet hos GF100 för att alltid ligga före konkurrenten i äldre spelapplikationer. Låt oss titta på samma resultat i fyllnadstestet:

Det andra syntetiska testet visar fyllningshastigheten, och i det ser vi samma situation, men med hänsyn till antalet pixlar som skrivs till rambufferten. Det maximala resultatet kvarstår med AMD-lösningar, som har ett större antal TMU:er och är mer effektiva för att uppnå hög effektivitet i vårt syntetiska test. I fall med 0-3 överlagrade texturer är skillnaden mellan lösningarna mycket mindre, i sådana lägen begränsas prestandan av bandbredd, först och främst.

Direct3D 9: Pixel Shaders tester

Den första gruppen av pixelshaders som vi överväger är mycket enkel för moderna videochips; den innehåller olika versioner av pixelprogram med relativt låg komplexitet: 1.1, 1.4 och 2.0, som finns i äldre spel.

Testerna är väldigt, väldigt enkla för moderna arkitekturer och visar inte alla möjligheter hos moderna GPU:er, men de är intressanta för att bedöma balansen mellan texturprover och matematiska beräkningar, speciellt när man byter arkitektur, vilket hände den här gången för Nvidia.

I dessa tester begränsas prestandan främst av texturmodulernas hastighet, men med hänsyn till effektiviteten hos block och cachning av texturdata i verkliga uppgifter. Låt oss se hur förändringarna i arkitekturen påverkade oss jämfört med GT200? Det är tydligt att arkitekturen har förändrats, och det nya GTX kort 480 presterar bättre än ett enchipskort baserat på den tidigare arkitekturen. Dessutom, i de flesta tester kommer GTX 480 ikapp GTX 295 med dubbla chip, vilket inte är dåligt i sig.

Minnesbandbredden i dessa tester begränsar bara de nya lösningarna något, och hastigheten är beroende av texturering, vilket hindrar det GF100-baserade kortet från att prestera även på nivån för Radeon HD 5870, än mindre AMD:s lösning med dubbla chip. Grafikkort baserade på Nvidia-chips ligger klart efter i denna uppsättning tester, vilket är en väckarklocka för våra andra tester, där textureringshastigheten är viktig. Låt oss titta på resultaten av något mer komplexa program för mellanliggande pixlar:

I tester av pixel shaders version 2.a är allt ännu värre jämfört med konkurrenternas hastighet. Det mycket textureringshastighetsberoende procedurvattenrenderingstestet "Water" använder beroende provtagning från mycket kapslade texturer, och kartor rankas alltid efter textureringshastighet, men justeras för varierande TMU-effektivitet.

Kort baserade på RV870-chips visar maximala resultat, men hastigheten på GTX 480 låg någonstans mellan single-chip- och dual-chip-modeller på GPU:er av den tidigare arkitekturen. Det är naturligtvis lite svagt, men det är åtminstone snabbare än GTX 285, vilket indikerar en mer effektiv användning av de tillgängliga TMU:erna.

Resultaten av det andra testet är nästan desamma, även om det är mer beräkningsintensivt och alltid passade bättre för AMD-arkitekturen med fler beräkningsenheter. Moderna AMD-lösningar ligger långt fram här, särskilt versionen med dubbla chip.

GTX 480 överträffar GTX 285 med endast 25 %, och släpar efter dubbelchipsmodellen med nästan lika mycket. Detta pekar tydligt på prestandabegränsningen hos GTX 480 på grund av det låga antalet TMU:er jämfört med nästa generations arkitektur. Våra farhågor bekräftas i form av den största nackdelen med GF100-arkitekturen.

Direct3D 9: pixel shader testar Pixel Shaders 2.0

Dessa DirectX 9 pixel shader-tester är mer komplexa än de tidigare, de ligger nära vad vi nu ser i multiplattformsspel, och är indelade i två kategorier. Låt oss börja med de enklare version 2.0 shaders:

  • Parallaxkartläggning en metod för texturkartläggning som är bekant för de flesta moderna spel, som beskrivs i detalj i artikeln.
  • Frysta glas komplex procedur fryst glasstruktur med kontrollerade parametrar.

Det finns två varianter av dessa shaders: de med fokus på matematiska beräkningar och de som föredrar att ta provvärden från texturer. Låt oss överväga matematiskt intensiva alternativ som är mer lovande ur framtida tillämpningar:

Dessa är universella tester som beror på både hastigheten på ALU-enheterna och textureringshastigheten; den övergripande balansen av chipet är viktig i dem. Det kan ses att prestandan för grafikkort i "Frozen Glass" -testet begränsas inte bara av matematik utan också av hastigheten på texturprover. Situationen i den liknar det vi såg lite högre i "Cook-Torrance", men den nya GTX 480 är den här gången mycket närmare GTX 295 med dubbla chip baserat på GPU:n i den gamla Nvidia-arkitekturen. Å andra sidan är även single-chip HD 5870 fortfarande långt framme.

I det andra testet "Parallax Mapping" är resultaten återigen väldigt lika de tidigare. Den här gången gick dock inte HD 5870 lika långt före Nvidia-korten som i det första testet. Vi får se vad som händer härnäst, men spel är vanligtvis mer mångfacetterade än syntetmaterial och förlitar sig inte så självklart på enbart texturering. Men fortfarande, för sådana föråldrade uppgifter, är antalet texturmoduler i GF100 helt klart otillräckligt. Låt oss överväga samma test, modifierade med en preferens för prover från texturer framför matematiska beräkningar, för att vara helt övertygade om våra mellanliggande slutsatser:

Bilden är något liknande, men AMD-kort klarar klart bättre texturprover, speciellt dual-chip HD 5970 är bra här! Dagens hjälte i form av GTX 480 visar återigen ett genomsnittligt resultat mellan GTX 285 och GTX 295, eftersom betoningen av prestanda på hastigheten hos texturenheter är ännu tydligare, och antalet av dem i GF100 är fortfarande helt klart otillräcklig för den nya kraftfulla grafikarkitekturen.

Men det här var föråldrade uppgifter, med tonvikt på texturering, och inte särskilt komplexa. Nu ska vi ta en titt på resultaten av ytterligare två pixel shader-tester version 3.0, det mest komplexa av våra pixel shader-tester för Direct3D 9, som är mycket mer indikativa för moderna exklusiva spel på PC. Testerna skiljer sig åt genom att de lägger en större belastning på både ALU- och texturmodulerna; båda shader-programmen är komplexa och långa och inkluderar ett stort antal grenar:

  • Brant parallaxkartläggning en mycket mer "tung" version av parallaxkartläggningstekniken, som också beskrivs i artikeln.
  • Päls processuell shader som gör päls.

Till sist! Det här är en helt annan sak. Båda PS 3.0-testerna är väldigt komplexa, beror inte alls på minnesbandbredd och texturering, de är rent matematiska, men med ett stort antal övergångar och förgreningar, vilket den nya GF100-arkitekturen verkar klara väldigt bra.

I dessa tester visar GTX 480 sin verkliga styrka och överträffar alla lösningar förutom den nya dual-chip från sin konkurrent. Dessutom är GTX 295 nästan dubbelt så långsam i dessa mest komplexa tester, och GTX 285 är till och med tre gånger långsammare! Resultaten påverkades tydligt av den nya grafikprocessorns arkitekturförändringar för att förbättra datoreffektiviteten.

Så med den nya GF100-arkitekturen noterar vi en mycket stor ökning av prestanda i de mest komplexa PS 3.0-testerna. Där det viktigaste inte är den maximala matematiska kraften som AMD-lösningar har, utan effektiviteten i att exekvera komplexa shader-program med övergångar och förgreningar. Jo, den fördubblade matematiska kraften, jämfört med GT200, hade också effekt. Ett mycket bra resultat, eftersom att gå om AMD-arkitekturlösningen, som har ett större antal ALU-exekveringsenheter, är värt mycket.

Direct3D 10: PS 4.0 pixel shader-tester (texturering, loopar)

Den andra versionen av RightMark3D inkluderade två välbekanta PS 3.0-tester för Direct3D 9, som skrevs om för DirectX 10, samt ytterligare två nya tester. Det första paret lade till möjligheten att möjliggöra självskuggning och shader supersampling, vilket ytterligare ökar belastningen på videochips.

Dessa tester mäter prestandan hos pixelskuggare som körs i cykler, med ett stort antal texturprover (i det tyngsta läget, upp till flera hundra sampel per pixel) och en relativt liten ALU-belastning. Med andra ord mäter de hastigheten för texturprover och effektiviteten hos grenar i pixelskuggningen.

Det första testet av pixelshaders kommer att vara Fur. Som mest låga inställningar den använder 15 till 30 texturprover från höjdkartan och två prover från huvudtexturen. Effektdetaljläget "High" ökar antalet samplingar till 40-80, inkluderingen av "shader" supersampling upp till 60-120 sampel, och "Hög"-läget tillsammans med SSAA kännetecknas av maximal "tyngd" från 160 till 320 prover från höjdkartan.

Låt oss först kontrollera lägena utan supersampling aktiverad; de är relativt enkla, och förhållandet mellan resultat i lägena "Låg" och "Hög" bör vara ungefär densamma.

Prestanda i detta test beror både på antalet och effektiviteten av TMU-block, och på fyllningshastigheten med bandbredd i mindre utsträckning. Resultaten i "Hög" är ungefär en och en halv gång lägre än i "Låg", som det borde vara enligt teorin. I Direct3D 10-tester av procedurmässig pälsrendering med ett stort antal texturprover är Nvidias lösningar traditionellt starka, men den senaste AMD-arkitekturen har redan kommit nära dem.

GTX 480 är nästan en tredjedel snabbare än GTX 285, men hamnar under GTX 295, vilket vi också såg i DX9-tester. Detta talar mer om påverkan av fyllningshastighet och minnesbandbredd, där den nya Nvidia-lösningen har en fördel jämfört med singelchipskortet i den tidigare serien. Hastigheten på GF100 är ungefär densamma i förhållande till de två korten baserade på RV870. Låt oss titta på resultatet av samma test, men med shader supersampling aktiverad, vilket ökar arbetet med fyra gånger, kanske i den här situationen kommer något att förändras, och minnesbandbredd med fyllningshastighet kommer att ha mindre effekt:

Att aktivera supersampling ökar teoretiskt belastningen med fyra gånger, och den här gången tappar GeForce GTX 480 mark, konstigt nog. Och båda Radeonerna blir lite starkare. Skillnaden mellan GTX 480 och GTX 285 är mycket liten, vilket med största sannolikhet indikerar en betoning på texturering. Eller bandbredd, som inte ökade för mycket för GTX 480 jämfört med GTX 285. Effekten av ALU-prestanda och effektiv filialexekvering är tydligt inte synlig i detta test.

Det andra testet, som mäter prestandan hos komplexa pixelshaders med slingor med ett stort antal texturprover, kallas Steep Parallax Mapping. Vid låga inställningar använder den 10 till 50 texturprover från höjdkartan och tre prover från huvudtexturerna. När du aktiverar tungt läge med självskuggning fördubblas antalet sampel och supersampling fyrdubblar detta antal. Det mest komplexa testläget med supersampling och självskuggning väljer från 80 till 400 texturvärden, det vill säga åtta gånger fler än det enkla läget. Låt oss först kontrollera enkla alternativ utan supersampling:

Detta test är mer intressant ur praktisk synvinkel, eftersom varianter av parallaxkartläggning har använts i spel under lång tid, och tunga varianter, som vår branta parallaxkartläggning, används i många projekt, till exempel i Crysis och Lost Planet. Dessutom kan du i vårt test, förutom supersampling, aktivera självskuggning, vilket ungefär fördubblar belastningen på videochippet; detta läge kallas "Hög".

Diagrammet upprepar nästan helt det föregående och visar liknande resultat även i absoluta tal. I den uppdaterade D3D10-versionen av testet utan supersampling klarar GTX 480 uppgiften lite bättre än singelchipstoppen från föregående generation, men släpar efter kortet med dubbla chip GTX 295. Även det nya grafikkortet GF100 ligger något före sin rival HD 5870, vars version med dubbla chip blir vinnaren i absoluta tal.

Låt oss se vilken skillnad det kommer att göra när du aktiverar supersampling; det orsakar alltid en något större hastighetsminskning på Nvidia-kort.

När supersampling och självskuggning är aktiverade blir uppgiften svårare; att aktivera båda alternativen tillsammans ökar belastningen på korten med nästan åtta gånger, vilket orsakar en stor prestandasänkning. Skillnaden mellan hastighetsindikatorerna för flera grafikkort har förändrats, införandet av supersampling har samma effekt som i det tidigare fallet - AMD-kort har klart förbättrat sin prestanda jämfört med Nvidia-lösningen.

Båda korten med dubbla chip ligger kvar före GTX 480, men den här gången ligger den nya lösningen något efter sin direkta konkurrent HD 5870. Det verkar som att så kommer att bli fallet i speltester – på vissa ställen kommer GTX 480 att ligga långt före, och i andra blir det lite efter . Kortet på GF100 överträffar dock åtminstone sin föregångare, märkbart i enkelt läge, och bara lite i tungt läge. Arkitektoniska förändringar i Nvidias nya GPU gav tyvärr ingen större fördel i dessa tester.

Direct3D 10: PS 4.0 Pixel Shader Tester (Compute)

Nästa par pixel shader-test innehåller ett minsta antal texturhämtningar för att minska prestandapåverkan från TMU-enheterna. De använder ett stort antal aritmetiska operationer, och de mäter exakt den matematiska prestandan hos videochips, hastigheten för exekvering av aritmetiska instruktioner i en pixelskuggare.

Första matteprovet Mineral. Detta är ett komplext procedurmässigt textureringstest som bara använder två exempel på texturdata och 65 sin- och cos-instruktioner.

Men i mattetest bör vi se stora förändringar, eftersom GF100 GPU har dubbelt så mycket ALU-effekt som GT200. Teoretiskt sett borde dock AMD-lösningar vara ännu snabbare i våra syntetiska tester, eftersom den moderna AMD-arkitekturen i beräkningsmässigt komplexa uppgifter har en klar fördel gentemot sina konkurrenter från Nvidia. Situationen är bekräftad även denna gång, även om det nya GTX 480-kortet har minskat gapet mellan Nvidia- och AMD-kort, är det fortfarande mer än en och en halv gånger.

Men jämförelsen med GTX 285 och GTX 295 visade sig vara intressant. Den här gången misslyckades Nvidia med att uppnå vare sig en tvåfaldig skillnad från det tidigare single-chip-kortet eller att gå om det gamla dual-chip-kortet från föregående generation. Slutsatsen bekräftas att detta test inte är helt beroende av ALU:ns hastighet, men resultaten kan inte tillskrivas skillnaden i bandbredd. GF100 uppnådde endast en ökning på 38 % jämfört med GTX 285, vilket är väldigt konstigt och väldigt, väldigt litet, som det verkar för oss.

Låt oss titta på det andra shaderberäkningstestet, som kallas Fire. Det är tyngre för en ALU, och det finns bara en texturhämtning, och antalet sin- och cos-instruktioner har fördubblats till 130. Låt oss se vad som har förändrats med ökande belastning:

I det andra testet begränsas renderingshastigheten nästan uteslutande av prestandan hos shader-enheterna, men ändå är skillnaden mellan GTX 285 och GTX 480 för liten – bara 58 %, även om den teoretiskt sett borde vara närmare en dubbel skillnad. Men den nya lösningen kom åtminstone ikapp med dubbla chip GTX 295, till skillnad från det tidigare testet. Konkurrenter som Radeon HD 5870 och ännu mer HD 5970 visar dock hastigheter som är ännu mycket högre i detta test.

Låt oss sammanfatta matematiska D3D10-testerna. Alla Nvidia grafikkort ligger långt efter, till och med nya GF100 är nästan dubbelt så långsam som sin konkurrent när det gäller syntetiska toppuppgifter! Och allt detta trots att GTX 480 teoretiskt sett är nästan dubbelt så snabb som enkelchipsversionen av GTX 285. Verkligheten visar en mycket lägre siffra, och det gick inte ens att komma nära AMD-kort med enkla matematiska tester från Nvidia.

Generellt sett förblir resultatet av extrema matematiska beräkningar oförändrat även denna gång, det finns en klar och obestridlig fördel med AMD:s lösningar, som inte har förändrat produktionen av GTX 400-linjen. Låt oss titta på resultaten av att testa geometriskuggningar, det är där den nya lösningen borde vara starkare än något annat.

Direct3D 10: geometriskuggningstest

RightMark3D 2.0-paketet har två geometriska shader-hastighetstester, det första alternativet kallas "Galaxy", en teknik som liknar "point sprites" från tidigare versioner av Direct3D. Den animerar ett partikelsystem på GPU:n, en geometriskuggare från varje punkt skapar fyra hörn som bildar en partikel. Liknande algoritmer bör användas i stor utsträckning i framtida DirectX 10-spel.

Att ändra balanseringen i geometriskuggningstester påverkar inte det slutliga renderingsresultatet, den slutliga bilden är alltid exakt densamma, bara metoderna för att bearbeta scenen ändras. Parametern "GS load" bestämmer i vilken shader beräkningarna utförs: vertex eller geometri. Antalet beräkningar är alltid detsamma.

Låt oss titta på den första versionen av Galaxy-testet, med beräkningar i vertex shader, för tre nivåer av geometrisk komplexitet:

Förhållandet mellan hastigheter för olika geometriska komplexiteter av scener är ungefär detsamma för alla lösningar, prestanda motsvarar antalet poäng, med varje steg sjunker FPS med ungefär två gånger. Uppgiften för moderna grafikkort är inte särskilt svår, och prestanda i allmänhet begränsas av hastigheten för geometribearbetning och begränsas inte av minnesbandbredd.

Det är här den nya grafikprocessorn visar sin verkliga styrka. Geforce GTX 480 i alla lägen visar resultat nära konkurrentens dual-chip-lösning, och är en och en halv gång snabbare än både HD 5870 och dual-chip-kortet baserat på GT200. Utmärkt resultat! Som väntat är GF100:s utförande av geometriskuggningar väldigt, väldigt effektivt, cirka 2,5 gånger snabbare än vad GT200 kan. Låt oss se om situationen förändras när vi överför en del av beräkningarna till geometriskuggningen:

Nej, siffrorna förändrades inte mycket när belastningen ändrades i detta test. Alla kort i detta test märker inte förändringar i GS-belastningsparametern, som är ansvarig för att överföra en del av beräkningarna till geometriskuggningen, och visar resultat som liknar föregående diagram. Låt oss se vad som kommer att förändras i nästa test, som förutsätter en stor belastning på geometriskuggare.

"Hyperlight" är det andra testet av geometriskuggare, som visar användningen av flera tekniker samtidigt: instansering, strömutgång, buffertbelastning. Det använder dynamiskt skapande geometri genom att dra in i två buffertar, samt ny möjlighet Direct3D 10-strömutgång. Den första shadern genererar strålarnas riktning, hastigheten och riktningen för deras tillväxt, dessa data placeras i en buffert, som används av den andra shadern för att rita. För varje punkt i strålen byggs 14 hörn i en cirkel, upp till en miljon utgångspunkter totalt.

En ny typ av shader-program används för att generera "strålar", och med parametern "GS load" inställd på "Heavy" även för att rita dem. Det vill säga, i läget "Balanserat" används geometriskuggning endast för att skapa och "växa" strålar, utmatningen utförs med "instancing", och i läget "Tung" är geometriskuggningen också involverad i utmatningen. Först tittar vi på det enkla läget:

Båda konfigurationerna med dubbla kretsar fungerade som vanligt i det här testet, GeForce GTX 295 och Radeon HD 5970. Tydligen är detta test inkompatibelt med AFR-multichips-renderingsmetoden överhuvudtaget. Annars motsvarar de relativa resultaten i olika lägen belastningen: i alla fall skalar prestanda väl och ligger nära teoretiska parametrar, enligt vilka varje efterföljande nivå av "Polygonantal" ska vara mindre än dubbelt så långsam.

I det här testet är prestandan för nya GeForce GTX 480 bara något snabbare än Radeon HD 5870 i hårt läge, men i enkelt läge är skillnaden mer märkbar. Att jämföra GTX 480 med GTX 285 baserat på den tidigare generationens GPU är generellt sett löjligt; det nya videochippet visar sig vara ungefär dubbelt så snabbt.

Siffrorna bör ändras i nästa diagram, i ett test med mer aktiv användning av geometriskuggningar. Det kommer också att vara intressant att jämföra resultaten som erhålls i "Balanced" och "Heavy" lägen med varandra.

Det är dags att återigen bli förvånad över GF100:s geometribearbetningsmöjligheter och hastigheten för utförande av geometriskuggningar. Detta är exakt resultatet för vilket globala förändringar gjordes i GF100-grafikpipelinen. Även om prestandan för geometriskuggare har förbättrats väl i både GT200 och RV870, sliter GF100 dem helt enkelt sönder i denna uppgift.

Den nya GTX 480 är nästan dubbelt så snabb i detta test som Radeon HD 5870 och upp till 2,75 gånger snabbare än sin föregångare med ett chip, GTX 285. Nvidias ingenjörer försökte förbättra effektiviteten hos den tidigare, och de uppenbarligen lyckats. Alla tidigare lösningar är helt enkelt inte kapabla att utföra geometriskuggningar lika effektivt. Vad kommer att hända i tessellationstesten, som borde visa en ännu större skillnad, baserat på teori? Men låt oss inte se för långt fram.

Direct3D 10: textur hämtar hastighet från vertex shaders

Vertex Texture Fetch-testerna mäter hastigheten för ett stort antal texturhämtningar från vertex shader. Testerna liknar i huvudsak och förhållandet mellan kortens resultat i "Earth"- och "Waves"-testen bör vara ungefär detsamma. Båda testerna är baserade på textursamplingsdata, den enda signifikanta skillnaden är att Waves-testet använder villkorade grenar, medan jordtestet inte gör det.

Låt oss titta på det första "Earth"-testet, först i läget "Effect detail Low":

Tidigare forskning har visat att resultaten av detta test påverkas av både textureringshastighet och minnesbandbredd. Men skillnaden mellan lösningarna är mycket liten. GTX 480 visar liknande resultat som GTX 295 med dubbla chip, ligger något före HD 5870, men är i alla lägen ganska sämre än det kraftfullaste kortet i detta test, Radeon HD 5970. Resultaten är helt klart märkliga ... Låt oss titta på prestandan i samma test med ett ökat antal texturprover:

Kortens relativa position på diagrammet har ändrats något, detta kan ses av de lite sämre indikatorerna på nästan alla kort. Förutom GTX 480 vi överväger idag.Den har nästan inte förlorat någon prestanda jämfört med samma test under ljusförhållanden. Detta är vad det betyder: ökad effektivitet för texturmoduler och speciellt caching-subsystemet. Nu är det nya GF100-kortet snabbast vid medelhöga och höga polygonantal och i paritet med dubbla chipkort i det enklaste läget.

Låt oss titta på resultaten av det andra testet av texturhämtningar från vertex shaders. Waves-testet har ett mindre antal sampel, men det använder villkorliga hopp. Antalet bilinjära texturprover i detta fall är upp till 14 ("Effektdetalj låg") eller upp till 24 ("Effektdetalj hög") per vertex. Geometrins komplexitet ändras på samma sätt som det tidigare testet.

Intressant är att resultaten i Waves-testet inte liknar det vi såg i de tidigare diagrammen. Fördelen med AMD-produkter har ökat något, och nu visar GTX 480 prestanda som liknar HD 5870 och GeForce GTX 295, och tappar något mot sin konkurrent i tungt läge. Den tidigare toppmoderna Nvidia-lösningen på ett enda chip är kvar, den nya modellen av GeForce GTX 400-familjen ligger före den, om än inte nämnvärt. Låt oss överväga den andra versionen av samma test:

Återigen finns det nästan inga förändringar, även om när förhållandena ökade i komplexitet blev resultaten av den senaste Nvidia GPU:n i det andra vertexprovet något bättre i förhållande till hastigheten på AMD-grafikkort. Fördelen jämfört med HD 5870, även om den är liten, finns där, och det nya enchipskortet klarade GeForce GTX 295, med undantag för det enklaste läget.

3DMark Vantage: Funktionstester

I denna recension Vi har återigen beslutat att inkludera syntetiska riktmärken från 3DMark Vantage-sviten. Även om paketet inte längre är nytt stödjer dess funktionstester D3D10 och är intressanta eftersom de skiljer sig från våra. När vi analyserar resultaten av den nya Nvidia-lösningen i detta paket kommer vi att kunna dra några nya och användbara slutsatser som gäckade oss i RightMark-familjen av tester.

Funktionstest 2: Färgfyllning

Fyllningstest. Använder en mycket enkel pixel shader som inte begränsar prestanda. Det interpolerade färgvärdet skrivs till en buffert utanför skärmen (återgivningsmål) med hjälp av alfablandning. 16-bitars off-screen buffert i FP16-formatet används, vilket oftast används i spel som använder HDR-rendering, så det här testet är ganska lägligt.

Prestandasiffrorna i det här testet matchar inte vad vi har sett i våra liknande tester, även med tanke på de olika formaten: vårt använder en 8-bitars per-komponent heltalsbuffert, medan Vantage-testet använder 16-bitars flyttal. Vantages siffror visar inte prestanda för ROP-enheter, utan snarare det ungefärliga värdet på minnesbandbredd. För kort med dubbla chip är allt något mer komplicerat, GTX 295 visar en lägre siffra än den borde.

Testresultaten motsvarar ungefär teoretiska siffror och beror på minnesbussens bredd, dess typ och frekvens. GTX 285 visar ett bra resultat på grund av användningen av 512-bitars minne, och GTX 480 är inte alltför före det på grund av det faktum att GDDR5-minnet inte arbetar med en särskilt hög frekvens, och minnesbussens bredd motsvarar till 384-bitars. Nåväl, Radeon HD 5870 är också någonstans i närheten, även om den bara har en 256-bitars minnesbuss, men GDDR5 är ganska snabb.

Trots användningen av GDDR5-minne med högre bandbredd visar den nya Nvidia-lösningen tillsammans med HD 5870 resultat endast något högre än GTX 285, som har en 512-bitars buss och GDDR3-minne. Detta kan fungera som en potentiell prestandabegränsning när du använder renderingsbuffertar i FP16-formatet, vilket är allmänt observerat i moderna spel.

Funktionstest 3: Parallaxocklusionskartläggning

En av de mest intressanta funktionstesten, eftersom en liknande teknik redan används i spel. Den ritar en fyrhörning (mer exakt, två trianglar), med hjälp av en speciell parallaxocklusionskartläggningsteknik som simulerar komplex geometri. Ganska resurskrävande strålspårningsoperationer och en högupplöst djupkarta används. Denna yta är också skuggad med en tung Strauss-algoritm. Detta är ett test av en mycket komplex och tung pixelshader för ett videochip, som innehåller många texturprover under strålspårning, dynamisk förgrening och komplexa ljusberäkningar enligt Strauss.

Testet skiljer sig från andra genom att det inte bara beror på shaderkraft, grenutförandeeffektivitet och texturhämtningshastighet separat, utan på lite av allt. Och för att uppnå hög hastighet är en ordentlig balans mellan GPU och videominnesblock viktig. Det påverkar i hög grad testet och effektiviteten av förgrening i shaders.

Tyvärr visar GTX 480 ett mediokert resultat i detta test, endast 23% snabbare än den tidigare enchipslösningen GTX 285. Nvidia-grafikkortet som introducerades idag ligger efter både GTX 295 med dubbla chip och dess huvudkonkurrent Radeon HD 5870, och dual-chip HD 5970 förblev helt utom räckhåll.

Det är inte särskilt tydligt vad som hade en sådan negativ inverkan på resultatet av detta test. Kanske är det mitt fel låg hastighet texturprover, som används aktivt i testet, eftersom förgreningseffektiviteten hos GF100 är ganska hög, vilket bevisades av våra tester av pixelshaders i den tredje versionen. Nvidias lösningar har alltid varit effektiva i det här testet, men HD 5870 överträffar även den nya GTX 480. Kanske kommer GF100 att visa sig från sin bästa sida i fysiksimuleringstester?

Funktionstest 4: GPU-tyg

Testet är intressant eftersom det beräknar fysiska interaktioner (tygimitation) med hjälp av ett videochip. Vertex-simulering används, med hjälp av det kombinerade arbetet med vertex- och geometriskuggare, med flera pass. Använd stream out för att överföra hörn från ett simuleringspass till ett annat. Sålunda testas exekveringsprestandan hos vertex- och geometriskuggare och utströmningshastigheten.

Du kan omedelbart kassera prestandan för kort med dubbla chip; de motsvarar tydligt hastigheten hos deras motsvarigheter med ett chip (varje chip i HD 5970 och GTX 295 arbetar med en lägre frekvens än i HD 5870 och GTX 285). Återgivningshastigheten här beror på prestandan för geometribearbetning och utförandet av geometriskuggningar. I det här testet presterar även GTX 285 bra, bara något efter HD 5870, och det nya GTX 480-kortet visade återigen sina styrkor.

I det här testet är GF100 nästan dubbelt så produktiv som den tidigare lösningen, vilket är en bra matchning för det nya chipets dubbelt så höga shaderkraft. Fördelen gentemot konkurrerande Radeon HD 5870 är lika imponerande. I allmänhet kan vår dagens hjälte tilldelas statusen som en ledare i implementeringen av geometriskuggningar och hastigheten för geometribearbetning i allmänhet, som det borde vara enligt teorin.

Funktionstest 5: GPU-partiklar

Test av fysisk simulering av effekter baserat på partikelsystem beräknade med hjälp av ett videochip. Vertex-simulering används också, varje vertex representerar en enda partikel. Stream out används för samma ändamål som i föregående test. Flera hundra tusen partiklar beräknas, alla är animerade separat, och deras kollisioner med höjdkartan beräknas också. I likhet med ett av våra RightMark3D 2.0-tester renderas partiklar med en geometriskuggare som skapar fyra hörn från varje punkt för att bilda en partikel. Men testet belastar mest av allt shader-enheter med vertexberäkningar, stream out testas också.

Det finns ett ännu starkare resultat. I Vantages syntetiska tyg- och partikelsimuleringstester, som använder geometriskuggare, lämnar det nya GF100-chippet helt enkelt alla sina rivaler i dammet. Den här gången är den nästan tre gånger snabbare än den tidigare Nvidia GPU:n, medan konkurrerande Radeon HD 5870 presterar ungefär hälften så bra i partikelsimuleringstestet.

Multi-chip-resultaten är återigen desamma för både AMD- och Nvidia-korten, multi-chip-renderingsmetoden fungerar uppenbarligen inte, eftersom beräkningsresultaten för den aktuella ramen används i nästa, vilket förhindrar att den börjar bli beräknas innan återgivningen av den aktuella är klar. Detta är en uppenbar svaghet hos kort med dubbla chip, de kan inte fungera effektivt när data från det föregående används i en ram.

Funktionstest 6: Perlin Noise

Det sista funktionstestet av Vantage-paketet är ett matematiskt intensivt test av videochippet, det beräknar flera oktaver av Perlin-brusalgoritmen i pixelskuggningen. Varje färgkanal använder sin egen brusfunktion för att belasta videochippet mer. Perlin-brus är en standardalgoritm som ofta används i processuell texturering och använder mycket matematik.

Ett matematiskt funktionstest från Futuremarks testpaket visar den rena prestandan hos videochips vid extrema uppgifter. Prestandan som visas i den överensstämmer väl med vad som bör erhållas enligt teorin, och motsvarar delvis vad vi såg ovan i våra egna matematiska test från RightMark 2.0. Men i detta test är skillnaden mellan lösningarna ännu större.

Så i detta matematiska test överträffade GTX 480 baserad på nya GF100 slutligen GTX 285 med exakt hälften, vilket är i linje med teorin. Men gapet mellan den nya lösningen och HD 5870 visade sig vara för stort – 1,7 gånger. Vi överväger ännu inte dual-chip HD 5970...

Generellt sett överträffar AMD-grafikkort naturligtvis sina Nvidia-konkurrenter i detta test, men den nya lösningen baserad på grafikprocessorn Nvidia GF100 kunde ändå komma nära den. Som en påminnelse är detta mattetest ganska okomplicerat och är utformat för att visa prestanda nära den teoretiska toppen. I mer komplexa beräkningstest, som fysiska beräkningar, framträder en något annorlunda bild. Men enkel men intensiv matematik utförs mycket snabbare på AMD-kort.

Direct3D 11: Compute and Geometry Shaders

För att testa nya lösningar från Nvidia och AMD i uppgifter som använder funktionerna i DirectX 11 använde vi prover från utvecklingssatser (SDK) från Microsoft, AMD och Nvidia, samt några demoprogram från dessa företag.

Låt oss först titta på tester som använder en ny typ av shader - Compute. Deras utseende är en av de viktigaste innovationerna i de senaste versionerna av DX API; de används för olika uppgifter: efterbearbetning, simuleringar, etc. Det första testet visar ett exempel på HDR-rendering med tonmappning från DirectX SDK med efterbearbetning med pixel eller beräkningsskuggning.

Vi måste erkänna den klara segern för AMD:s enchipslösning över det nya Nvidia Geforce GTX 480 grafikkortet i detta test. Styrelsen tillkännagav idag om det nya GF100-chippet ligger efter konkurrerande Radeon HD 5870 i både pixel- och datorskuggningslägen. Dessutom är fördröjningen ganska märkbar – upp till en och en halv gång. Dual-chip HD 5970 har bara en GPU igång i detta test, så resultatet är ännu lägre än HD 5870.

Det andra compute shader-testet är också hämtat från Microsofts DirectX SDK och visar ett beräkningsmässigt N-kropps gravitationsproblem, som simulerar ett dynamiskt partikelsystem som är föremål för fysiska krafter som gravitation.

Och i detta datortest förlorar Nvidias nya lösning återigen till sin närmaste konkurrent, Radeon HD 5870. I det här fallet med cirka 25 %, vilket också är ganska mycket. Dual-chip HD 5970 kan återigen inte visa sina kapaciteter och är begränsad till driften av en av de två GPU:erna installerade på kortet.

Nästa test är ett demoprogram från Nvidia som heter Realistic Character Hair. Den använder inte rent syntetisk kod för beräknings- eller geometriskuggningar, utan ett komplex av geometri- och beräkningsskuggningar och tessellationer, så det är något närmare verkliga problem än den rena syntesen i de två första testerna.

Men i det här testet visar den nya Nvidia GPU:n ett utmärkt resultat, betydligt före Radeon HD 5870 med ett chip och HD 5970 med dubbla chip, vars andra GPU återigen misslyckades. Samtidigt är det intressant inte bara skillnaden i prestanda mellan single-chip-kort upp till 1,5-1,8 gånger, utan också deras olika beteende när hårdvara tessellation är aktiverad.

I det här fallet accelererar det nya Geforce GTX 480 grafikkortet baserat på GF100-chippet med 15 % när tessellation är aktiverad, medan AMD-lösningen baserad på RV870 saktar ner med nästan 5 %. Med andra ord, i det här fallet är tessellation fördelaktigt för Nvidias lösning, men inte för AMD. Tydligen påverkar den geometriska transportörens olika organisation prestandan som vi nu går vidare till.

Direct3D 11: Tessellation Performance

Den viktigaste innovationen i Direct3D 11 anses vara hårdvara tessellation. Vi tittade på det mycket detaljerat i vår teoretiska artikel om Nvidia GF100. Det finns flera olika scheman för att partitionera grafiska primitiver (tessellation). Till exempel phong tessellation, PN-trianglar, Catmull-Clark-underavdelning.

Tessellation har redan börjat användas i de första DirectX 11-spelen, såsom STALKER: Call of Pripyat, DiRT 2, Aliens vs Predator, Metro 2033. I vissa av dem används tessellation för karaktärsmodeller (alla FPS-spel listade), i andra för simulering av realistisk vattenyta (DiRT 2). PN Triangles-schemat används i STALKER: Call of Pripyat, i Metro 2033 Phong tessellation. Dessa metoder implementeras relativt snabbt och enkelt i spelutvecklingsprocessen och befintliga motorer, vilket är vad som har gjorts.

Vårt första tessellation-test kommer att vara Detail Tessellation-exemplet från ATI Radeon SDK. Egentligen visar den inte bara tessellation, utan också två olika bumpmapping-tekniker: vanlig normal kartöverlagring och parallaxocklusionskartering. Tja, låt oss jämföra DirectX 11-lösningar från Nvidia och AMD under olika förhållanden:

Den första slutsatsen antyder sig själv är följande: kartläggningstekniken för pixel-för-pixel parallaxocklusion (mittstaplarna i diagrammet) på både GeForce GTX 480 och RADEIN HD 5870 utförs mindre effektivt än tessellation (nedre staplarna). Det vill säga att simulera geometri med hjälp av pixelberäkningar ger lägre prestanda än verklig geometri som renderas med tessellation. Det här handlar om utsikterna för tessellation där parallaxkartläggning för närvarande används.

Därefter angående prestanda för GTX 480- och AMD-korten i förhållande till varandra. Dual-chip HD 5970 är före single-chip alternativ, vilket är förståeligt. Men GTX 480 är 5-15 % före HD 5870. Mer med tessellation aktiverat, mindre med beräkningar per pixel. Vad vi förväntar oss är att i spel som endast stöder DX9 eller DX10 så borde skillnaden mellan GTX 480 och HD 5870 också vara mindre än i DX11-spel med tessellation.

Det andra tessellationsprestandatestet vi kommer att ha är ett annat exempel för 3D-utvecklare från ATI Radeon SDK PN Triangles. Egentligen ingår båda exemplen också i DX SDK, så många spelutvecklare kommer att skapa sin kod baserat på dem. Vi testade det här exemplet med olika tessellationsfaktorer för att förstå hur stor inverkan förändringar har på den övergripande prestandan.

Det här exemplet är kanske första gången vi har sett den verkliga geometriska kraften hos GF100:s grafikarkitektur. Ja, detta är bara ett syntetiskt test och sådana extrema partitioneringsfaktorer kommer sannolikt inte att användas till en början. Men det är därför syntetmaterial behövs för att hjälpa till att bedöma möjligheterna till lösningar i framtida problem.

Och Geforce GTX 480 här visar perfekt vad GF100 är kapabel till i tessellationsuppgifter. Enstaka chip är många gånger snabbare än konkurrentens dual-chip kort. Fördelen jämfört med HD 5970 når fyra gånger, och single-chip HD 5870 besegras med en helt enkelt förödande poäng i detta test. I huvudsak tillåter GF100 flera stopp mer tessellation än RV870. Detta är vad det innebär att ha en arkitektur som är speciellt utformad för att ta hänsyn till kapaciteten hos det nya tessellation API.

Men låt oss titta på en annan testdemo Nvidia-programmet Realistisk vattenterräng, även känd som Island. Förresten, författaren till detta program är Timofey Cheblokov aka Smalltim, känd för 3D-entusiaster. Hans Island-demo använder tessellation och förskjutningskartläggning för att återge havsytor och terräng med realistiskt utseende. Hon ser bara bra ut:

I allmänhet är Island inte ett rent syntetiskt test för tessellation, utan innehåller ganska komplexa pixel- och beräkningsskuggningar, så skillnaden i prestanda kan vara mindre än i föregående fall, men denna position kommer att vara närmare verkligheten.

I det här fallet testade vi demon vid fyra olika tessellationsförhållanden, här kallas denna inställning för Dynamic Tessellation LOD. Om GF100-kortet vid den lägsta partitionsfaktorn bara är något före single-chip-versionen från AMD, och till och med sämre än HD 5970, då med en ökning av partitioneringsfaktorn och den resulterande scenkomplexiteten, prestandan hos GTX 480 minskar inte lika mycket som renderingshastigheten för konkurrerande lösningar.

Som ett resultat har vi återigen en situation där GF100-chippet i den nya Nvidia-grafikarkitekturen ger tessellationsprestanda liknande RV870 med väsentligt annorlunda scenkomplexitet. Så, med en maximal LOD-koefficient på 100 i det här programmet, visar GTX 480 samma prestanda som Radeon HD 5870, men med en koefficient på endast 25 , det vill säga flera gånger Mer trianglar (28 miljoner mot 4 miljoner i detta fall). Det är bara en enorm skillnad!

Slutsatser om syntetiska tester

Baserat på resultaten av syntetiska tester av den nya Nvidia Geforce GTX 480-modellen, baserad på GF100-grafikprocessorn, samt resultaten från andra grafikkortsmodeller från stora videochiptillverkare, kan vi dra slutsatsen att detta är en mycket kraftfull Nvidia-grafik arkitektur, som har avsevärt förbättrade prestanda och möjligheter. Nya modeller av grafikkort baserade på GF100 har blivit en av de snabbaste bland alla enchipskort.

Det ökade antalet geometribearbetningsenheter och deras parallella drift har avsevärt förbättrat prestandan för tessellering och geometriskuggning. I syntetiska tessellationsuppgifter har Nvidias nya lösning helt enkelt ingen motsvarighet. Inte ens en lösning med dubbla chip hjälper en konkurrent, och när man jämför grafikkort med en enda GPU överträffar den GF100-baserade lösningen det bästa RV870-baserade kortet i sådana tester med upp till 4-6 gånger. Och fram till lanseringen av en konkurrents arkitektur, speciellt förbättrad för effektiv geometribearbetning, kommer situationen inte att förändras.

Om vi ​​bedömer prestandan i 3D-applikationer utan tessellation, så kan vi anta att det i speltester kommer att vara samma som i våra syntetiska - på vissa ställen kommer GeForce GTX 480 att ligga före sin konkurrent, och på andra ställen. lite efter. Dessutom bör det inte vara för stora förluster, eftersom det inte finns några spel som skulle vara helt begränsade av matematiska beräkningar eller texturhämtningsprestanda - de enda parametrarna som vi har några frågor om GF100-arkitekturen.

I syntetiska tester av tessellation, geometrishaders och fysikberäkningar (simulering av tyger och partiklar i Vantage-paketet, som också använder geometrishaders), är det nya Nvidia GF100-chippet betydligt starkare än andra. Som i andra datortester med komplexa program. Men okomplicerad matematik som rent beräkningstester från RightMark eller Vantage, som förväntat, gick förlorade för AMD-lösningar, och Nvidia har fortfarande ett hyfsat gap. Det visar sig att GF100 har kommit närmare CPU:n i sina funktioner, har blivit ännu mer universell (kom ihåg C++ och cachning som en CPU), men jämfört med RV870 har den något mindre "nummerkrossande" kraft, vilket alltid har utmärkt sig GPU:er från processorer.

Den relativt låga toppberäknings- och texturprestandan som vi noterade i vår artikel leder till en eftersläpning efter konkurrenten i vissa konstgjorda tester, men totalt sett visade GTX 480 mycket anständiga resultat, vilket bör bekräftas i nästa del av vårt material. I den kommer du att bekanta dig med testerna av Nvidias senaste lösning, baserad på den nya GPU:n, i de modernaste spelapplikationerna.

Vi antar att spelresultaten ungefär kommer att motsvara våra slutsatser som gjorts när vi analyserar resultaten av syntetiska tester. Även om det inte kommer att vara en signifikant skillnad, eftersom renderingshastigheten i spel ofta beror på flera egenskaper hos grafikkort samtidigt, och är mycket mer beroende av fyllningshastigheten och minnesbandbredden än syntetiska. Vi tror att GeForce GTX 480 borde vara något före sin enchipskonkurrent Radeon HD 5870 i spel utan tessellation och kommer säkerligen att ligga före i tester som använder den.

Sex månader efter lanseringen av RV870 "Cypress"-grafikprocessorn och ATI Radeon HD 5800-serien med grafikkort baserade på den, kunde NVIDIA äntligen glädja sina fans med lanseringen av den nya "Fermi"-arkitekturen och de två första videorna kort - GeForce GTX 480 och GTX 470, designade för att vara svaret på Radeon HD 5800. För många är den tråkiga väntan över och nu kan vi, baserat på mängden olika artiklar och recensioner, börja bestämma vad vi ska köpa för moderna spel med support för DirectX 11? Lyckligtvis dröjer det fortfarande innan grafikkorten blir tillgängliga för fri försäljning, eftersom de första partierna kommer till butikskedjorna tidigast den 12 april. Trots att vi fick kortet några dagar före det officiella tillkännagivandet, föredrog vi att inte skynda oss att publicera artikeln, utan att genomföra en så detaljerad och noggrann testning som möjligt - det är därför vi presenterar artikeln för din uppmärksamhet bara några dagar efter tillkännagivandet av de nya grafikkorten, men vi hoppas att materialets fullständighet gör att du kan förlåta oss denna lilla försening.

Så välkommen - GeForce GTX 480!

NVIDIA GeForce GTX 480 specifikationer jämfört med konkurrenterna

De tekniska egenskaperna hos NVIDIA GeForce GTX 480 presenteras i tabellen i jämförelse med nuvarande priskonkurrenter och det tidigare GeForce GTX 285 grafikkortet:

Det finns nu mer än tillräckligt med information om Fermi-arkitekturen på Internet, dessutom kan du bekanta dig med officiell dokumentation(2,74 MB). Därför kommer vi omedelbart att gå vidare till granskningen av grafikkortet.

Recension av NVIDIA GeForce GTX 480 1,5 GB grafikkort

Referensen NVIDIA GeForce GTX 480 grafikkort gavs till oss för testning i OEM-konfiguration, det vill säga utan förpackning och tillbehör. För den som är bekant med utseende GeForce GTX 260-285, den nya produkten kommer inte att verka original:


Kanske de fem förnicklade kopparvärmerören som sträcker sig uppåt från GPU:n kan locka uppmärksamhet:


I övrigt sticker inte referensen GeForce GTX 480 ut på något sätt utåt. Det tryckta kretskortets längd är 267 mm, vilket skiljer den nya produkten från sin konkurrent i form av ATI Radeon HD 5870, vars längd är 282 mm och som inte passar in i alla systemenhetsfodral.

Grafikkortet är utrustat med ett PCI-E-gränssnitt version 2.0, två Dual Link DVI-I-utgångar och en HDMI-kontakt, intill ett galler för partiellt utsläpp av luft som värms upp av GPU:n utanför höljet:


Från andra änden av brädet kan man se en öppning, som inte öppnar vägen för luftflöde till turbinen, som man kan anta. Ovanpå grafikkortet finns sex- och åttastiftskontakter för anslutning av ström, samt två MIO-kontakter, för att organisera driften av två GeForce GTX 480 i SLI-läge eller tre i 3-vägs SLI:


Observera att bredvid dessa kontakter finns det ett annat galler genom vilket en del av den varma luften lämnar kylsystemet och därmed stannar kvar inuti systemenhetens hölje. Med tanke på den mycket höga förbrukningen av GeForce GTX 480 (angivna 250 W) och, som ett resultat, värmeavledning, är detta ett obehagligt faktum. Men uppenbarligen hade ingenjörerna som designade detta kylsystem inget annat val.

Plasthöljet på grafikkortets kylsystem hålls fast av spärrar, som enkelt kan lossas:


Att använda alternativa kylare på GeForce GTX 480 tillsammans med en standardplatta för kylning av kraftelement är omöjligt, eftersom det i monteringshålen nära grafikprocessorn finns bussningar på vilka kylsystemens baser kommer att vila och bildar ett 3-4 mm gap mellan basen på kylarna och GPU värmespridaren.

Det är lätt att skruva av kylaren med kylplattan på grafikkortets tryckta kretskortselement, vilket gör att du kan bekanta dig med det senare till fullo:


Alla grafikkorts minneskretsar finns på framsidan av det tryckta kretskortet. Strömvägen för GeForce GTX 480 är en sexfas strömförsörjningskrets för GPU:n, som är baserad på CHL8266-kontrollern, och en tvåfasig för minneschips:


GPU-kristallen, bestående av otroliga 3,2 miljarder transistorer, är täckt med ett värmespridarhölje med markeringar:


Att döma av markeringarna tillhör GPU:n den tredje revisionen (GF100-375-A3) och släpptes under den fjärde veckan av 2010. GPU:n innehåller 480 universella shader-processorer, 60 texturenheter och 48 rasteroperationsenheter (ROPs). Den nominella frekvensen för GPU-geometriblocket är 700 MHz, och dess skuggdomän är dubbelt så hög - 1401 MHz. I 2D-läge reduceras GPU-frekvenserna till 51/101 MHz. Du kan redan se andra egenskaper ovan i specifikationstabellen.

Referensen NVIDIA GeForce GTX 480 är utrustad med 12 GDDR5-videominneschips med en total kapacitet på 1,5 GB, placerade på framsidan av det tryckta kretskortet. Chipsen släpptes av Samsung och är märkta K4G10325FE-HC04:


Baserat på minnesspecifikationerna är dess nominella åtkomsttid 0,4 ns, och den teoretiska effektiva frekvensen är 5000 MHz. Trots detta faktum är GeForce GTX 480-minnesfrekvensen endast 3696 MHz, vilket gör att vi kan hoppas på dess framgångsrika överklockning. För att minska värmeutvecklingen och spara energi, när grafikkortet växlar till 2D-läge, reduceras den effektiva minnesfrekvensen till 270 MHz. Bredden på grafikkortets minnesbussen är 384 bitar, vilket gör att du kan uppnå en imponerande genomströmning på 177,4 GB/sek.

Den nya versionen av GPU-Z-verktyget kan nästan exakt demonstrera egenskaperna hos GeForce GTX 480:


Låt oss gå vidare till att studera grafikkortets kylsystem och kontrollera dess effektivitet. Nyckelelementet i den vanliga GeForce GTX 480-kylaren är GPU-kylflänsen:


Den består av fem kopparvärmerör med en diameter på 6 mm, som ingår i basen (direktkontaktteknik). Rören penetrerar aluminiumfenor som är cirka 0,35 mm tjocka och med ett mellanrum på drygt 1,5 mm. Det bör noteras att kylarens kylare är mycket blygsam. Avståndet mellan rören vid basen är också 1,5 mm. Hela radiatorstrukturen är nickelpläterad.

Mellan GPU:n och HDT-basen på kylarens kylare finns ett tjockt grått termiskt gränssnitt applicerat i överskott:


För kylare med direktkontaktteknik är kvantiteten och kvaliteten på det termiska gränssnittet av större betydelse för att uppnå maximal effektivitet än för kylare med klassisk bas. När vi blickar framåt noterar vi att ta bort den vanliga termiska pastan och ersätta den med minsta möjliga lager av Arctic Cooling MX-3 gjorde det möjligt att sänka topptemperaturen för GPU:n med 3 ° C. I 2D-läge ändrades inte temperaturen.

Den andra komponenten i GeForce GTX 480-kylsystemet är en metallplatta med en turbin installerad på den.


Plattan, genom termiska kuddar, är i kontakt med videominneschips och kraftelement på det tryckta kretskortet. Turbinens rotationshastighet (toppeffekt 21 watt, förresten) justeras automatiskt av grafikkortet beroende på temperaturen. Dess intressanta egenskap är det faktum att hastighetsökningen sker smidigt, men dess minskning efter att lasten har tagits bort är mycket skarp. Ljudet som GeForce GTX 480-kylaren genererar vid hastigheter nära max ger intrycket av att turbinen stängs av, även om så i själva verket inte är fallet. I 2D-läge, när grafikkortets frekvenser reduceras avsevärt, arbetar turbinen med 44-46 % av sin effekt. Vi kommer att berätta om dess ljudnivå i ett av följande avsnitt av dagens material, men för nu ska vi kontrollera hur effektiv standardkylaren GeForce GTX 480 kommer att vara.

För att skapa en laddning och värma upp grafikkortet använde vi det mycket resurskrävande Firefly Forest-testet från det halvsyntetiska 3DMark 2006-paketet med en upplösning på 2560x1600 med anisotropisk filtrering på 16x nivå. Temperaturen på grafikkortets GPU och turbineffekten (i %) övervakades med MSI Afterburner version 1.5.1, som ännu inte fullt ut stöder GeForce GTX 480. Rumstemperaturen under testningen var 25 °C. Testning utfördes i ett slutet systemenhetshus, vars konfiguration du hittar i avsnittet med testmetoder. Testet utfördes innan videokortet demonterades med ett standard termiskt gränssnitt.

Så låt oss titta på temperaturerna på GeForce GTX 480 i automatiskt turbinläge och vid maximal effekt:


Automatisk justering av maxhastighet


Uppenbarligen visade sig grafikkortet vara väldigt varmt. Även med en belastning i form av ett test från 3DMark 2006 nådde GPU-temperaturen snabbt 95 °C, men sedan, tack vare en ökning av turbinhastigheten till 70-78% (~3600 rpm), sjönk den till 91. 92 °C och förändrades inte ytterligare under hela testet. Om du manuellt ställer in turbinen på maximal effekt (~4780 rpm), kommer GPU-temperaturen inte att överstiga 68 °C. Det finns ett mycket stort beroende av radiatoreffektiviteten på turbinens rotationshastighet, vilket först och främst indikerar dess otillräckliga spridningsområde.

Vi kontrollerade också effektiviteten hos referensen GeForce GTX 480 kylare med FurMark version 1.8.0 (med ett omdöpt exe), som lanserades i helskärmsläge med en upplösning på 2560x1600 med 16x nivå anisotropisk filtrering aktiverad i GeForce-drivrutinerna. I automatiskt läge kunde vi observera samma bild som när vi testade i 3DMark 2006, med den enda skillnaden att topptemperaturen först nådde 98 °C, och efter automatisk ökning av turbinhastigheten till 4150 rpm sjönk den till samma 91-92 °C. Tja, vid maximal turbinrotationshastighet erhölls följande resultat:


Som ett resultat nådde GPU-temperaturen 86 °C. Som du kan se visade det sig att det nya grafikkortet var väldigt varmt, och kylsystemet var bullrigt i 3D-läge. Potentiella ägare till GeForce GTX 480 bör dock inte vara upprörda över detta, eftersom toppprodukterna från NVIDIA och ATI aldrig har kännetecknats av låga temperaturer och ljudnivåer. Dessutom dyker det snart upp alternativa kylare som kommer att "föra" standardkylare upp till 30 °C och samtidigt fungerar ojämförligt tystare (kom ihåg Arctic Cooling Accelero Xtreme GTX 280 eller Thermalright-produkter). Frågan är snarare en annan - hur motiverat är det att köpa en produkt för 500 US-dollar som kräver att man byter ut standardkylsystemet och, med största sannolikhet, förlorar garantin? Nåväl, ett annat alternativ är att vänta på att GeForce GTX 480 med alternativa kylare ska dyka upp.

För att kontrollera överklockningspotentialen hos GeForce GTX 480 använde vi verktyget EVGA Precision v1.9.2:



Det är tydligt att med en sådan temperaturregim på en fortfarande "rå" grafikprocessor, kan man inte förvänta sig några imponerande resultat vid överklockning. Och så blev det - frekvensen på grafikprocessorn, utan förlust av stabilitet och minskning av bildkvalitet, höjdes bara med 45 MHz med en slutlig 745 MHz (+6,4%). Men minneskretsarna på 0,4 ns var uppriktigt sagt tilltalande, vilket gjorde att det kunde fungera stabilt på effektiva 4780 MHz (+29,3%):


Jag är inte 100% säker på att minnestestet från den senaste versionen av OCCT fungerar korrekt med GeForce GTX 480, men det testar nästan allt 1,5 GB minne som finns på grafikkortet:



Överklockning av videominnet påverkade inte temperaturförhållandena för grafikkortets och grafikprocessorns kretskort, vilket är ganska logiskt.

I slutet av granskningen av det nya grafikkortet, låt oss påminna dig om att det rekommenderade priset för NVIDIA GeForce GTX 480 är $499. Försäljningen av grafikkort bör starta över hela världen den 12 april.

Testkonfiguration, verktyg och testmetodik

Alla tester utfördes i ett slutet systemenhetshus, vars konfiguration bestod av följande komponenter:

Moderkort: ASUS P6T Deluxe (Intel X58 Express, LGA 1366, BIOS 2101);
Centralprocessor: Intel Core i7-920, 2,67 GHz (Bloomfield, C0, 1,2 V, 4x256 KB L2, 8 MB L3);
Kylsystem: Хigmatek Balder SD1283 (med två Thermalright TR-FDB vid 1100 rpm);
Termiskt gränssnitt: Arctic Cooling MX-2;
RAM: DDR3 3x2 GB Wintec AMPX 3AXH1600C8WS6GT (1600 MHz / 8-8-8-24 / 1,65 V);
Systemdisk: SSD OCZ Agility EX (SATA-II, 60 GB, SLC, Indillinx, firmware v1.31);
Disk för spel och tester: Western digital VelociRaptor (SATA-II, 300 GB, 10000 rpm, 16 MB, NCQ) i en Scythe Quiet Drive 3,5"-låda;
Arkivdisk: Western Digital Caviar Green WD10EADS (SATA-II, 1000 GB, 5400 rpm, 32 MB, NCQ);
Fodral: Antec Twelve Hundred (framvägg - tre Noiseblocker NB-Multiframe S-Series MF12-S1 vid 900 rpm; bak - två Scythe SlipStream 120 vid 900 rpm; topp - standard 200 mm fläkt vid 400 rpm );
Kontroll- och övervakningspanel: Zalman ZM-MFC2;
Strömförsörjning: Zalman ZM1000-HP 1000 W, 140 mm fläkt.
Bildskärm: 30" Samsung 305T Plus.

För att minska processorberoendet för grafikkort i vissa lägen av individuella spel som ingår i testet, överklockades 45-nm fyrkärnig processor med en multiplikator på 21 och funktionen Load-Line Calibration aktiverad till 4,0 GHz med en ökning av spänning till Moderkorts BIOS kort upp till 1,3725 V



RAM-minnet fungerade med timings på 7-7-7-14-1T vid en spänning på 1,64 V. Alla andra parametrar i moderkortets BIOS relaterade till överklockning av processorn eller minnet ändrades inte (vänster i "Auto"-positionerna).

För jämförelse med NVIDIA GeForce GTX 480, Leadtek WinFast GTX 285 och XFX GeForce GTX 295 2x896 MB:




Bland grafikkorten på ATI GPU:er inkluderade testet Radeon HD 5870 1 GB och dubbelprocessorn Radeon HD 5970 2x1 GB:




Låt oss nu gå vidare till mjukvarudelen och verktygen. Testning, som startade den 23 mars 2010, genomfördes under ledning av operativ system Microsoft Windows 7 Ultimate x64 med alla viktiga uppdateringar från det angivna datumet och med följande drivrutiner:

chipset moderkort Intel-kort Chipset-drivrutiner - 9.1.1.1025 WHQL;
DirectX End-User Runtimes-bibliotek, releasedatum - februari 2010;
grafikkortsdrivrutiner för ATI Catalyst 10.3 GPU:er;
Drivrutiner för grafikkort för NVIDIA GPU:er: GeForce/ION-drivrutin 197.17 beta för GeForce GTX 480 och GeForce/ION-drivrutin 197.25 beta för andra NVIDIA-grafikkort;
drivrutiner för fysikacceleration - NVIDIA PhysX System Software 9.10.0129.

Testning av grafikkort i spel utfördes i två upplösningar: 1920x1080 och 2560x1600. Enligt vår åsikt har att testa sådana kraftfulla grafikkort med lägre upplösningar ingen praktisk fördel, och kommer bara att leda till en ökning av mängden testning och begränsa prestandan för grafikkort av plattformens hastighet.

För testerna användes två grafikkvalitetslägen: "Hög kvalitet + AF16x" - maximal texturkvalitet i drivrutinerna med 16x nivå anisotropisk filtrering aktiverad, och "High Quality + AF16x + AA 4(8)x" med 16x nivå anisotropisk filtrering aktiverad och helskärmsutjämningsgrad (MSAA) på 4x, eller 8x, om den genomsnittliga bildfrekvensen förblev tillräckligt hög för ett bekvämt spel. Anisotropisk filtrering och helskärmskantutjämning aktiverades direkt i spelinställningarna eller i deras konfigurationsfiler. Om dessa inställningar saknades i spel ändrades parametrarna i kontrollpanelen för Catalyst- och GeForce-drivrutinerna. Vertikal synkronisering är tvångsinaktiverad i förarens kontrollpaneler.

Alla spel uppdaterades med de senaste patcharna i början av förberedelserna av denna artikel. I slutändan bestod testlistan av två halvsyntetiska paket, en techno-demo och 21 spel, bl.a. senaste nytt. Så här ser testlistan ut med en kort beskrivning av teknikerna (spelen är ordnade i den ordning de släpps):

3DMark 2006 (DirectX 9/10) - build 1.2.0, standardinställningar och 2560x1600 med AF16x och AA8x;
3DMark Vantage (DirectX 10) - version 1.0.2.1, "Prestanda" inställningsprofiler (endast grundläggande tester utfördes);
Unigine Heaven Demo (DirectX 11) - version 2.0, maximala kvalitetsinställningar, "extrem" tessellation;
World In Conflict (DirectX 10) - version 1.0.1.0(b34), grafikkvalitetsprofil "Very High", "Water Reflection Clouds" - På, test inbyggt i spelet;
Crysis (DirectX 10) - version 1.2.1, "Very High" inställningsprofil, dubbelcykel av "Assault Harbor" demoinspelning från Crysis Benchmark Tool version 1.0.0.5;
Unreal Tournament 3 (DirectX 9) - version 2.1, maximala grafikinställningar i spelet (nivå 5), Motion Blur och Hardware Physics aktiverade, FlyBy-scenen testades på "vCTF-Corruption"-nivån (två på varandra följande cykler), HardwareOC UT3 var använd bänk v1.5.0.0;
Lost Planet Extreme Condition: Colonies Edition (DirectX 10) - version 1.0, grafiknivå "Maximum kvalitet", HDR Rendering DX10, test inbyggt i spelet, resultat visas för den första scenen (ARENA1);
Far Cry 2 (DirectX 10) - version 1.03, inställningsprofil "Ultra High", dubbel testcykel "Ranch Small" från Far Cry 2 Benchmark Tool v1.0.0.1;
Call of Duty 5: World at War (DirectX 9) - spelversion 1.6, grafik och texturinställningar inställda på "Extra" nivå, demoinspelning "Breach" på nivån med samma namn;
BattleForge: Lost Souls (DirectX 11) - version 1.2 (2010-03-19), inställningar för maximal grafikkvalitet, skuggor aktiverade, SSAO-teknik aktiverad, dubbelkörning av testet inbyggt i spelet;
Stormrise (DirectX 10.1) - version 1.0.0.0, maximala kvalitetsinställningar för effekter och skuggor, "Ambient occlusion" inaktiverad, dubbelkörning av demoscenen på uppdraget "$mn_sp05";
Tom Clancy's H.A.W.X. (DirectX 10) - version 1.03, inställningar för maximal grafikkvalitet, HDR, DOF och Ambient ocklusionstekniker aktiverade, inbyggt test (dubbel körning);
Call of Juarez: Bound in Blood (DirectX 10.1) - version 1.0.1.0, maximala grafikkvalitetsinställningar, Shadow map size = 1024, 110 sekunders demoinspelning i början av "Miners Massacre"-nivån;
Wolfenstein MP (OpenGL 2.0) - version 1.3, maximala grafikinställningar, egen demoinspelning "d2" på "Manor"-nivå;
Batman: Arkham Asylum (Direct3D 9) - version 1.1, maximal detalj, maximal "fysik", dubbelkörning av testet inbyggt i spelet;
Resident Evil 5 (DirectX 10.1) - version 1.0, testar variabeltestet med maximala grafikinställningar utan rörelseoskärpa, resultatet togs som medelvärdet för den tredje scenen i testet, som det mest resurskrävande;
S.T.A.L.K.E.R.: Call of Pripyat (DirectX 11) - version 1.6.02, inställningsprofil "Förbättrad dynamisk belysning DX11" med ytterligare manuell inställning av alla parametrar till maximalt, testade vår egen demoinspelning "cop03" på "Backwater"-nivån;
Borderlands (DirectX 9) - spelversion 1.2.1, testar "timedemo1_p" med maximala kvalitetsinställningar;
Left 4 Dead 2 (DirectX 9) - spelversion 2.0.1.1, maximal kvalitet, demoinspelning "d333" testades (två pass) på kartan "Swamp Fever", scenen "Swamp";
Colin McRae: DiRT 2 (DirectX 9/11) - spelversion 1.1, inbyggt test bestående av två varv längs London-banan med maximala grafikkvalitetsinställningar;
Wings Of Prey (DirectX 9) - spelversion 1.0.2.1, texturkvalitet "Ultra Ultra High" och andra maximala grafikkvalitetsinställningar, testade en två minuters demoinspelning på "Escort"-nivå från kampanjen "Battle of Britain";
Warhammer 40 000: Dawn of War II - Chaos Rising (DirectX 10.1) - version 2.1.0.4679, grafikinställningarna i spelmenyn är inställda på "Ultra"-nivån, tre eller fyra körningar av testet inbyggt i spelet;
Metro 2033 (DirectX 10/11) - version 1.0, maximala kvalitetsinställningar, en skriptad scen som varar i 160 sekunder användes för testet. på Chaser-nivå, dubbel sekventiell pass;
Just Cause 2 (DirectX 11) - version 1.0.0.1, högsta kvalitetsinställningar, bakgrundsoskärpa och GPU-vattensimuleringstekniker inaktiverade, dubbel sekventiell passning av Dark Tower-demon.

Mer detaljerad beskrivning Du kan hitta metoder för att testa grafikkort och grafikinställningar i några av de listade spelen i en speciellt skapad tråden i vår konferens, samt delta i diskussionen och förbättringen av dessa tekniker.

Om spel implementerade möjligheten att spela in ett minsta antal bilder per sekund, så återspeglades detta också i diagrammen. Varje test utfördes två gånger; det bästa av de två erhållna värdena togs som slutresultat, men bara om skillnaden mellan dem inte översteg 1%. Om skillnaden mellan testkörningarna översteg 1 %, upprepades testningen åtminstone en gång till för att få rätt resultat.

Resultaten från grafikkortets prestandatest och deras analys

I diagrammen är testresultaten för grafikkorten ATI Radeon HD 5970 och Radeon HD 5870 markerade i rött, hjälten i dagens artikel, GeForce GTX 480, är ​​i den traditionella NVIDIA-gröna färgen, och GeForce GTX 295 och GTX 285 grafikkort är markerade i blågrönt. Testning av överklockade grafikkort utfördes inte som en del av dagens artikel, eftersom den förtjänar en separat artikel.

Låt oss titta på testresultaten och analysera dem.

3DMark 2006



I det första halvsyntetiska testet är GeForce GTX 480 bara något före sin huvudkonkurrent Radeon HD 5870, men båda grafikkorten är snabbare än dubbelprocessorn GeForce GTX 295. Radeon HD 5970 i högkvalitativt läge och en upplösning på 2560x1600 är långt före alla andra testdeltagare, inklusive GeForce GTX 480.

3DMark Vantage



Situationen är lite annorlunda i 3DMark Vantage, men bara i inställningsprofilen "Perfomance", där GeForce GTX 480 är nästan 2000 3D "papegojor" snabbare än Radeon HD 5870. Med ökande belastning visar grafikkorten samma prestanda .

Unigine Heaven Demo 2.0

Eftersom grafikkorten GeForce GTX 285 och GTX 295 inte stöder DirectX 11, för en korrekt jämförelse med GeForce GTX 480, testades alla dessa kort tidigare i DirectX 10-läge med tessellation inaktiverad:



GeForce GTX 480-resultaten i Heaven-demon är som en balsam för själen hos potentiella köpare av detta grafikkort. Faktum är att den nya produkten uppvisar utmärkta prestanda och, i det svåraste läget, överträffar den avsevärt två konkurrenter från sitt eget läger.

Låt oss nu kontrollera hur bra GeForce GTX 480 är i DirectX 11-läge med tessellation aktiverad (resultaten av grafikkort i DirectX 10 är i kursiv stil):


Som du kan se konkurrerar GeForce GTX 480 lätt med dubbelprocessorn Radeon HD 5970 och lämnar långt bakom sin direkta konkurrent Radeon HD 5870. Om tessellation inom en snar framtid kommer att råda i spel, så ser det mycket mer ut att köpa en GeForce GTX 480 attraktiv än ATI. Detta är dock mer som att "gissa på tebladen", så låt oss överlåta denna fråga till fanatikerna och gå vidare till speltester.

Världen i konflikt


I spelet World in Conflict visar sig GeForce GTX 480 vara snabbare än Radeon HD 5870 och konkurrerar till och med framgångsrikt med dubbelprocessorn GeForce GTX 295, och överträffar den senare i det minsta antalet bilder per sekund. Prestandan hos videokortet Radeon HD 5970 med dubbla chip är utom räckhåll för alla andra deltagare i dagens testning, men återigen, detta grafikkort har inte överlägsenhet i det minsta antalet bilder per sekund, vilket är så viktigt för bekväma spelande.

Crysis


Många förväntade sig att med släppet av "Fermi" skulle Crysis-spelet äntligen erövras av ett grafikkort med en processor, men detta visade sig vara långt ifrån fallet. Dessutom visar GeForce GTX 480 en mycket liten fördel gentemot Radeon HD 5870, vilket också är en överraskning för många som väntade sig denna nya produkt. Men GTX 480 i det svåraste kvalitetsläget ger en högre nivå av det minsta antalet bilder per sekund och hanterar dessutom enkelt GeForce GTX 295.

Unreal Tournament 3


Unreal Tournament 3 fortsätter att måla "oljemålningar", rangordnar grafikkort efter prestanda på nästan samma sätt som de är placerade efter kostnad. GeForce GTX 480 är snabbare än Radeon HD 5870, men långsammare än båda videokorten med dubbla processorer.

Lost Planet Extreme Condition: Colonies Edition


Det maximala som GeForce GTX 480 kan göra i spelet Lost Planet är att överträffa Radeon HD 5870 i tre av fyra testlägen och tävla på lika villkor med GeForce GTX 295. Radeon HD 5970-videokortet med dubbla processorer är fortfarande snabbast.

Far Cry 2


Det är omöjligt att inte notera den ganska självsäkra prestandan hos det nya grafikkortet i spelet Far Cry 2, där GeForce GTX 480 inte bara lyckas lämna Radeon HD 5870 bakom sig överallt, utan också konkurrerar på lika villkor med "flygplanet". carrier” Radeon HD 5970 i högkvalitativt grafikläge med helskärmskantutjämning.

Call of Duty 5: World at War


För att spela Call of Duty 5: World at War, som inte alls är krävande med moderna standarder, räcker vilket som helst av de grafikkort som testas idag, inklusive en upplösning på 2560x1600 och MSAA8x. Men om vi jämför GeForce GTX 480 och Radeon HD 5870 med varandra kan vi prata om lika prestanda för grafikkort i det här spelet.

BattleForge: Lost Souls


Trots att BattleForge: Lost Souls är ett pro-ATI-spel, förlorar grafikkortet på NVIDIA GF100 GPU till Radeon HD 5870 endast i läget utan teknik för grafikkvalitetsförbättring. Med kantutjämning påslagen lyckas GeForce GTX 480 ta sig fram lite.

Stormrise


Men i ett annat spel som släppts under nära ledning av ATI, har GeForce GTX grafikkort ingen chans, så de konkurrerar bara med varandra.

Tom Clancys H.A.W.X.


I flygsimulatorn Tom Clancys H.A.W.X., tvärtom, krossar GeForce GTX 480 inte bara Radeon HD 5870, utan också flaggskeppet Radeon HD 5970 med dubbla processorer. Observera att i högkvalitativt grafikläge, fördelen med GTX 480 över GTX 285 överstiger 2 gånger.

Call of Juarez: Bound in Blood



Call of Juarez: Bound in Blood, som BattleForge och Stormrise, är bättre lämpad för grafikkort baserade på ATI GPU:er. Detta hindrade dock inte GeForce GTX 480 från att ligga före Radeon HD 5870. Det bör noteras att Call of Juarez inte kan klassificeras som resurskrävande spel, eftersom även vid maximal upplösning en GeForce GTX 285 eller någon Radeon HD 4870 är fullt tillräckligt HD 5770.

Wolfenstein MP


Segern för ATI-grafikkort i Wolfenstein är ganska överraskande, eftersom NVIDIA alltid har fungerat bättre med OpenGL och som regel varit ledande i sådana spel. GeForce GTX 480 är dock ingen match för Radeon HD 5870 i detta spel.

Batman: Arkham Asylum


Men det har något att sätta emot i spelet Batman: Arkham Asylum, nämligen hårdvarustöd för att accelerera fysiska effekter PhysX. För att ATI GPU-baserade grafikkort ska fungera framgångsrikt i det här spelet måste du antingen installera GeForce som ett andra grafikkort eller inaktivera dessa effekter helt och hållet. Det är sant att spelet blir mycket bristfälligt i grafiska termer, så det första alternativet är mycket mer intressant, även om det är dyrare när det gäller ekonomi och tid att organisera samarbetet mellan Catalyst- och GeForce-drivrutiner. Dessutom bör det noteras att GeForce GTX 480 visar helt enkelt lysande prestanda i Batman: Arkham Asylum, och överträffar dubbelprocessorn GeForce GTX 295.

Resident Evil 5


GeForce GTX 480 lämnar ingen chans för sin konkurrent i spelet Resident Evil 5. Dessutom, som vi ser, är grafikkortet baserat på den nya GF100-grafikprocessorn kapabelt att framgångsrikt motstå båda dubbelprocessorjättarna i form av GeForce GTX 295 och Radeon HD 5970.

S.T.A.L.K.E.R.: Call of Pripyat

Återigen måste vi påminna dig om att grafikkorten GeForce GTX 285 och GTX 295 inte stöder DirectX 11, så innan vi tittar på huvuddiagrammet, för en korrekt jämförelse med GeForce GTX 480, testades den senare tidigare i DirectX 10 läge:



Det kan inte sägas att prestandan för GeForce GTX 480 i spelet S.T.A.L.K.E.R.: Call of Pripyat är på en hög nivå. Det finns varken en betydande fördel gentemot GTX 285, eller åtminstone några framsteg gentemot GTX 295. Och i DirectX 11 har det nya grafikkortet inget att skryta med:




Borderlands


I spelet Borderlands genomförs kampen mellan Radeon HD 5870 och GeForce GTX 480 med varierande framgång. I lägen utan kantutjämning är ett grafikkort baserat på en NVIDIA GPU snabbare, och när MSAA8x aktiveras kommer Radeon fram, men bara med en upplösning på 1920x1080.

Left 4 Dead 2


Om du gillar att blanda oändliga zombies i spelet Left 4 Dead 2, så är det bättre att välja ett grafikkort med en ATI GPU, eftersom de visar högre prestanda än NVIDIA-kort. Spelet är inte resurskrävande, så något av grafikkorten som testas idag kommer att vara ganska tillräckligt.

Colin McRae: DiRT 2

DirectX 11 stöds inte av GeForce GTX 2xx grafikkort, så först kommer vi att jämföra GeForce GTX 480 med dem i rättvist DirectX 9-läge:



Låt oss sedan titta på resultaten i DirectX 11, där Radeon grafikkort redan deltar (DX9-resultat för GTX 2xx finns också, men är i kursiv stil):


Även om det inte är så mycket, är GeForce GTX 480 fortfarande snabbare än Radeon HD 5870 i det här spelet.

Vingar Av Rov


CrossFireX-tekniken fungerar inte i den fortfarande nya flygsimulatorn Wings Of Prey, så Radeon HD 5970 visade sig vara det långsammaste grafikkortet i test. Samtidigt fungerar SLI-tekniken utmärkt, vilket gör GeForce GTX 295 utom räckhåll för andra grafikkort. Jo, GeForce GTX 480 ligger något före Radeon HD 5870 när det gäller summan av tester i alla lägen.

Warhammer 40 000: Dawn of War II - Chaos Rising


Warhammer 40 000: Dawn of War II är ett av de mest processorberoende spelen, så resultaten kan endast jämföras i läget för maximal kvalitet och 2560x1600 upplösning, där GeForce GTX 480 är något snabbare än Radeon HD 5870 vad gäller genomsnittliga bilder per sekund, men långsammare när det gäller minimum. I allmänhet, enligt denna indikator, visade sig GeForce GTX 480 vara det sämsta grafikkortet i Warhammer 40 000: Dawn of War II, vilket snarare indikerar otillräcklig optimering GeForce-drivrutiner, så det kan mycket väl vara fixat snart.

Metro 2033

Testning av grafikkort i det nya spelet Metro 2033 utfördes i början på "Chaser" -nivån, i en manus scen där hjälten och två assistenter åker på en vagn och inte kan röra sig, på grund av vilket det är möjligt att få resultat med en mycket hög grad av repeterbarhet. Testning utfördes med FRAPS inom 160 sekunder efter att nivån laddats. Eftersom det vid maximala grafikkvalitetsinställningar för DirectX 11 Metro 2033 var möjligt att testa på endast ett grafikkort av de fem som deltog i artikeln, användes DirectX10-rendering för tester:



GeForce GTX 480 är något snabbare än Radeon HD 5870, och båda dessa grafikkort är betydligt sämre än dubbelprocessorn Radeon HD 5970. Låt oss tillägga att CrossFireX-tekniken inte fungerade i Wings Of Prey, i Metro 2033 stötte vi på dålig prestanda för SLI-teknik, och i nästa spel, Just Cause 2, visade det sig vara helt obrukbart.

Efter att alla tester var slutförda testades prestandan för GeForce GTX 480 dessutom i spelet Metro 2033 och i läget DirectX 11. Tyvärr hade vi vid den tiden redan lämnat tillbaka grafikkorten Radeon HD 5870 och HD 5970, så ATI Radeon HD 5850 grafikkort fungerade som en konkurrent 1 GB, överklockat från nominella 725/4000 MHz. Som jämförelse använde vi samma "Chaser"-demoscen med maximala kvalitetsinställningar. Resultaten var mycket intressanta:



Med en upplösning på 1920x1080 ligger den överklockade Radeon HD 5850 inte långt efter GeForce GTX 480, men vid 2560x1600 börjar ett riktigt "bildspel" på Radeon, medan GeForce GTX 480 visar tre gånger högre resultat. Men detta tillåter fortfarande inte det nya grafikkortet att ge spelaren ett bekvämt antal bilder per sekund i det här spelet. Dessutom, även när jag körde testscenen, märkte jag en viss "suddig" bild på GeForce och bestämde mig för att kontrollera den med skärmdumpar (om än på en annan nivå, eftersom du inte kan ta identiska skärmdumpar i "Chaser"). Du kan själv utvärdera skillnaden i bildkvalitet (upplösning 1920x1080):

ATI Radeon HD 5850NVIDIA GeForce GTX 480







Det är lätt att märka att bildkvaliteten är klart högre på Radeon grafikkort. Alla texturer ritas mycket tydligt, utan att kladda eller suddas ut. Låt mig påminna dig om att grafikkvalitetsinställningarna i spelet var identiska på båda grafikkorten: DirectX 11, "Very High", AF16x, AAA, "Advanced DOF" och "Tesselation" var aktiverade. Dessutom, i Catalyst- och GeForce/ION-drivrutinerna, sattes det maximala kvalitetsläget för texturfiltrering till "Hög kvalitet" (standardinställningen är "Kvalitet"). Så, kanske är det just på grund av denna kvalitetsminskning som GeForce GTX 480 uppnår högre prestanda i Metro 2033? Utvecklarna av spelet Metro 2033 svarade snabbt på den här frågan på mindre än en dag, här är deras svar:

”Nej, den märkbara skillnaden i skärm har ingenting att göra med grafikkortens prestanda. I vissa kantutjämningslägen renderar NVIDIA- och ATI-grafikkort verkligen bilder på olika sätt. Nu försöker vi förstå hur snabbt detta kan åtgärdas. Återigen, detta har ingenting med produktivitet att göra.”

Oles Shishkovtsov, 4A Games, teknisk chef

Tja, vänta och se.

Bara för att 2


I det nya spelet Just Cause 2 är GeForce GTX 480 sämre än Radeon HD 5870 med samma summa som den vann i Metro 2033.

Låt oss sedan gå vidare till att analysera resultaten i sammanfattande diagram byggda endast från speltester.

Sammanfattningsdiagram för resultatjämförelse

I det första paret av sammanfattande diagram inbjuder vi dig att utvärdera prestandaökningen för GeForce GTX 480 jämfört med det snabbaste enprocessor-videokortet från den tidigare generationens NVIDIA GPU - GeForce GTX 285, vars prestanda i diagrammen är tas som 100 %, och resultaten för GeForce GTX 480 visas som en procentuell ökning (i spelen S.T.A.L.K.E.R.: Call of Pripyat och Colin McRae: DiRT 2, jämfördes resultaten i DX10- respektive DX9-renderingar):



Tja, här i allmänhet är allt klart och förståeligt. I lägen utan kantutjämning är GeForce GTX 480 i genomsnitt snabbare i speltester än toppvideokortet i den tidigare generationens GeForce GTX 285 med 30-37 % beroende på upplösning, och i lägen med anti- aliasing med 46-48%. Det bör noteras här att med lanseringen av den 5:e serien av Radeon-grafikkort var prestandaökningen jämfört med den tidigare generationens ATI-grafikkort högre. Den mest uttalade prestandaökningen registrerades i spel som Tom Clancy's H.A.W.X., Far Cry 2 och Metro 2033. Och den minst signifikanta skillnaden i prestanda för dessa två grafikkort är i icke-resurskrävande spel som Call of Duty 5: World at War eller Wolfenstein.

Följande diagram är tillägnade kampen mellan dubbelprocessorn GeForce GTX 295 och det nya flaggskeppet GeForce GTX 480 med en processor. Resultaten av GeForce GTX 295 tas som nollaxeln (i spelen S.T.A.L.K.E.R.: Call of Pripyat och Colin McRae: DiRT 2, resultaten i DX10- och DX9-renderingar jämfördes igen, respektive):



GeForce GTX 480 kämpar mot den tidigare generationens dubbelprocessor grafikkort GeForce GTX 295 med varierande framgång. I vissa spel är ett videokort med dubbla chip snabbare, och i andra ett GeForce GTX 480. Här kan vi inte heller låta bli att minnas den tidigare konfrontationen mellan Radeon HD 5870 och Radeon HD 4870 X2, när ett grafikkort på nya grafikprocessorn var nästan alltid snabbare än flaggskeppet med dubbla chip från föregående generation. Men i de senaste spelen Metro 2033 och Just Cause 2 är överlägsenheten hos GeForce GTX 480 ganska stor på grund av den fortfarande icke-funktionella SLI-tekniken i dessa nya produkter.

Nu, baserat på summan av speltester, låt oss utvärdera konfrontationen mellan nya GeForce GTX 480 och Radeon HD 5870. Resultaten presenteras i följande diagram, där prestandan för Radeon HD 5870 tas som nollaxeln , och resultaten av GeForce GTX 480 återspeglas i form av avvikelser från det:



Och här tippar vågen åt det ena eller andra hållet, med en betydande förändring av andelen ökning eller minskning av produktiviteten. Så i tolv spel - World in Conflict, Crysis, Unreal Tournament 3, Lost Planet: Colonies, Far Cry 2, Tom Clancy's H.A.W.X., Call of Juarez: Bound in Blood (!), Batman: Arkham Asylum (utan "doping" för Radeon ), Resident Evil 5, Borderlands, Colin McRae: DiRT 2 och Metro 2033, GeForce GTX 480 ligger före, och i fem spel - BattleForge, Stormrise, S.T.A.L.K.E.R.: Call of Pripyat, Left 4 Dead 2 och Just Cause 2 - är det redan snabbare Radeon HD 5870. I de återstående fyra spelen finns det antingen paritet eller en liten fördel med ett av grafikkorten. Det kan definitivt sägas att den överväldigande överlägsenheten hos GeForce GTX 480, som alla väntade på, över Radeon HD 5870 finns idag inte.

Slutligen, de sista par diagrammen, enligt vilka du kan titta på gapet mellan GeForce GTX 480 och vår tids snabbaste grafikkort - Radeon HD 5970:



CrossFireX-tekniken fungerar inte i spelet Wings Of Prey och avsaknaden av PhysX-stöd i spelet Batman: Arkham Asylum gör att GeForce GTX 480 kan överträffa dubbelprocessorn Radeon HD 5970. I spelen Tom Clancy's H.A.W.X. och Resident Evil 5, hastigheten på grafikkorten är ungefär densamma, och i alla andra fall är Radeon HD 5970 snabbare än GeForce GTX 480.

Strömförbrukning, uppvärmning av grafikkort och brusnivå

Energiförbrukningen för system med olika grafikkort utfördes med hjälp av speciellt modifierad för dessa ändamål strömförsörjningen. Den maximala belastningen skapades genom att köra en FurMark 1.8.0 i stabilitetstestläge och en upplösning på 2560x1600 (med AF16x), samt FurMark tillsammans med Linpack x64 (LinX 0.6.4, 4096 MB, 7 trådar). Med tanke på att båda specificerade program generera den maximala belastningen på videosystemet respektive den centrala processorn, så att vi kan ta reda på toppströmförbrukningen för hela systemet och bestämma strömförsörjningen som krävs för det (med hänsyn till effektiviteten).

De erhållna resultaten visas i diagrammet:






Det är lätt att se att ett system med en GeForce GTX 480 vid toppbelastning förbrukar mer än ett system med en Radeon HD 5870 med cirka 130 watt både när det laddas med FurMark och i kombination med FurMark och Linpack x64. Dessutom klarar ett system med en GeForce GTX 480 att förbruka mer än ett system med en dubbelprocessor Radeon HD 5970! Detta är verkligen ett "frossande" grafikkort. Och ändå är GeForce GTX 295 fortfarande ledande inom strömförbrukning.I 2D-läge är skillnaden mellan förbrukningen av system med GeForce GTX 480 och Radeon HD 5870 grafikkort 26 watt, med en fördel till förmån för Radeon. Förresten, om fördelarna.

Låt oss säga att du är en "spelgalning" och spelar 8 timmar varje dag under en hel månad. Och låt oss föreställa oss att belastningen på videodelsystemet alltid är maximal under denna tid, det vill säga skillnaden i strömförbrukning för system med NVIDIA GeForce GTX 480 och ATI Radeon HD 5870 är konstant lika med 130 watt per timme. Alltså, inom en månad kommer ett system med ett nytt NVIDIA grafikkort att "sluka upp" mer elektricitet än ett system med ett konkurrerande 32,2 kW ATI grafikkort! Jag kunde inte hitta den genomsnittliga nuvarande kostnaden för en kilowattimme i Ryska federationen (den är godkänd av Ryska federationens ingående enheter), så vi tar Moskva som ett exempel, där en kilowattimme är baserad på en entaxa mätare kostar 2 rubel 42 kopek. Således slutar ägare av system med GeForce GTX 480, i jämförelse med ägare av system med Radeon HD 5870, med ett "överskott" på så mycket som 78 rubel per månad! De givna villkoren under vilka detta belopp mottogs är, som du förstår, orealistiska. Faktum är att mängden bör vara mindre än fyra gånger, åtminstone. Men även om detta är sant, och 78 rubel i månaden visar sig vara sant, svara då själv - är det verkligen pengarna som kan användas som ett argument när man jämför grafikkort som kostar mer än 18 tusen rubel?

Låt oss nu jämföra temperaturförhållandena för alla testade grafikkort med automatisk turbindrift. Belastningen skapades av 15 cykler av Firefly Forest-testet från det halvsyntetiska 3DMark 2006-paketet med en upplösning på 2560x1600 med anisotropisk filtrering på 16x nivå. Tester utfördes i en sluten systemenhet vid rumstemperatur 25 °C. Låt oss titta på resultaten:



Det finns en betydande överlägsenhet hos Radeon HD 5870 jämfört med GeForce GTX 480 när det gäller GPU-temperatur både i viloläge och under belastning.

Och det sista som återstår att göra innan man går vidare till slutsatser är att utvärdera brusnivån på grafikkort. Ljudnivån för standardkylsystem av referensvideokort mättes med en elektronisk ljudnivåmätare CENTER-321 efter ett på morgonen i ett helt slutet rum på cirka 20 kvadratmeter. m med tvåglasfönster. Ljudnivån för varje kylare mättes utanför systemenhetens hölje, när den enda bullerkällan i rummet var själva kylaren och dess turbin. Ljudnivåmätaren, fixerad på ett stativ, var alltid placerad strikt på en punkt på ett avstånd av exakt 150 mm från kylfläktens rotor. Moderkortet, i vilket grafikkortet sattes in med ett kylsystem installerat på det, placerades i själva hörnet av bordet på en baksida av polyuretanskum:


Ljudnivåmätarens nedre mätgräns är 29,8 dBA, och den subjektivt behagliga (inte att förväxla med låg) ljudnivå för kylare mätt från ett sådant avstånd är cirka 37 dBA. Rotationshastigheten för turbinerna på standardkylare ändrades över hela driftområdet med vår styrenhet genom att ändra matningsspänningen i steg om 0,5 V.

De erhållna data om brusnivån för Radeon HD 5970 och HD 5870 visade sig skilja sig inom 0,1 dBA vid varje mätpunkt, så de kombineras i grafen. Det visade sig vara omöjligt att mäta ljudnivån för GeForce GTX 295 på stativet, eftersom detta grafikkort skulle behöva demonteras helt för att komma till turbinkontakten. Mätresultaten presenteras i följande graf (den prickade linjen visar hela intervallet av turbinhastigheter, den heldragna linjen visar det faktiska hastighetsintervallet när det testades i 3DMark 2006, som vi beskrev precis ovan):



Det första du behöver lägga märke till från mätresultaten är det faktum att inget av standardkylsystemen på referensvideokorten är tysta. Det andra du kan vara uppmärksam på är att ljudnivåkurvan för GeForce GTX 480-kylaren passerar under bullernivåkurvan för konkurrenten Radeon HD 5870. Kan vi dra slutsatsen att GeForce GTX 480-kylaren är tystare än standard Radeon HD 5870 kylare? Detta gäller dock bara för att jämföra dessa kylare vid samma turbinrotationshastigheter, men i praktiken händer det inte, eftersom när GeForce GTX 480-turbinen arbetar automatiskt varierar dess rotationshastighet i intervallet från 2100 till 3600 rpm, medan på Radeon HD 5870 är hastighetsområdet endast 1270-2040 rpm (se temperaturdiagram ovan). På grund av den mycket höga värmeavledningen av GF100 GPU var NVIDIAs ingenjörer tvungna att höja temperaturgränsen i grafikkortets BIOS och ställa in den på en högre turbinhastighet. Resultatet är höga ljudnivåer vid högre temperaturer. Tyvärr, även i denna parameter, tills nya, mindre heta revisioner av grafikprocessorer dyker upp, förlorar GeForce GTX 480 mot Radeon HD 5870.

Slutsats

Så, vad fick vi sex månader efter lanseringen av Radeon HD 5870? Om vi ​​tar alla tester tillsammans (vilket med största sannolikhet är felaktigt) så är det nya GeForce GTX 480 grafikkortet i genomsnitt 5-15% snabbare än Radeon HD 5870, beroende på test, kvalitetsläge och upplösning. Men i individuella tester finns både mer imponerande segrar och nederlag. Därför är det enligt vår uppfattning mer korrekt att överväga varje enskilt spel, vilket är vad vi gjorde ovan i avsnittet med resultattestning av grafikkortsprestanda. I det stora hela måste vi erkänna att GeForce GTX 480 blir det snabbaste grafikkortet med en processor.

Å andra sidan kom denna seger till ett för stort pris för NVIDIA. För det första menar vi inte hög strömförbrukning, för höga ljudnivåer eller oacceptabel värmeutveckling, utan tid. Tiden som har gått sedan lanseringen av Radeon HD 5870 är oåterkallelig förlorad. Idag säljs de nya topp ATI/AMD grafikkorten inte bara i massor, utan har redan sex officiella versioner av drivrutiner, medan NVIDIA GeForce GTX 480 inte har en enda (!) officiell, och bara en är i beta testning. En så sen release av ett nytt grafikkort kan endast motiveras av en total och överväldigande överlägsenhet (+50% eller mer) i prestanda jämfört med sin konkurrent, men NVIDIA har hittills inte lyckats uppnå detta.

När det gäller hög energiförbrukning, för våra priser per kilowatt el, ser argumentet till förmån för alla produkter (ATI eller NVIDIA) löjligt och till och med roligt ut. Problemet med höga ljudnivåer och värmegenerering löses genom att installera alternativa kylsystem, som redan har börjat tillkännages av välkända varumärken. NVIDIA har också några ess i rockärmen, som PhysX och CUDA, samt projicerad överlägsenhet gentemot sin konkurrent i spel som stöder DirectX 11 med hjälp av tessellation. Det är osannolikt att någon kommer att förneka möjligheten till ytterligare optimering av GeForce-drivrutiner. Därför försäkrar vi dig att vi inte kommer att begränsa oss till att bara bekanta oss med det nya grafikkortet, och snart kommer vi att fortsätta att studera alla dess möjligheter.

Och det sista som vi alla inte bör glömma är att endast sund konkurrens kan hjälpa till att sänka priserna på grafikkort och andra högteknologiska produkter, så det obestridliga ledarskapet för en tillverkare gynnar bara en av dem, eller flera om de, för exempel, konspiration, men absolut inte du och jag :-)

Tack:
Ryska representationskontoret för NVIDIA och personligen Irina Shekhovtsova,
Ryska representationskontoret för AMD och personligen Kirill Kochetkov
för grafikkort som tillhandahålls för testning.

Annat material om detta ämne


Strömförbrukning för grafikkort: våren 2010
Behöver vi PhysX? Testar EVGA GeForce GTX 275 CO-OP PhysX Edition
Metro 2033 och moderna grafikkort

Nyligen dundrade de första presentationerna av en serie grafikkort baserade på NVIDIA och GTX 470, baserade på testning av officiella NVIDIA-prover, men först nu har sådana grafikacceleratorer börjat dyka upp på butikshyllorna. Naturligtvis kvarstår intrigen om likvärdigheten mellan prover och serieprover. Detta förstärks särskilt av tillverkarens beslut, även i linjens flaggskepp, NVIDIA-modellen, att använda en något nedskuren version av GF100-chippet (GPU baserad på Fermi-designen). Men vi ska försöka berätta om allt i ordning.

Själva Fermi-arkitekturen, som används i NVIDIA och GTX470 GPU:er (videokort), tillkännagavs redan i september 2009, och bara sex månader senare kunde användare dra nytta av dess fördelar. Den deklarerade kostnaden för grafikkort med GF100-arkitektur bör vara $500 för eller $350 för GTX 470, vilket är något högre än flaggskepp med ett chip från AMD, även om dessa grafikkort på vår marknad uppenbarligen kommer att vara ännu dyrare. Det är värt att notera att problemen som observerats av AMD när det gäller att producera GPU:er med TSMC 40nm processteknologi inte tillåter den att förse marknaden med det erforderliga antalet högpresterande produkter med stöd för DirectX 11. Med tanke på möjligheten som NVIDIA lämnar för att inaktivera problematiska delar av GPU:n för hela linjen, till och med de "översta" chipsen använder inte den fulla potentialen hos GF100, vi kan hoppas på ett mer komplett utbud av marknaden med grafikkort baserade på GTX470.

NVIDIA har definierat Fermi-arkitekturen som beräkningsmässig i sin kärna, och förvisar GPU:s traditionella roll att accelerera 3D-grafik i spel till bakgrunden. Fermi-arkitekturen är en konsekvent utveckling av Tesla-serien med datorkort som används i prestandakrävande system. Detta faktum bekräftas av stöd för felkorrigeringsminne (ECC) och förbättrad dubbelprecisionsdatorprestanda. De potentiella vinsterna av att köra vissa tekniska uppgifter parallellt är enorma, och NVIDIAs satsning på utveckling programvara har lett till ett betydande försprång framför AMD och Intel på denna växande marknad.

NVIDIA Fermi (GF100)

De planerade funktionerna hos det nya grafikkortet var tänkta att fördubbla prestandapotentialen flaggskeppsmodell på GF100 jämfört med ett GT200-baserat grafikkort som GTX285. Men teori leder inte alltid till praktiska resultat.

Själva GF100-chippet har 512 CUDA-kärnor (fyra Graphics Processing Clusters, som var och en innehåller fyra Streaming Multiprocessors, och var och en innehåller 32 CUDA-kärnor). Men bara 480 CUDA-kärnor fanns kvar, vilket är 32 kärnor mindre än i den ursprungliga GF100-arkitekturen. Denna förenkling gjordes genom att inaktivera en SM-multiprocessor i GF100, uppenbarligen på grund av omöjligheten att få tag i fullfjädrade grafikprocessorer i tillräckliga mängder.

Varje SM-multiprocessor innehåller i sin tur även sina egna texturenheter och PolyMorph-motor (fast funktionslogik som ger ökad prestanda för geometriberäkningar). Följaktligen fick jag 60 av 64 texturenheter och 15 PolyMorph-motorer.

I den del av GF100-pipelinen som är oberoende av GPC-kluster fanns det inga blockavstängningar för NVIDIA. Alla sex ROP-sektionerna finns kvar här. Varje partition kan mata ut åtta 32-bitars heltalspixlar samtidigt, vilket innebär att vi får 48 pixlar per klockcykel. En full GF100 med alla ROP-partitioner stöder ett 384-bitars GDDR5-minnesgränssnitt (det vill säga ett 64-bitars gränssnitt per partition). GPU:n stöder just en sådan konfiguration, och 256 MB minne per gränssnitt ger oss totalt 1,5 GB GDDR5-minne (bandbredden är 177 GB/s om du inkluderar klockfrekvens 924 MHz).

Alla dessa minskningar av driftkraften för originalchippet är en följd av problem med produktionen av användbara kristaller från NVIDIA, men behovet av att introducera nya lösningar på Hi-End-acceleratormarknaden tvingade dem att åtminstone "kasta ut" nedversioner av GF100-grafikprocessorn med Fermi-arkitektur. Men oavsett resultatet så finns det där och det är värt att testa och beskriva.

Ett produktionsvideokort med en boxdesign som är mycket karakteristisk för denna tillverkare har anlänt till vårt testlaboratorium.

Förpackningen till grafikkortet är designad i svarta och gula färger. På framsidan av kartongen anges grafikkortets modell, mängden minne, dess typ och bandbredden för minnesbussen. Det nämns också stöd för proprietära NVIDIA PhysX-tekniker och närvaron av en HDMI-kontakt. I det övre högra hörnet uppmärksammar tillverkaren stöd för proprietära teknologier: NVIDIA CUDA, NVIDIA PureVideo HD, NVIDIA SLI.

På baksidan av kartongen finns en liten översikt över funktionerna hos detta grafikkort. Fördelarna med att använda teknik beskrivs: NVIDIA 3D Vision Surround och PhysX.

Inuti finns själva grafikkortet och ytterligare leveranskomponenter. Tillsammans med grafikacceleratorn kan du få följande:

  • Grafikkortsströmadapter från två sexstiftskontakter till en åttastifts PCI Express;
  • Strömadapter för grafikkort från två MULEX-kontakter till en sexstifts PCI Express;
  • Adapter från DVI till VGA;
  • Adapter från Mini-HDMI till HDMI;
  • Användarmanual;
  • Disk med programvara och drivrutiner;
  • Demoskiva som beskriver alla nya funktioner i detta grafikkort.

Jag skulle vilja notera att strömadaptrarna som ingår i paketet helt klart kommer att tvinga användaren att använda en ganska kraftfull strömförsörjning med lämpliga kontakter för att ansluta ett grafikkort. Detta kan orsaka vissa problem när du väljer en konfiguration. I allmänhet bör paketet helt täcka alla nyanser av att installera detta grafikkort i en modern systemenhet.

Tryckt kretskort

Själva grafikkortet är gjort på en mörk PCB, vars framsida är täckt av ett kylsystem med ett mörkt plasthölje. Låt oss påminna dig om att detta grafikkort stöder PCI Express 2.0 x16-bussen, är kompatibelt med DirectX 11 Shader Model 5.0 och OpenGL 3.2 och stöder även NVIDIA-teknik PureVideo HD-teknik, NVIDIA 3D Vision Surround, NVIDIA PhysX-teknik, NVIDIA CUDA-teknik och NVIDIA SLI-teknik.

Baksidan av grafikkortets PCB ser mycket mer blygsam ut. Här kan vi bara notera GPU-strömsystemchippet - CHL8266 PWM-kontrollern som använder sex faser. Det finns tre transistorer för varje effektfas (en i överarmen och två i underarmen). Detta tillvägagångssätt möjliggör bättre värmeavlägsnande från elementen i kraftundersystemet. Det andra uP6210AG-chippet är redan välkänt för våra läsare från andra grafikkort baserade på GPU:er från NVIDIA. Det ger två faser av ström för minneschipsen på detta grafikkort. Totalt får vi alltså ett 6+2-fas strömförsörjningssystem för grafikkortet.

Om du tittar under kylsystemet kan du omedelbart konstatera att detta grafikkort är helt identiskt med dess "referens" -version. Grafikkortet använder ett 267 mm (10,5 tum) långt kretskort, vilket är ungefär en centimeter kortare än acceleratorerna på Radeon HD 5870, vilket kan hjälpa det att passa in i nästan alla moderna fall.

För extra ström (utöver PCI Express-bussen) krävs en sexstifts och en åttastiftskontakt. NVIDIA hävdar att ett sådant kort har en TDP på ​​250 W, vilket är betydligt mindre än Radeon HD 5970, som knappt passar 300 W-taket som PCI-SIG anger. För en "topp"-lösning rekommenderar NVIDIA därför en strömförsörjning med en effekt på 600 W eller högre.

Brädan upptar två öppningar på baksidan av höljet. För ett tillräckligt voluminöst kylsystem måste användaren frigöra utrymme inuti höljet.

Gränssnittspanelen innehåller två DVI-portar och en mini-HDMI. Dessutom kommer den andra springan att vara helt upptagen av avgasgallret, vilket säkerställer att uppvärmd luft blåser ut ur systemenheten.

Kylsystem

Låt oss ta en närmare titt på grafikkortets kylsystem. Den replikerar fullständigt "referens"-versionen och NVIDIA-ingenjörer försökte helt klart göra den så effektiv som möjligt, men på grund av grafikkortets frosseri förblir den resulterande temperaturen på komponenterna fortfarande på en ganska hög nivå.

Fem värmerör, ett extra värmeavledande hölje och den aerodynamiska designen av själva turbinen är tillsammans imponerande i sin maximala sofistikering. Detta är helt klart den mest effektiva kyldesignen av någon referensdesign som vi har sett hittills. Luften som pumpas av sidoturbinen passerar genom en aluminiumradiator, genomträngd av fem kopparrör, och går ut till husets utsida.

En unik egenskap hos denna design är placeringen av en av sidorna av radiatorn direkt på ytan av korthöljet, vilket klart förbättrar värmeavledningen, men på grund av den goda uppvärmningen av kylsystemet kan du bränna dig genom att hålla denna del av grafikkortet.

En anmärkningsvärd innovation här är en extra kylflänsplatta som tar bort värme från ytan på GPU:n och minneschips. Den gemensamma plattan täcker den övre delen av grafikkortskortet och ger värmeavlägsnande genom ett speciellt termiskt gränssnitt från minneschipsen och kraftsystemets transistorer.

Låt oss gå vidare till att testa kylsystemet. Vid maximal belastning var GPU-temperaturen imponerande 101 ° C, vilket inte anses vara en kritisk temperatur för denna GPU. Samtidigt fungerade kylsystemet på 92 % och skapade en märkbar ljudnivå.

Och i viloläge (2D-läge) arbetar kylaren med 44 % av sin maximala effekt. I det här läget märks dess arbete även mot det allmänna bakgrundsljudet. Kylsystemet som är installerat på detta grafikkort ger normal effektivitet, men behoven hos grafikkortets grafikkort tvingar den tydligt att försöka säkerställa acceptabla temperaturer. Bullret från kylsystemet beror helt klart på belastningen på grafikkortet, och det kan inte kallas tyst.

Nåväl, låt oss nu gå vidare till en detaljerad studie tekniska egenskaper grafikkort. Till att börja med, låt oss ge kort beskrivning i tabellform:

NVIDIA GPU:n som installeras här är märkt GF100-375-A3.

Frekvensdiagrammet för grafikkortet och andra egenskaper ser ut så här:

Detta prov replikerar fullständigt alla egenskaper hos "referens"-versionen av acceleratorn på NVIDIA. GPU:n på ZT-40101-10P arbetar på 701 MHz respektive shader-domäner på 1401 MHz. Videominnet fick 924 MHz verklig eller 3696 MHz effektiv frekvens.

Det testade grafikkortet använder SAMSUNG GDDR5 minneskretsar med en total kapacitet på 1536 MB. K4G10325FE-HC04-märkningen indikerar att dessa chips ger en åtkomsttid på 0,4 ns, vilket motsvarar en verklig frekvens på 1250 MHz eller 5000 MHz effektivt och ger ett betydande utrymme för överklockning.

Testning

CPU Intel Core 2 Quad Q9550 (LGA775, 2,83 GHz, L2 12 MB) @3,8 GHz
moderkort NForce 790i-Supreme (LGA775, nForce 790i Ultra SLI, DDR3, ATX)
GIGABYTE GA-EP45T-DS3R (LGA775, Intel P45, DDR3, ATX)
Kylare Noctua NH-U12P (LGA775, 54,33 CFM, 12,6–19,8 dB)
Thermalright SI-128 (LGA775) + VIZO Starlet UVLED120 (62,7 CFM, 31,1 dB)
Ytterligare kylning VIZO Propeller PCL-201 (+1 plats, 16,0-28,3 CFM, 20 dB)
Bagge 2x DDR3-1333 1024 MB Kingston PC3-10600 (KVR1333D3N9/1G)
Hårddiskar Hitachi Deskstar HDS721616PLA380 (160 GB, 16 MB, SATA-300)
Nätaggregat Seasonic M12D-850 (850 W, 120 mm, 20 dB)
Seasonic SS-650JT (650 W, 120 mm, 39,1 dB)
Ram Spire SwordFin SP9007B (Full Tower) + Coolink SWiF 1202 (120x120x25, 53 CFM, 24 dB)
Övervaka Samsung SyncMaster 757MB (DynaFlat, 2048×1536@60 Hz, MPR II, TCO'99)

Under testningen blev det tydligt att grafikkortet bekräftar sin status som den mest kraftfulla grafikacceleratorn med ett chip hittills. Den nya GPU-produkten från NVIDIA är helt klart lite snabbare i prestanda än sina konkurrenter på AMD-chips, men med tanke på dess strömförbrukning och driftstemperatur, vilket också medför ökat brus, och även sett till prislappen kan den absolut inte kallas en balanserad lösning. Dessutom uppstår tvivel om möjligheten att skapa en version med dubbla kretsar baserad på NVIDIA, som kan överträffa grafikacceleratorn med dubbla kretsar på Radeon HD 5970.

Överklockning

Överklockning av detta grafikkort kan inte heller kallas enastående. Vi kunde nästan inte överklocka minnet på grafikkortet, även om chipsen själva helt klart fungerar långsammare än sin nominella frekvens. Men själva GPU:n, med en spänning på 1,05 V, kunde överklockas till 770 MHz, och kärntemperaturen var 87 ° C. Men under överklockning är grafikkortet i andra förhållanden än under effektivitetstestet för kylsystemet, i synnerhet togs sidopanelen av höljet bort och en 120 mm fläkt installerades nära grafikkortet, vilket förbättrar kylningsförhållandena något, och själva kylaren arbetade konstant med 100 % rotationshastighet. Med en mjukvarumekanism för att kontrollera matningsspänningen fortsatte vi våra experiment. När den levererade 1,075 V kunde GPU:n överklocka till 784 MHz, och temperaturen ökade till 91 ° C. Det bästa resultatet uppnåddes vid 1,1 V, när GPU:n överklockades till 790 MHz, men nu ökade dess temperatur under belastning till 99 ° C

Låt oss se hur manuell acceleration påverkade prestandan:

Testpaket

Standardfrekvenser

Överklockat grafikkort

Produktivitetsökning, %

3DMark poäng
SM2.0 Poäng
HDR/SM3.0-poäng
Prestanda

Serious Sam 2, maximal kvalitet, AA4x/AF16x, fps

1600×1200
2048×1536

Byte, maximal kvalitet, AA4x/AF16x, fps

1600×1200
2048×1536

Call Of Juarez, Maximal Quality, NO AA/AF, fps

1280×1024
1600×1200
2048×1536

Call Of Juarez, maximal kvalitet, AA4x/AF16x, fps

1280×1024
1600×1200
2048×1536

Crysis, maximal kvalitet, INGEN AA/AF, fps

1280×1024
1600×1200
2048×1536

Crysis, maximal kvalitet, AA4x/AF16x, fps

1280×1024
1600×1200
2048×1536

Crysis Warhead, Maximal Quality, NO AA/AF, fps

1280×1024
1600×1200

Crysis Warhead, maximal kvalitet, AA4x/AF16x, fps

1280×1024
1600×1200

Far Cry 2, maximal kvalitet, INGEN AA/AF, fps

1280×1024
1600×1200
2048×1536

Far Cry 2, maximal kvalitet, AA4x/AF16x, fps

1280×1024
1600×1200
2048×1536

Vinsten från överklockning är ganska svag, och med tanke på grafikkortets maximala driftstemperaturer även utan överklockning, blir genomförbarheten av den senare tveksam, eftersom du kommer att behöva arbeta hårt för att öka kylningseffektiviteten hos GPU:n. Och även vid nominella frekvenser kan denna "topp" lösning enkelt ge anständigt spelprestanda även för en krävande användare.

Resultat

Grafikkort baserade på NVIDIA-grafikprocessorn, inklusive den testade ZT-40101-10P, visade sig vara mycket produktiva enchipslösningar. Dessutom hade GF100 GPU med Fermi-arkitektur som användes i dem initialt 512 strömmande kärnor, men som ett resultat av vissa problem med att få det erforderliga antalet chips under produktionen använder de "översta" grafikkorten på den bara 480 kärnor. Men på grund av ganska höga driftsfrekvenser visade sig acceleratorerna ändå vara generellt sett snabbare än konkurrentens enkelchipskort baserade på Radeon HD 5870, även om marknadsledaren fortfarande är dubbelchipslösningen från AMD – Radeon HD 5970.

Men om enchips "top-end" grafikkort på GPU:er från NVIDIA är överlägsna i prestanda jämfört med motsvarande lösningar på chips från AMD, så är strömförbrukningen uppenbarligen inte NVIDIA-kortens starka sida. Naturligtvis kommer detta inte att vara ett urvalskriterium för många entusiaster, men i vissa fall är det värt att tänka på denna aspekt, eftersom en ökning av energiförbrukningen inte bara leder till en liten ökning av elräkningarna. Faktum är att all energi som förbrukas av grafikacceleratorn försvinner i form av värme, som snabbt måste avlägsnas för att undvika överhettning och fel på högteknologiska komponenter, vilket i sin tur leder till ett mer komplext kylsystem och en ökning av dess ljud.

NVIDIA GeForce GTX 480M- ett grafikkort av högsta kvalitet byggt på Fermi-arkitekturen. Den har fullt stöd för DirectX 11 och är tillverkad med 40 nm-teknik från TSMC. Med 352 kärnor, GTX480M kan jämföras med GTX 465 för stationära datorer, men med en lägre frekvens. GeForce GTX 480M har 2 GB snabbt GDDR5-videominne (diskret), så dess prestanda bör vara i nivå med ATI Mobility Radeon HD 5870-kortet.

Även känd som GF100, har Fermi-chippet gjorts om och har nu 3 miljarder transistorer (med alla 512 shaders). Jämfört med stationära HD 5870, som har 2,13 miljarder transistorer eller Mobility Radeon HD 5870(RV870) med 1,04 miljarder transistorer, GTX480M ser ganska imponerande ut.

Det mobila Fermi-chippet innehåller upp till 352 shader-kärnor (1-dimensionell) med 32 rasteriseringsenheter (ROP) och 44 texturenheter (Texture Unit). Minnesbussen är på 256-bitar, men på grund av det snabba GDDR5-minnet borde det inte vara något problem. Strömförbrukningen är 100 W TDP, inklusive MXM-kortet och 2 GB GDDR5. AMD kvantifierar vanligtvis chipets energiförbrukning separat, så de kan inte jämföras direkt. GTX 480M Endast lämplig för en stor bärbar dator med ett bra kylsystem. Till en början var det bara Clevo som bestämde sig för att installera detta kort i sina barebones - 17" D901F och 18" X8100.

Prestanda Nvidia GeForce GTX 480M borde vara bättre än ATI Mobility Radeon HD 5870, och i paritet med mobilsystem Geforce GTX 285M SLI och Radeon HD 4770 för stationära datorer. Det betyder att GTX480M- det snabbaste enstaka grafikkortet under första kvartalet 2010. Moderna DirectX 10-spel bör köras flytande i höga upplösningar med bra rendering och kantutjämning. Bara mycket krävande spel som Crysis Warhead kan behöva skruva ner detaljerna lite. På grund av hårdvarustöd för DirectX 11 (till exempel bra tessellation) borde grafikkort byggda på Fermi-arkitekturen fungera bra i DirectX 11-spel, av vilka fler och fler kommer att dyka upp.

Precis som GeForce 300M-serien med grafikkort, GeForce GTX 480M stöder PureVideo HD med VP4-videoprocessor. Detta innebär att grafikkortet helt kan avkoda HD-video i H.254, VC-1, MPEG-2 och MPEG-4 ASP. Med Flash 10.1 kan grafikkortet också påskynda bearbetningen av Flash-video. Kärnor Nvidia GeForce GTX 480M kan användas för allmän beräkning med CUDA eller DirectCompute. Till exempel kan HD-videokodning göras betydligt snabbare med GPU:ns shader-kärnor än vad en modern CPU skulle göra. PhysX, som också stöds av mobil Fermi, låter dig beräkna fysikeffekter i relevanta spel (fallande regndroppar, dispergering av dimma, etc.).

Jämfört med skrivbordsgrafikkort, GeForce GTX 480M Kan matchas med ett överklockat kort Nvidia GeForce GTX 465(frekvens 607/1200) och Radeon HD 5770.

För mer än sex månader sedan dök ATI Radeon 5xxx Series grafikkort upp på marknaden för videoadapter. De tog med sig hårdvarustöd för DirectX 11 och Shader Model 5.0, tessellation och många andra godsaker för den som gillar att spela tv-spel. Tyvärr (eller lyckligtvis...) kunde rivalen i NVIDIAs person inte tillhandahålla en konkurrent i tid, och därför skördade AMD (mer exakt, dess division av ATI, som utvecklar grafikkretsar) alla frukterna av framgång, bokstavligen "översvämmar" marknaden med grafikkort med DirectX 11-stöd.

NVIDIA, som aldrig har snålat med PR för sina produkter, gjorde inte heller denna gång besviken, och matade medvetet entusiaster med smulor från NVIDIA GF100-utvecklarnas mästarbord, baserat på Fermi-mikroarkitekturen. Vi hörde först några detaljer om strukturen för GF100-chippen för lite över ett halvår sedan. Sedan dess, i djupet av NVIDIA-företagets hemliga laboratorier, skapades en konkurrent till den femtusente serien av ATI Radeon-grafikkort, som verkligen helt enkelt måste leva upp till alla löften som gavs tidigare. Och så hände ett mirakel! För en månad sedan, mitt bland analytikers fyrverkerier och fanfarer, lanserades grafikkorten GTX 480 och GTX 470 för att fritt flyta runt på världsmarknaden. Levde de upp till sin "långa väntan" eller inte?

reklam

Struktur och arkitektur för NVIDIA GF100

Idag finns det bara två videoadaptrar från NVIDIA på marknaden med stöd för DirectX 11. De borde sätta kursen för hela rörelsen av den nya linjen. Det högsta kortet på det här ögonblicketär GTX 480.

"Drömmar blir sanna..." Det verkar som att det är precis vad Yuri Antonov sjöng. Men, som det visade sig, "de går inte i uppfyllelse." GTX 480 var ursprungligen tänkt att ha 512 "högpresterande CUDA-kärnor", men av någon anledning kunde NVIDIA inte implementera sin plan till 100%. Som ett resultat kan vi se en minskning av antalet GTX 480 från 512 till 480 processorer.


En värld av gratis program och användbara tips
2024 whatsappss.ru

Tillverkare: NVIDIA
Serier: GeForce GTX 400M
Koda: Fermi
Strömmar: 352 - enad
Klockfrekvens: 425* MHz
Shader frekvens: 850* MHz
Minnesfrekvens: 1200* MHz
Minnesbuss bredd: 256 bitar
Minnestyp: GDDR5
Maximalt minne: 2048 MB
Gemensamt minne: Nej
DirectX: DirectX 11, Shader 5.0
Energiförbrukning: 100 W
Transistorer: 3000 miljoner
Teknologi: 40 nm
Laptop storlek: stor
Utgivningsdatum: 25.05.2010