Nvidia geforce gtx 260 driftstemperatur. Hvilken temperatur på skjermkortet anses som normal. Spilltester: World in Conflict

I denne artikkelen skal vi snakke om det som en gang var et av de beste spillvideokortene nVidia GeForce GTX 260. Modellen ble laget i 2009 og regnes som en nedstrippet versjon av GTX 280 - forskjellen vil bli diskutert mer detaljert i artikkelen. Med tanke på formålet med skjermkortet, kan vi si at det er beregnet på spillere. Et annet hyggelig funn - skjermkortet kjører spill fra 2015-2017 med utmerket fps, så det kan med rette betraktes som en ekte "dinosaur" i dette produksjonsfeltet. Men først ting først.

Hovedtrekk

  • Teknologi: 65 Nm
  • Kjerneklokke: 576 MHz
  • Minnetype: GDDR3
  • Minnefrekvens: 999 MHz
  • Egen videoadapterkapasitet: 896 MB
  • Minnebuss: 448 bits
  • Rasteriseringsenheter: 28
  • Teksturblokker: 64
  • Antall utførelsesprosessorer: 192
  • Videominnebåndbredde: 112 GB/sek

Produsenter

Referanse fra nVidia

Den første og viktigste produsenten av skjermkort er NVIDIA.

jeg lurer på hva denne modellen var en defekt på NVIDIA GeForce GTX 280, hovedsakelig på grunn av redusert antall skjermkortkontrollmoduler, og derfor hadde GTX 260 så å si en ikke-standard mengde minne - 896 MB, noe som er i strid med standardene for mengde videominne på skjermkort, i henhold til hvilken det skal være lik toer i en hvilken som helst grad. Med GTX 280 er alt koordinert i denne retningen på grunn av et komplett sett med kontrollenheter og minnekapasiteten er 1024 megabyte, det vil si to til tiende kraft. I tillegg har den nedstrippede versjonen, det vil si GTX 260, mindre:

  • Videominnefrekvens (1998 MHz mot 2214 MHz for GTX 280),
  • Minnebussbredde (448 bits versus 512)
  • GPU-frekvens (575 MHz vs. 602)

Skjermkortet har også et mindre antall enhetlige shader-prosessorer (192 mot 240), teksturenheter (64 mot 80), høyere strømforbruk (500 watt mot 550), etc.

På grunn av alt dette vinner GeForce GTX 280 naturligvis når det gjelder ytelse, selv om den taper i strømforbruk, varmespredning (oppvarming med 100 grader Celsius for GTX 280 mot 80 grader Celsius for GTX 260), og betydelig i kostnader ( prisen på GTX 280 var $500 på den tiden, hvordan GTX 260 koster $200 mindre!).

Modifikasjon av XFX GeForce GTX 260 fra XFX

For å være ærlig ble ingenting endret i de tekniske spesifikasjonene, men skjermkortet var innrammet i en boks med et vakkert design, mye nytt tilbehør i forhold til NVIDIA-modellen, samt en fullversjon av Assasins Creed-spillet. Skjermkortet kommer også med installasjons- og bruksanvisning, og på selve boksen minstekrav for å kjøre et skjermkort, for eksempel en 500 W strømforsyning med en strøm på 36 ampere ved en spenning på 12 volt og så videre. Baksiden av esken beskriver de ulike fordelene med grafikkortet.

Modifikasjon av ZOTAC GeForce GTX 260 AMP2! Utgave av ZOTAC

Da selskapet introduserte den første modifikasjonen av GTX 260 (AMP1!), var det vanskelig å nevne forskjellene fra XFX-modifikasjonen, bortsett fra en annen boks med dragedesign og spillet som fulgte med pakken (GRID), men ZOTAC ble rehabilitert og i den nye versjonen introduserte et forbedret skjermkort med 216 -y utøvende prosessorer, som utvilsomt forbedrer hastigheten på utveksling av skjermkortet med RAM og følgelig større ytelse. I tillegg er det enda en forskjell fra konkurrenters produkter, nemlig tilstedeværelsen av 2 kabler for tilkobling av ekstra strøm (konkurrenter har bare en), ellers er alt det samme som i lignende GTX 260.

Sammenligning med analoger

Den evige kjempekampen: nVidia GeForce GTX 260 vs ATi Radeon HD 4870

Da disse skjermkortene var de kraftigste av spillkortene, kostet de omtrent det samme - $300. Men mange kjenner til AMDs ignorering av produktene sine, og dette kunne ikke unngås her, siden AMD var likegyldig til å støtte sin idé og ikke ga ut nye drivere for Radeon HD 4870, dette forårsaket mange negative tilbakemeldinger, og det var også problemer med overdreven strømforbruk til dette skjermkortet i forhold til det som ble spesifisert ved utgivelsen, og derfor falt kostnadene med dette øyeblikket et skjermkort koster omtrent 6 500 rubler, mens GTX 260 praktisk talt ikke har falt i pris siden 2009, og for øyeblikket er kostnaden for en videoadapter 17 000 rubler.

Forskjeller mellom GeForce GTX 260 og Radeon HD 4870 skjermkort

nVidia GeForce GTX 260 ATi Radeon HD 4870
Teknologisk prosess 65 Nm 55 Nm
Antall transistorer 956 millioner 1400 millioner
GPU-frekvens 750 MHz 602 MHz
Videominnefrekvens 3600 MHz 2214 MHz
Størrelse på videominne 512/1024 MB 896 MB
Støttet minnetype GDDR5 GDDR3
Minnebussbredde 256 biter 512 biter
Antall utførelsesprosessorer 800 240
Antall teksturblokker 40 80
Antall rasteriseringsblokker 16 32
Båndbredde 115 GB/sek 141 GB/sek

Til tross for forskjellene i egenskaper, er de to skjermkortene nesten like i ytelse, som vist ved sammenligningen i benchmarks og noen spill. Men samtidig bør vi ikke glemme problemet med energiforbruket til Radeon-kortet og mangelen på støtte for det, derfor vil jeg, til tross for forskjellene i kostnader og omtrent like ytelse, ved kjøp fortsatt gi preferanse til nVidia GeForce GTX 260.

Tester

Testing i benchmarks, spill under overklokkingnVidia GeForce GTX260 og uten.

I testing oppfører skjermkortet seg ganske selvsikkert og viser gode resultater både i benchmarks og i spill. Hvis vi snakker om den såkalte skjermkortoptimaliseringen ved å bytte ut kjølesystemet og GTX overklokking 260, så er det definitivt ikke verdt å gjøre dette. Produktiviteten vil ikke øke mye, noe som vises tydelig nedenfor, og utgifter til dette vil være forgjeves. Samtidig øker risikoen for overoppheting fortsatt, siden temperaturen på skjermkortet allerede er 80 grader Celsius, og under overklokking vil den til og med øke til kritisk, som et resultat av at GTX 260 ganske enkelt vil brenne ut. Dette er hva som kom ut i testing ved å bruke ulike benchmarks med og uten overklokking av nVidia GeForce GTX 260.

Konfigurasjon av systemenheten som testes:

  • MP: ASUSTek P5K Deluxe/WiFi-AP (Intel P35), LGA 775, BIOS v0812
  • PROSESSOR: Intel kjerne 2 Extreme QX9650, 3,0 GHz, 1,25 V, L2 2 x 6 MB, FSB: 333 MHz x 4, (Yorkfield, C0)
  • CPU-kjølesystem: Thermalright SI-128 SE (Scythe Ultra Kaze, ~1250 rpm);
  • RAM: 2 x 1024 MB DDR2 Corsair Dominator TWIN2X2048-9136C5D (Spesifikasjon: 1142 MHz / 5-5-5-18 / 2.1 V) + 2 x 1024 MB DDR2 CSX DIABLO CSXO-XAC-12KIT2-Spec-12KIT2-Spec-12KIT2-Spec: MHz / 5-5-5-16 / 2,4 V);
  • Stasjoner: SATA-II 500 GB, Samsung HD501LJ, 7200 rpm, 16 MB, NCQ;
  • Stasjon: SATA-II DVD RAM & DVD±R/RW & CD±RW Samsung SH-S183L;
  • Strømforsyning: Enermax Galaxy DXX (EGA1000EWL) 1000 Watt (standard vifter: 135 mm for inntak, 80 mm for avtrekk).
  • Skjerm: 24" BenQ (Wide LCD, 1920 x 1200 / 60 Hz)

For å eliminere muligheten for at ytelsen til GTX 260 avhenger av hastigheten til resten av PC-maskinvaren, ble det besluttet å overklokke prosessoren til en klokkefrekvens på 4 GHz og øke spenningen til 1,6 volt. Operativsystemet som ble valgt for testing var Win Vista. Ultimat utgave x64 preSP1. I selve skjermkortet ble GPU-frekvensen økt fra 602 til 738 MHz og videominnefrekvensen fra 2214 til 2484 MHz. Spillinnstillingene ble satt til høye, testingen ble utført med en oppløsning på 1920 x 1200.

Resultater:

GeForce GTX 260 GeForce GTX 260 (overklokket)
3DMark 2006 10000 11681
3DMark Vantage 4138 4989
FORFØLGER. – Skyggen av Tsjernobyl 67 fps 80 fps
Call of Duty 4: Modern Warfare 98 fp 110 fps
Crysis 35 fps 42 fps

Basert på resultatene ovenfor kan vi konkludere: når den er overklokket, gir ikke GeForce GTX 260 en høy ytelsesøkning i benchmarks, selv om den i spill viser en utmerket ytelsesøkning, og nærmer seg GTX 280 når det gjelder ytelse, men om dette er verdt risikoen for overoppheting av skjermkortet er opp til deg å bestemme.

P.S. I noen moderne spill fra 2013-2017 viser nVidia GeForce GTX 260 2009 utmerket ytelse! For eksempel, i GTA 5 45 fps på medium innstillinger, 33 fps i Skyrim på medium, 100 fps i CS: GO på medium, 40 fps i Dota 2 på maksimum.

Grafikkortet er den travleste komponenten i datamaskinen når det kommer til spilling. Den behandler millioner av instruksjoner som utfører ulike operasjoner mens du spiller, og dette får den til å bli varm. I likhet med CPU, kan overoppheting oppstå GPU på grafikkortet, noe som kan føre til en rekke problemer, inkludert grafikkortfeil. I et grafikkort er GPU hovedkomponenten der overoppheting kan oppstå. Grafikkortminnet kan også bli varmt, men det går ikke utover farenivået. Overoppheting kan redusere levetiden til GPUen og kan også forårsake umiddelbar skade på grafikkortet.

Hvilken skjermkorttemperatur anses som normal?

Svaret på dette spørsmålet avhenger både av produsenten og på spesifikk modell grafikkort, men generelt er alt over 80 grader celsius et tegn på bekymring. Hvis GPU-grafikkortets temperatur overstiger 80°C, bør du ta passende tiltak for å senke den, helst i området 70°C - 75°C eller lavere.

Hvis du har problemer med ytelsen til datamaskinen din, spesielt når du redigerer video, behandler video eller når du spiller av video begynner den å stamme, tregere eller fryse, så er det første du må gjøre å sjekke skjermkortet og sammenligne det med avlesningene i tabellen nedenfor.

Akseptabel temperatur NVIDIA skjermkort

SkjermkortTomgangstemperaturTillatt temperaturMaksimal temperatur
GeForce GTX 1080 Ti42 55-80 91
GeForce GTX 108042 60-84 94
GeForce GTX 107041 83 94
GeForce GTX 106038 55-75 94
GeForce GTX 1050 Ti35 55-80 97
GeForce GTX 105035 55-80 97
GeForce GT 103035 65-82 97
GeForce GTX TITAN X42 83 91
GeForce GTX TITAN (Z, svart)41 81 95
GeForce GTX 980 Ti42 85 92
GeForce GTX 98042 81 98
GeForce GTX 97044 73 98
GeForce GTX 96037 50-78 98
GeForce GTX 95030-35 75 95
GeForce GTX 780 Ti42 83 95
GeForce GTX 78043 83 95
GeForce GTX 77036 60-77 98
GeForce GTX 76036 82 97
GeForce GTX 750 Ti33 55-70 95
GeForce GTX 75033 76 95
GeForce GTX 69034 77 98
GeForce GTX 68037 80 98
GeForce GTX 67036 55-80 97
GeForce GTX 660 Ti34 78 97
GeForce GTX 66032 63 97
GeForce GTX 650 Ti Boost38 69 97
GeForce GTX 65035 66 98
GeForce GTX 645- - 97
GeForce GT 64034 75 102
GeForce GT 63035 75 98
GeForce GT 620- - 98
GeForce GTX 59037 81 97
GeForce GTX 58042 81 97
GeForce GTX 57044 81 97
GeForce GTX 560 Ti33 76 99
GeForce GTX 56034 76 99
GeForce GTX 550 Ti36 67 100
GeForce GT 52037 75 102
GeForce GTX 48044 96 105
GeForce GTX 47030-40 92 105
GeForce GTX 465- 90 105
GeForce GTX 46030 65-80 104
GeForce GTS 450- 65-80 100
NVIDIA TITAN Xp- 80 94
NVIDIA TITAN X- 80 94

Tiltak for å redusere GPU-temperaturen

Her er alle mulige tiltak du kan ta for å senke temperaturen på GPU-grafikkkortet.

Deaktiver GPU-overklokking

Hvis du har overklokket grafikkortet ditt, bør du sette GPU-en tilbake til de opprinnelige innstillingene for å forhindre at den øker GPU-temperaturen. Hvis du planlegger å overklokke igjen, må du sørge for at kortet forblir innenfor et trygt temperaturområde i fremtiden. Nedenfor kan du lese hvordan du forhindrer at kortet overopphetes.

Rengjør vifte og radiator

Støv kan sette seg fast på kjøleribben og viften, og dermed redusere ytelsen og effektiviteten. Åpne PC-dekselet og fjern deretter grafikkortet. Etter det, bruk en liten børste og en støvsuger for forsiktig å fjerne støv fra skjermkortet. Installer grafikkortet igjen, og overvåk deretter temperaturen ved hjelp av GPU-overvåkingsverktøy.

Bytte termisk pasta

Det er mulig at den termiske pastaen mellom GPUen og kjøleribben har tørket ut og sprukket, noe som får den til å miste sin effektivitet. Du må fjerne viften og kjøleribben, og fjerne eventuell gjenværende gammel termisk pasta, og forsiktig påføre ny termisk pasta. Les mer detaljert om hvordan du erstatter termisk pasta på riktig måte.

Defekt vifte

Hvis skjermkortviften ikke fungerer som den skal eller kanskje den roterer veldig sakte, kan dette skyldes en økning i GPU-temperaturen. Her er det eneste du kan gjøre å bytte ut den defekte skjermkortviften med en ny eller prøve en.

Installer et mer effektivt kjølesystem

Du kan også installere en god, høyere ytelse tredjeparts Aftermarket GPU-kjøler på skjermkortet ditt. Og hvis du tror at lagerkjøleren/kjøleviften (HSF) ikke gjør en god nok jobb, kan du installere et vannkjølingssystem for kortet for å få ned GPU-temperaturen.

Merk: Ettermarkedskjølere fungerer bare med referanseskjermkort eller skjermkort i standardstørrelse trykt kretskort.

Øk luftstrømmen inne i PC-dekselet

Feil eller dårlig luftstrøm inne i datamaskindekselet kan også føre til at grafikkortets temperatur øker. For å forbedre luftstrømmen inne i PC-dekselet kan du installere ekstra avtrekksvifter.

For en tid siden, i testlaboratoriet vårt, testet vi flere videoadaptere produsert av GIGABYTE. Men dette var skjermkort basert på referansegrafikkbrikker fra NVIDIA. Denne gangen ble vi utstyrt med skjermkort i en overklokket versjon, det vil si å ha en fabrikkoverklokking av minnefrekvensene og selve grafikkjernen, som kalles Super Over Clock, nemlig GIGABYTE GeForce GTX 275 (GV-N275SO-18I) og GIGABYTE GeForce GTX260 (GV-N26SO-896I). I denne artikkelen vil vi presentere resultatene av testingen deres, og for klarhet vil vi legge til resultatene av testingen av den forrige modellen av GIGABYTE GeForce GTX 275 (GV-N275UD-896I) videokort (versjonen uten overklokking) og, selvfølgelig referanse GIGABYTE GeForce GTX 295 skjermkort (GV-N295-18I).

GIGABYTE GeForce GTX260 Super Over Clock (GV-N26SO-896I)

GIGABYTE GeForce GTX260 Super Over Clock-skjermkortet er bygget på nVIDIA GeForce GTX 260-grafikkprosessoren (GT200-brikke), men har en rekke forskjeller fra referanseskjermkortet. Først av alt er disse selvfølgelig endret spesifikasjoner modeller. Utseendet til skjermkortet, så vel som utformingen av kjølesystemet, har ikke gjennomgått praktisk talt noen endringer og er ikke forskjellig i utseende fra kjølesystemet installert på referansemodellen Geforce GTX260. Det er verdt å merke seg at, som GIGABYTE hevder, endres viftehastigheten automatisk avhengig av gjeldende temperatur på GPU, men selve prinsippet for denne avhengigheten, sammenlignet med referansemodellen, er endret. Kjølesystemet er basert på en massiv aluminiumsradiator plassert i et plasthus, som dekker hele kretskortet til skjermkortet.

Når GIGABYTE GeForce GTX260 Overclock Edition-skjermkortet er inaktivt, overstiger ikke GPU-temperaturen (i henhold til GPU-Z 0.3.4-verktøyet) 49 °C. Samtidig er viftens rotasjonshastighet 1381 rpm og endres ikke opp til 85 ° C. I referansemodellen begynner vifterotasjonshastigheten å endre seg fra 72 °C. Og siden grafikkortet vanligvis ikke kjører på 100 % kapasitet, gir det nye RPM-temperaturforholdet brukeren et roligere grafikkort.

For å bestemme den maksimale vifterotasjonshastigheten, samt måle det maksimale strømforbruket til modellen, brukte vi FurMark 1.7.0-verktøyet, designet for stressbelastning av skjermkort, og et maskinvarewattmåler. Under testing viste det seg at topphastighet Vifterotasjonshastigheten på GIGABYTE GeForce GTX260 Overclock Edition-skjermkortet er 2910 rpm. Samtidig krysser ikke temperaturen på grafikkprosessoren linjen på 86 ° C, noe som kan betraktes som en god indikator, basert på det faktum at skjermkortet har økt frekvensegenskaper grafikkminne og prosessor. Dermed er GPU-kjernefrekvensen 680 MHz, shader-enhetens frekvens er 1500 MHz, og videominnefrekvensen er 1250 MHz. La oss huske at for referanseskjermkortet er kjernefrekvensen for grafikk 576 MHz, skyggeenheten er 1242 MHz, og minnefrekvensen er 999 MHz.

Som du kan se, er alle hovedkomponentene til skjermkortet litt overklokket, og derfor bør ytelsen være minst litt høyere enn ytelsen til referanseskjermkortet.

Når det gjelder de gjenværende egenskapene til GIGABYTE GeForce GTX260 Overclock Edition-skjermkortet, skiller de seg ikke fra egenskapene til referansemodellen, med unntak av ett faktum. Skjermkortet er utstyrt med 896 MB GDDR3-minne, og minnebussbredden er 448 bits, mens minnebåndbredden er 130 GB/s.

NVIDIA GeForce GTX 260 grafikkprosessor (kodenavnet GT200), produsert ved hjelp av en 55 nm prosessteknologi (dysearealet er 487 mm2), har 216 shader enhetlige prosessorer og 28 rasteroperasjonsenheter (ROPs). I tidligere versjoner skjermkort basert på denne brikken brukte bare 192 enhetlige shader-prosessorer.

Det gjenstår å legge til at GIGABYTE GeForce GTX260 Overclock Edition-skjermkortet har en DVI-I-utgang, en HDMI-utgang og en VGA (D-Sub)-utgang, mens referanseskjermkortet kun var utstyrt med en DVI- og VGA-kontakt. Imidlertid tillater ikke modellen vi testet, som alle modeller av grafikkbrikker, å koble til tre skjermer samtidig, og tre utganger er gitt til brukeren slik at han har et valg. Denne modellen, som alle de nyeste skjermkortene basert på kraftige grafikkbrikker, opptar to spor i systemenhet og er kompatibel med API Direct X10 (SM 4.0). Vi kunne selvfølgelig også huske støtte for alle slags proprietære teknologier som CUDA, PhysX, etc., men la oss skille rene markedsføringsteknologier fra hva brukerne virkelig trenger.

GIGABYTE GeForce GTX275 Super Over Clock (GV-N275SO-18I)

GIGABYTE GeForce GTX275 Super Over Clock-skjermkortet, som den andre modellen i vår testing fra GIGABYTE, er bygget på NVIDIA GeForce GT200-grafikkprosessoren. Dessuten snakker vi i dette tilfellet om en overklokket versjon av NVIDIA GeForce GTX275-grafikkbrikken, som kun har dårligere ytelse enn skjermkort basert på NVIDIA GeForce GTX285- og GeForce GTX295-grafikkprosessorer (dette gjelder selvfølgelig skjermkortbaserte på sjetonger fra dette selskapet). Dette skjermkortet har også endret alle frekvenskarakteristikker - driftsfrekvensene til minnet, grafikkbrikken og driftsfrekvensene til enhetlige prosessorer. Hvis for referansemodellen (GIGABYTE GeForce GTX275 (GV-N275UD-896I)) minnefrekvensen er 1200 MHz, så er den for GIGABYTE GeForce GTX275 Super Over Clock-skjermkortet 1260 MHz. Grafikkjernen i dette nye skjermkortet opererer med en frekvens på 715 MHz, mens referansefrekvensverdien for kort basert på denne brikken er 633 MHz. Driftsfrekvensen til shader-enheten, det vil si de enhetlige prosessorene, er 1550 MHz, mens referansemodellen er 1404 MHz. I tillegg bruker GIGABYTE GeForce GTX275 Super Over Clock grafikkort 896 MB GDDR3-minne med en 448-bits minnebussbredde.

Ris. 1. Sammenligning av skjermkortegenskaper

Kjølesystemet som brukes på GIGABYTE GeForce GTX275 Super Over Clock-skjermkortet er en referanse, men som i tilfellet med det ovenfor beskrevne skjermkortet på GeForce GTX260-brikken, er det endret.

Når GPUen ikke er lastet, er temperaturen 43 ° C, og viftehastigheten er 1500 RPM. Ved maksimal belastning av GPUen øker temperaturen til 91 ° C, og viftehastigheten er 2150 RPM. Sammenlignende egenskaper for GIGABYTE GeForce GTX275 Super OverClock-modellen og referanseskjermkortet er vist i tabellen.

Akkurat som det andre skjermkortet vi testet, opptar GIGABYTE GeForce GTX275 Super Over Clock to spor i systemenheten, har et PCIExpress 2.0-grensesnitt og tre utganger for å koble til en skjerm – DVI-I, VGA og HDMI. Det gjenstår å legge til at denne modellen under testing var preget av ganske hyppige feil under drift. Dette forklares selvfølgelig nøyaktig av de overvurderte klokkefrekvensene, men det er sannsynlig at denne oppførselen var forårsaket av en slags produksjonsfeil.

Testmetodikk

Metodikken for å teste skjermkort er beskrevet i detalj i artikkelen "Ny metodikk for testing av prosessorer, datamaskiner og skjermkort," publisert i septemberutgaven av magasinet, og derfor vil vi ikke gjenta oss selv og vil bare kort huske hovedpoengene. . Det er verdt å merke seg at i denne testen brukte vi det nye Windows 7 Ultimate OS som operativsystem. Referanseresultater ble også innhentet på et nytt operativsystem med siste versjon i skrivende stund NVIDIA-drivere ForceWare 190.62.

For å teste skjermkort bruker vi ComputerPress Game Benchmark Script v.4.0 testskript, som lar deg fullautomatisere hele testprosessen og velge spill for testing, skjermoppløsningen de lanseres med, spillinnstillinger for maksimal skjermkvalitet eller maksimal ytelse, og angi også antall kjøringer for hvert spill.

ComputerPress Game Benchmark Script v.4.0 inkluderer følgende spill og benchmarks:

  • Quake 4 (patch 1.42);
  • S.T.A.L.K.E.R.: Shadow of Chernobyl (patch 1.005);
  • S.T.A.L.K.E.R.: Clear Sky (Patch 1.007);
  • Half-Life: Episode 2;
  • Crysis v.1.2.1;
  • venstre 4 døde;
  • Call of Juares Demo Benchmark v. 1.1.1.0;
  • 3DMark06 v. 1.1.0;
  • 3DMark Vantage v. 1.0.1.

Under testingen ble alle spill (med unntak av 3DMark Vantage v. 1.0.1) lansert med fire forskjellige skjermoppløsninger: 1280x800 (eller 1280x720), 1440x900, 1680x1050 og 1920x1200. Benchmark 3DMark Vantage v. 1.0.1 ble kjørt i hver av de fire forhåndsinnstillingene (Entry, Performance, High og Extreme).

Alle spillene ble lansert i to innstillingsmoduser: maksimal ytelse og maksimal kvalitet. Den maksimale ytelsesinnstillingsmodusen oppnås ved å deaktivere effekter som anisotropisk teksturfiltrering og skjermkantutjevning, samt sette bildedetaljer til lav osv. Det vil si at denne modusen er rettet mot å få høyest mulig resultat (maksimal FPS-verdi).

Den maksimale kvalitetsinnstillingsmodusen oppnås ved bruk av høye detaljer, ulike effekter, anisotropisk teksturfiltrering og anti-aliasing av skjermen. I denne modusen innstillinger, avhenger resultatet i større grad av ytelsen til skjermkortet og i mindre grad av ytelsen til prosessoren.

Basert på resultatene fra alle kjøringer ble det aritmetiske gjennomsnittlige resultatet beregnet for hver test. I tillegg, basert på testresultatene, ble det bestemt en integrert ytelsesindikator for hvert skjermkort. For å gjøre dette, for hvert spill i hver innstillingsmodus, ble det veide gjennomsnittsresultatet for alle oppløsninger beregnet ved hjelp av formelen.

Etter dette ble det geometriske gjennomsnittet beregnet mellom resultatene beregnet ved hjelp av formelen beskrevet ovenfor for maksimal kvalitetsmodus og maksimal produktivitetsmodus. Resultatet funnet på denne måten var en integrert vurdering av ytelsen i et eget spill.

For å oppnå en integrert ytelsesvurdering i 3DMark Vantage-testen, ble det geometriske gjennomsnittet mellom resultatene for alle forhåndsinnstillinger beregnet ved hjelp av formelen.

Deretter ble de integrerte ytelsesskårene i hvert enkelt spill normalisert til lignende resultater for referanseskjermkortet, og det geometriske gjennomsnittet ble beregnet for alle normaliserte integralresultater. For å gjøre det lettere å presentere resultatene, ble den oppnådde verdien multiplisert med 1000. Dette var den integrerte vurderingen av skjermkortets ytelse. For referanseskjermkortet er det integrerte ytelsesresultatet 1000 poeng.

GeForce GTX295-skjermkortet ble brukt som et referanseskjermkort. Teststativet for skjermkortet hadde følgende konfigurasjon:

  • prosessor - Intel Core i7 Extreme 965 (klokkefrekvens 3,2 GHz);
  • hovedkort - ASUS RAMPAGE II EXTREME;
  • brikkesett hovedkort- Intel X58 Express;
  • Intel Chipset Device Software - 9.1.0.1007;
  • minne - DDR3-1066 (Qimonda IMSH1GU03A1F1C-10F PC3-8500);
  • minnekapasitet - 3 GB (tre moduler på 1024 MB hver);
  • minne driftsmodus - DDR3-1333, tre-kanals modus;
  • minnetider - 7-7-7-20;
  • HDD - Western Digital WD2500JS;
  • operativsystem: Microsoft Windows 7 Ultimate;
  • videodriver - ForceWare 190.62.

De absolutte testresultatene er presentert i fig. 2-20, og de integrerte ytelsesindikatorene til de testede skjermkortene er vist i fig. 21.

Ris. 2. Testresultater
i spillet Quake IV (Patch 1.42)

Ris. 3. Testresultater
i spillet Quake IV (Patch 1.42)

Ris. 4. Testresultater
i spillet Half-Life: Episode 2
når den er satt til maksimal kvalitet

Ris. 5. Testresultater
i spillet Half-Life: Episode 2
når den er satt til minimumskvalitet

Ris. 6. Testresultater i testen
når den er satt til maksimal kvalitet

Ris. 7. Testresultater i testen
Call of Juares DX10 Benchmark v.1.1.1.0
når den er satt til minimumskvalitet

Ris. 8. Testresultater i spillet
når den er satt til maksimal kvalitet

Ris. 9. Resultater av spilltesting
S.T.A.L.K.E.R.: Shadow of Chernobyl (patch 1.005)
når den er satt til minimumskvalitet

InnledningDet siste året var ekstremt vanskelig for Nvidia - selskapet måtte lide nederlag etter nederlag, og trakk seg tilbake i alle sektorer av den diskrete 3D-grafikk under uventet kraftig press fra den plutselig aktiverte grafikkdivisjonen til Advanced Micro Devices. Samtidig kan ikke alt som skjedde tilskrives onde ulykker - Nvidia selv har i stor grad skylden for kjeden av feil, som i utgangspunktet valgte feil strategi for utviklingen av sine grafikkprosessorer og investerte alle krefter i å lage G200. Den uakseptabelt lange forsinkelsen med å overføre selv kjernen av forrige generasjon, G92, til en mer raffinert teknisk prosess, for ikke å nevne flaggskipet til linjen, som sårt trengte det, spilte også en negativ rolle.

Selv om G200 hadde gode egenskaper, var den med en 65-nm prosessteknologi ikke i stand til å utnytte sine evner fullt ut, siden den er ekstremt kompleks (1,4 milliarder transistorer), og den ikke kunne operere ved høye frekvenser. Det er nok å huske at selv flaggskipmodellen til den nye familien, Nvidia GeForce GTX 280, shader-prosessorens domenefrekvens var begrenset til 1,3 GHz, og Nvidia GeForce GTX 260 ble tvunget til å nøye seg med beskjedne 1242 MHz. Til sammenligning var driftsfrekvensen til dataenhetene nesten den samme i den originale versjonen av Nvidia GeForce 8800 GTS, som brukte 90 nm G80-kjernen! Med alt dette ga det nye produktet i en rekke tilfeller ikke en avgjørende fordel fremfor den mye enklere ATI RV770.

Basert på den beskrevne situasjonen, blir det klart at den nye, tynnere tekniske prosessen var nødvendig for Nvidia G200 like air hvis selskapet skulle fortsette å bruke den som et slagvåpen. For det første gjorde overføringen av G200 til en 55-nm prosessteknologi det mulig å øke frekvenspotensialet betydelig samtidig som strømforbruket og varmespredningsnivåene ble holdt innenfor akseptable grenser, og for det andre åpnet det veien for å skape et svar på ATI Radeon HD 4870 X2, et Nvidia-kort med to brikker. Det siste ville neppe vært mulig med 65nm-versjonen av G200 – et kort basert på to slike GPUer ville absolutt vært for varmt og uøkonomisk.

Det er klart at Nvidia selv forsto dette godt, etter å ha lidd sterkt under det kraftige presset fra grafikkdivisjonen til Advanced Micro Devices. Alternativet var å fortsette å miste de allerede vaklende posisjonene i det diskrete grafikkmarkedet, men det er lett å miste innflytelse i denne sektoren, men å vinne tilbake hver prosent gis med stor vanskelighet, som man sier, med svette og blod. Derfor ble det nødvendige arbeidet utført, og resultatet deres var opprettelsen av en 55-nm versjon av G200, også kjent under kodenavnene G200b, GT200b, GT206 og noen andre. For enkelhets skyld vil vi kalle det G200b. G200b er ikke noe nytt i arkitektonisk henseende, forblir den samme G200, som inneholder 240 enhetlige shader-prosessorer, 80 teksturoperasjonsenheter og 32 RBE, men produsert med 55 nm produksjonsstandarder. Derfor bør vi forvente av den enten et mindre varmt temperament og større effektivitet, eller, med sammenlignbare nivåer av strømforbruk og varmespredning, større ytelse enn 65 nm-versjonen av G200.

Selvfølgelig bruker GeForce GTX 260 fortsatt brikker med en avkortet konfigurasjon: 216 ALU-er, 72 teksturprosessorer og 28 RBE-enheter. Men selv i 55 nm-versjonen forblir kompleksiteten til G200 den samme, noe som betyr at kostnadene er høye, så det er logisk å anta at noen av kjernene installert på GeForce GTX 260 Core 216 enten ikke bestod frekvenskontroll eller har defekte blokker, som ikke tillater bruk Disse brikkene er mer lønnsomme for selskapet - i produksjonen av GeForce GTX 285 og 295.

Det første selskapet som presenterte grafikkort basert på den nye versjonen av G200 for publikum var EVGA, en av Nvidias hovedpartnere. Dette kan bety tilstedeværelsen av visse privilegier, en slags belønning for lojalitet til den "grønne" leiren - EVGA forsyner markedet utelukkende med løsninger basert på Nvidia-brikker, men utseendet til lignende produkter fra andre produsenter er nå bare et spørsmål om tid . Men takket være EVGA har vi en unik mulighet til å være en av de første til å utforske mulighetene til G200b. EVGA GeForce GTX 260 Core 216 Superclocked vil hjelpe oss med dette.

Emballasje og tilbehør

Ved første øyekast er emballasjen til det beskrevne produktet ikke noe uvanlig, og representerer en standard mellomstor boks.


En oransje stripe på svart bakgrunn er praktisk talt alle designelementene, men på bakgrunn av roboter, drager og fullbrystede jenter i avslørende rustning som har klart å sette tennene på kanten, ser denne minimalistiske tilnærmingen solid ut og irriterer ikke øye. Imidlertid ser vi igjen en vanlig feil - inskripsjonen i øvre venstre hjørne sier "896MB DDR3", mens faktisk kortet, selvfølgelig, er utstyrt med GDDR3-minne, som har lite til felles med DDR3 og er arkitektonisk lik DDR2 . Superclocked-inskripsjonen indikerer fabrikkoverklokking, og klistremerket under det indikerer tilgjengelighet i settet. fullversjon det populære skytespillet Far Cry 2.

På baksiden av esken er det et gjennomsiktig vindu der en del av videoadapterens trykte kretskort med et klistremerke med serienummer er synlig. Under vinduet er det et annet klistremerke og inskripsjon som advarer kjøperen om det serienummer på begge klistremerkene må samsvare. Dette er viktig for livstidsgarantien gitt av EVGA, samt for deltakelse i EVGA Step-Up-programmet, som lar deg erstatte ditt kjøpte kort med et kraftigere innen 90 dager etter kjøpet, selvfølgelig, og betaler differansen i kostnad mellom dem. Ærlig talt er det liten vits i dette, siden det som regel er få som tenker på å erstatte en nylig kjøpt grafikkadapter for et nytt innen tre måneder - spesielt siden vi i dette tilfellet snakker om et kort som allerede er produktivt og dyrt.

Kvaliteten på emballasjen er tradisjonelt høy; I stedet for en pappeske bruker EVGA en gjennomsiktig plastbeholder der videoadapteren er sikkert festet. Dette beskytter den mot mulig skade under transport og lagring. I tillegg til videoadapteren inneholdt esken følgende sett med tilbehør:



DVI-I→D-Sub-adapter
DVI-I→HDMI-adapter
2 adaptere 2xPATA → PCIe
S/PDIF-tilkoblingskabel
Hurtiginstallasjonsveiledning
Brukerhåndboken
2 EVGA-merkede klistremerker
CD med drivere og verktøy
DVD med fullversjonen av Far Cry 2

Selv med tanke på produsentens anbefalte pris, som er ganske høy og beløper seg til over $250, fortjener utstyret til det beskrevne produktet en flatterende vurdering, spesielt med tanke på tilstedeværelsen i sammensetningen av den fulle versjonen av det populære 3D-skytespillet Far Cry 2. Mangelen på en programvarespiller som kan jobbe med moderne formater er noe skuffende video høy oppløsning, men med tanke på at EVGA GeForce GTX 260 Core 216 Superclocked klart er posisjonert som en spillløsning, er ikke dette en fatal feil, spesielt siden de aller fleste andre produsenter gjør det samme.

På en disk med drivere, i tillegg til seg selv og elektronisk versjon brukermanualer, kan du finne et par nyttige verktøy, hvorav det ene er Fraps 2.9.6-testverktøyet kjent for alle spillere, men noen få ord må sies om det andre separat. EVGA Precision er et praktisk verktøy for overklokking av en grafikkadapter, som mest sannsynlig er basert på RivaTuner-kjernen. I tillegg til å kontrollere klokkehastighetene til grafikkjernen og minnet, lar den deg manuelt justere rotasjonshastigheten til kjøleviften og overvåke temperaturen på opptil fire GPUer i systemet.



I tillegg lar EVGA Precision deg lage opptil 10 profiler, og tilordne en annen profil til hver av dem. hurtigtast, og vet også hvordan du viser data, inkludert bildefrekvens, ikke bare på hovedskjermen, men også på skjermen til et populært spill Logitech tastaturer G15. Dette er ikke dermed sagt at EVGA Precision er uerstattelig, men i motsetning til noen lignende programvareprodukter fra andre produsenter, har den en enkel og funksjonell design, som gjør den egnet for daglig overklokkerbruk.

Når det gjelder Far Cry 2, er dette spillet arvingen til den legendariske Far Cry, som en gang etablerte seg ny standard kvalitetsgrafikk for førstepersons skytespill trenger ingen introduksjon, siden den er kjent for alle fans av denne sjangeren og brukes av oss som en av testene. Det er virkelig god gave potensiell kjøper, og vi kan bare applaudere EVGA for å ha det med i pakken - få grafikkortleverandører forsyner produktene sine med slike "friske" spill.

Samlet sett fortjener innpakningen og funksjonene til EVGA GeForce GTX 260 Core 216 Superclocked absolutt en "utmerket" vurdering. Selve boksen ser solid og attraktiv ut, og i tillegg til selve videoadapteren inneholder den alt som er nødvendig for full drift. Samtidig inkluderer settet ikke utdaterte kabler og adaptere, men som et gratis tillegg er det et virkelig moderne og populært spill.

PCB design

Ved første øyekast ser kortet ikke annerledes ut enn 65 nm-versjonen av Nvidia GeForce GTX 260/GTX 260 Core 216. Imidlertid prøvde EVGA å legge til originalitet til produktet sitt, og ikke begrenset til klistremerket på kjølesystemets kabinett - den siden av dette huset er malt rød farge.






Lengden på EVGA GeForce GTX 260 Core 216 Superclocked PCB er 27 centimeter, så dette produktet vil ikke være egnet for eiere av de fleste kompakte deksler. Tatt i betraktning at dens direkte konkurrent er ATI Radeon HD 4870, som bruker et 23-centimeter langt brett, er dette en ganske betydelig ulempe.

Nå om forskjellene, som faktisk er mye større enn det kan virke ved første øyekast. Det ville være vanskelig å forvente at en 55nm versjon av Nvidia GeForce GTX 260 Core 216 ville bli utviklet nytt design kretskort, fordi et slikt foretak ikke er billig, og i lys av det faktum at kortet i hovedsak er en avkortet versjon av Nvidia GeForce GTX 280, ganske meningsløst. Men så snart du demonterer kjølesystemet, blir det åpenbart at Nvidia endelig har bestemt seg for å ta dette steget – det er veldig, veldig mange forskjeller.



For det første er det umiddelbart merkbart at alle minnebrikkene nå er plassert på forsiden av kretskortet, og det er 14 av dem, det vil si at denne designen i utgangspunktet sørger for en 448-bits minnebuss uten mulighet for utvidelse til 512-bit. Det er vanskelig å si hva som fikk Nvidia til å utvikle et nytt styre; Mest sannsynlig er dette et ønske om å redusere produksjonskostnadene for enhver pris, selv om gevinsten neppe vil være betydelig - selv i sin oppdaterte form ser brettet ganske komplekst og dyrt ut å produsere. Det er interessant at GeForce 8800-linjen utviklet seg langs samme vei på en gang: da, i de fleste tilfeller, øker klokkefrekvenser vellykket kompensert for reduksjonen i minnebussbredden under overgangen fra G80 til G92-brikker.


Gammelt Geforce GTX 260 PCBNy Geforce GTX 260 PCB


Strømundersystemet har også gjennomgått betydelig prosessering - hvis det i den gamle versjonen ble brukt en femfasestabilisator, oppnådd ved avkorting av den originale syvfasestabilisatoren til Nvidia GeForce GTX 280, så i 55-nm-versjonen av Nvidia GeForce GTX 260 det totale antallet faser av GPU-strømstabilisatoren er fire, og de bruker forskjellige krafttransistorer. Dårlige nyheter for eiere av væskekjølesystemer eller tilpassede luftkjølere: systemer designet for 65nm Nvidia GeForce GTX 200-serien vil ikke være egnet for 55nm-kort, iht. i det minste, monolittiske modeller designet for å avkjøle ikke bare GPU og minnebrikker, men også elementene i strømsystemet, nettopp på grunn av det forskjellige arrangementet til sistnevnte.


Hjertet til stabilisatoren er den firefasede PWM-kontrolleren NCP5388, plassert på baksiden av kretskortet. Ved siden av den er en ukjent brikke av mikroskopisk størrelse, merket som "BR=AL U07", og tilsynelatende ansvarlig for å kontrollere en separat to-fase minnestrømforsyningsstabilisator. Koblinger for tilkobling ekstern strømforsyning, som før, to. Begge kontaktene er seks-pinners PCIe 1.0 med en lastekapasitet på opptil 75 W. Andre forskjeller inkluderer tilstedeværelsen av en metallramme rundt GPUen, men venstre side av brettet, der grensesnittkontaktene og NVIO-brikken er plassert, har holdt seg praktisk talt uendret.


Som minnebrikker bruker dette produktet GDDR3 Samsung K4J52324QH-HJ1A-brikker med en kapasitet på 512 Mbit (16Mx32), designet for en frekvens på 1000 (2000) MHz og en forsyningsspenning på 1,9 V.


14 slike brikker danner en bank med lokalt videominne med en kapasitet på 896 MB med en 448-bits tilgangsbuss. I følge offisielle Nvidia-spesifikasjoner, GeForce GTX 260-minne, uavhengig av hvilken type som brukes GPU-versjoner, skal kjøre på 1000 (2000) MHz, noe som gir 112 GB/s båndbredde, men EVGA overklokket minnet til 1053 (2106) MHz, noe som øker båndbredden til 117,9 GB/s.

Dette er til og med litt høyere enn for ATI Radeon HD 4870, som er 115,2 GB/s, men tatt i betraktning bruken av brikker som opprinnelig er designet for 1000 (2000) MHz, gir det praktisk talt ikke rom for ytterligere overklokking, som, vil imidlertid bli testet i det tilsvarende kapittelet i anmeldelsen.

Det var ikke mulig å visuelt vurdere hvor mye overgangen til 55-nm prosessteknologi gjorde det mulig å redusere arealet til G200b-krystallen - den nye versjonen av brikken er utstyrt med et metallvarmesprederdeksel på samme måte som den gamle. Vi risikerte ikke å fjerne dette dekselet, siden kortet vil være nyttig for oss i fremtiden. Imidlertid taler tallene for seg selv - den nye versjonen av G200 har et areal på 470 kvadratmillimeter mot 576 kvm for den gamle, produsert ved hjelp av 65 nm-teknologi. Det er ikke veldig imponerende sammenlignet med kompaktheten til ATI RV770, som har et areal på bare 260 kvm, men ikke glem at sistnevnte er nesten halvannen ganger enklere når det kommer til antall transistorer . Brikken er merket som G200-103-B2, som lar deg umiddelbart skille den fra gammel versjon, som var merket G200-100-A2.


De offisielle kjernefrekvensene til Nvidia GeForce GTX 260 Core 216 er 576 MHz for hoveddomenet og 1242 MHz for datadelen, men dagens artikkel handler om et fabrikkoverklokket produkt, og disse parameterne er henholdsvis 625 og 1350 MHz. Ikke en veldig betydelig økning, som tydeligvis ikke tillater oss å bedømme om frekvenspotensialet til G200b har økt sammenlignet med G200 - i vår praksis har vi møtt 65-nm versjoner av Nvidia GeForce GTX 260 Core 216, overklokket av produsenten til høyere frekvenser. Dette er grunnen til at EVGA GeForce GTX 260 Core 216 Superclocked vil bli gjenstand for ytterligere overklokkingsforsøk. Når det gjelder grafikkkjernekonfigurasjonen, er den standard for Nvidia GeForce GTX 260 Core 216: 216 universelle shader-prosessorer, 72 teksturoperasjonsprosessorer og 28 RBE-enheter. Teoretisk sett, hvis ytterligere overklokking er vellykket, kan kortet forventes å yte på nivået til Nvidia GeForce GTX 280 eller enda høyere.

Kortet er utstyrt med et standard sett med kontakter, inkludert to dual-channel DVI-I-porter som støtter oppløsninger på opptil 2560x1600 inkludert, en universell analog videoutgangsport, to SLI-kontakter som lar deg kombinere enhetlig system opptil tre kort, samt en to-pinners S/PDIF-kontakt, som tjener til å kringkaste en ekstern S/PDIF-lydstrøm til HDMI, som en tilsvarende kabel er inkludert i pakken.

Design av kjølesystem

På mange måter gjenstår utformingen av kjølesystemet til 55-nm-versjonen av Nvidia GeForce GTX 260 Core 216, men det er også betydelige endringer diktert av både den nye utformingen av kretskortet og bruken av en mer økonomisk versjon av grafikkjernen.


Den viktigste forskjellen er kanskje det betydelig reduserte radiatorområdet - det har mistet seksjonen som ligger rett foran monteringslisten, på grunn av hvilken den har blitt merkbart kortere. Et av varmerørene, som tidligere sørget for overføring av varmestrøm fra kraftelementene til strømforsyningssystemet, har forsvunnet, og basen i kontakt med overflaten til GPU har blitt betydelig mindre.






Tilsynelatende er alle disse tiltakene også rettet mot å redusere kostnadene, siden vi ikke ser andre objektive grunner til å kutte konfigurasjonen av et velprøvd design. Selvfølgelig effektivitet nytt system kjøling bør falle betydelig, men til slutt kan fallet kompenseres av det lavere varmeavledningsnivået til G200b. Hvorvidt dette faktisk er tilfelle vil bli verifisert i neste kapittel av anmeldelsen.

Ellers, som allerede nevnt, forblir det generelle konseptet det samme - en kobbervarmeveksler som tar varme fra GPU og overfører den til radiatoren ved hjelp av varmerør. Den vanlige mørkegrå tykke termiske pastaen brukes som et termisk grensesnitt. En radialvifte er ansvarlig for å blåse gjennom radiatoren; oppvarmet luft drives ut utenfor systemkroppen gjennom en rekke spor i videoadapterens monteringslist. Andre elementer som krever kjøling, som minnebrikker, NVIO-krystall- og strømregulatortransistorer, kommer i kontakt med systemets aluminiumbase gjennom fremspringene, utstyrt med fiberputer impregnert med hvit termisk pasta.

Designet som helhet ser ganske vellykket ut, selv om det er noe forenklet sammenlignet med den originale versjonen, opprinnelig utviklet for Nvidia GeForce GTX 200-familien. I denne forbindelse bør man forvente litt mindre høy effektivitet i driften, men tatt i betraktning bruk av 55 nm-versjonen av G200, kan forskjellen være ubetydelig eller ikke vises i det hele tatt. Dersom de termiske forholdene ikke forverres, kan forenkling av designet anses som forsvarlig.

Strømforbruk, termiske forhold, overklokking og støy

Siden 55-nm-versjonen av Nvidia GeForce GTX 260 Core 216 kom inn i testlaboratoriet vårt for første gang, har vi ikke unnlatt å måle strømforbruket og finne ut om den har blitt mer økonomisk sammenlignet med den gamle, 65-nm versjon, og hvor stor gevinsten er. Til dette formålet ble det brukt en testbenk med følgende konfigurasjon:

Prosessor Intel Pentium 4 560 (3,6 GHz, LGA775)
DFI LANParty UT ICFX3200-T2R/G hovedkort (ATI CrossFire Xpress 3200)
Minne PC2-5300 (2x512 MB, 667 MHz)
Harddisk Western Digital Raptor WD360ADFD (36 GB)
Chieftec ATX-410-212 strømforsyning (effekt 410 W)
Microsoft Windows Vista Ultimate SP1 32-bit
Futuremark PCMark05 Build 1.2.0
Futuremark 3DMark06 Build 1.1.0

I henhold til den aksepterte metoden, for å opprette en last i 3D-modus, brukes den første SM3.0/HDR-testen av 3DMark06-pakken, lansert i en syklus med en oppløsning på 1600x1200 med tvunget FSAA 4x og AF 16x. Emulering av "peak 2D"-modus utføres ved hjelp av "2D Transparent Windows"-testen, som er en del av PCMark05. Den siste testen er ganske relevant i lys av det faktum at vinduet Windows-grensesnitt Vista Aero drar fordel av GPU.






Overgangen til en 55-nm prosessteknologi hadde den mest fordelaktige effekten på effektiviteten til G200 generelt og GeForce GTX 260 spesielt. Selv om det ikke var noen betydelig gevinst i inaktiv modus, utgjorde den under belastning i 3D-modus 34 W, så mesterskapets krone går rettmessig fra ATI Radeon HD 4870 1GB til kort basert på G200b. Dette er et ganske alvorlig slag for ATI, som, vi mener, seriøst bør tenke på strømforbruket til produktene sine, spesielt de som er bygget på et design med to prosessorer.

Når det gjelder utformingen av kraftledningene, i den nye versjonen av GeForce GTX 260 Core 216 er belastningen på de eksterne kontaktene ujevn, i motsetning til den gamle, som bruker utformingen av kretskortet og strømsystemkretsene utviklet for GeForce GTX 280. Kontakten nærmest enden av brettet er merkbart belastet, 10-13 W, sterkere; tatt i betraktning indikatorene, som er svært langt unna grenseverdien (75 W), er dette imidlertid ingen grunn til bekymring.

Som du vet, opererer 55nm-versjonen av Nvidia GeForce GTX 260 Core 216 på samme frekvenser som 65nm-versjonen - 576 MHz for hoved-GPU-domenet og 1240 MHz for shader-prosessor-domenet. Beskrevet i denne anmeldelsen EVGA GeForce GTX 260 Core 216 Superclocked ble tidligere overklokket av produsenten til 625/1350 MHz, men vi bestemte oss for å gå videre og finne ut hvor mye frekvenspotensialet til G200 har økt etter å ha overført den til 55 nm prosessteknologi. Uten å bruke noen ekstra midler, som å bytte ut kjølesystemet eller modifisere strømsystemet, ble resultatet 715/1541 MHz for grafikkjernen og 1150 (2300) MHz for minnet. Ikke et dårlig resultat for en brikke bestående av 1,4 milliarder transistorer, spesielt med tanke på at en lignende kopi av Nvidia GeForce GTX 260 Core 216, ved bruk av 65 nm-versjonen av G200, klarte å overklokke bare til 650/1400 MHz. Prosentvis var gevinsten omtrent 10 %, men dette lar oss allerede håpe på ytelse på nivået til Nvidia GeForce GTX 280, som har 240 ALU-er, 80 TMU-er og 32 RBE mot 216, 72 og 28 lignende enheter for Nvidia GeForce GTX 260 Core 216.

En studie av temperaturregimet ved bruk av RivaTuner viste følgende bilde:



Ved de samme klokkehastighetene er maksimaltemperaturene til 65-nm og 55-nm-versjonene av G200 også de samme, noe som tilsynelatende skyldes den noe forenklede utformingen av kjølesystemet til sistnevnte. Men med ytterligere overklokking av EVGA GeForce GTX 260 Core 216 Superclocked, oversteg ikke den maksimale GPU-temperaturen den for Nvidia GeForce GTX 280. Merk at i 2D-modus reduserer alle medlemmer av Nvidia GeForce GTX 200-familien automatisk GPU-klokkehastigheten til 300/600 MHz, og minnefrekvens - opptil 100 (200) MHz, noe som hjelper dem med å opprettholde lave temperaturer og støynivåer.



Til tross for noen designendringer i EVGA GeForce GTX 260 Core 216 Superclocked kjølesystem, avslørte ikke støynivåmålinger vesentlige forskjeller fra referansekjølesystemet Nvidia GeForce GTX 280. Dette skyldes ikke minst det relativt høye støynivået som genereres av vår testplattform som helhet – selv med helt passiv kjøling av grafikkortet er det 43 dBA, som i seg selv er ganske mye. Vi må imidlertid innrømme at CO-designet som brukes av Nvidia fortsatt er en av de mest suksessrike i den diskrete grafikkindustrien, og kombinerer høy kjøleeffektivitet med komfortable støyegenskaper. Det er ikke nødvendig å snakke om fullstendig lydløshet, men den akustiske sammensetningen av støyen er gunstig, siden hovedbidraget til den er gitt av raslingen av luftstrømmen, som praktisk talt ikke irriterer øret.

Testplattformkonfigurasjon og testmetodikk

En sammenlignende studie av ytelsen til EVGA GeForce GTX 260 Core 216 Superclocked ble utført på en testplattform med følgende konfigurasjon:

Prosessor Intel Core i7-965 Ekstrem utgave(3,2 GHz, 6,4 GT/s QPI)
System Asus bord P6T Deluxe (Intel X58)
Minne Corsair XMS3-12800C9 (3x2 GB, 1333 MHz, 9-9-9-24, 2T)
Harddisk Maxtor MaXLine III 7B250S0 (250 GB, SATA-150, 16 MB buffer)
Strømforsyning Enermax Galaxy DXX EGX1000EWL (effekt 1 kW)
Skjerm Dell 3007WFP (30", maksimal oppløsning 2560x1600 ved 60 Hz)
Microsoft Windows Vista Ultimate SP1 64-bit
ATI Catalyst 8.12 for ATI Radeon HD
Nvidia GeForce 180.48 WHQL for Nvidia GeForce

Grafikkkortdrivere er innstilt for å gi høyest mulig kvalitet på teksturfiltrering samtidig som effekten av standard programvareoptimaliseringer minimeres. Transparent tekstur-antialiasing ble aktivert, og multisampling-modus ble brukt for begge arkitekturene, siden ATI-løsninger ikke støtter supersampling for denne funksjonen. Som et resultat tok listen over ATI Catalyst og Nvidia GeForce driverinnstillinger følgende form:

ATI Catalyst:

Smoothvision HD: Anti-Aliasing: Bruk applikasjonsinnstillinger/boksfilter
Katalysator A.I.: Standard
Mipmap detaljnivå: Høy kvalitet
Vent på vertikal oppdatering: Alltid av
Aktiver Adaptive Anti-Aliasing: På/Kvalitet

Nvidia GeForce:

Teksturfiltrering - Kvalitet: Høy kvalitet
Teksturfiltrering - Trilineær optimalisering: Av
Teksturfiltrering - Anisotropisk prøveoptimalisering: Av
Vertikal synkronisering: Tving av
Antialiasing - Gammakorreksjon: På
Antialiasing - Transparens: Multisampling
Andre innstillinger: standard

Sammensetningen av testpakken har blitt betydelig redesignet for å passe bedre til dagens realiteter. Som et resultat av revisjonen ble følgende sett med spill og applikasjoner inkludert i den:

3D førstepersons skytespill:

Call of Duty: World at War
Crysis stridshode
Enemy Territory: Quake Wars
Far Cry 2
S.T.A.L.K.E.R.: Klar himmel


3D-skytespill med tredjepersonsvisning:

Dead Space
Devil May Cry 4
Stort tyveri Auto IV


Rollespill:

Fallout 3
Masseeffekt


Simulatorer:

Racerfører: GRID
X³: Terran Conflict


Strategier:

Rødt varsel 3
Spore
Verden i konflikt


Syntetiske tester:

Futuremark 3DMark06
Futuremark 3DMark Vantage

Hver av de som er inkludert i testsettet programvare Spillet ble konfigurert for å gi høyest mulig detaljnivå, ved å bruke bare verktøyene som er tilgjengelige i selve spillet for enhver uinitiert bruker. Dette betyr en grunnleggende avvisning av manuell modifikasjon konfigurasjonsfiler, siden spilleren ikke er pålagt å kunne gjøre dette. For noen spill ble det gjort unntak, diktert av visse nødvendighetshensyn; Hvert av disse unntakene er nevnt separat i den aktuelle delen av anmeldelsen.

I tillegg til EVGA GeForce GTX 260 Core 216 Superclocked, inkluderte testdeltakerne følgende grafikkort:

Nvidia GeForce GTX 280 (G200, 602/1296/2214 MHz, 240 SP, 80 TMU, 32 RBE, 512-bits minnebuss, 1024 MB GDDR3)
Nvidia GeForce GTX 260 Core 216 (G200, 576/1242/2000 MHz, 216 SP, 72 TMU, 28 RBE, 448-bits minnebuss, 896 MB GDDR3)
ATI Radeon HD 4850 X2 (2xRV770, 650/650/2000 MHz, 1600 SP, 80 TMU, 32 RBE, 2x256-bits minnebuss, 2x1024 MB GDDR3)
ATI Radeon HD 4870 (RV770, 750/750/3600 MHz, 800 SP, 40 TMU, 16 RBE, 256-bits minnebuss, 1024 MB GDDR5)

Testingen ble utført i oppløsninger på 1280x1024, 1680x1050, 1920x1200 og 2560x1600. Sistnevnte ble bare brukt for hovedpersonene i dagens anmeldelse, så vel som for ATI Radeon HD 4850 X2. Når det var mulig, ble standard 16x anisotropisk filtrering supplert med 4x MSAA anti-aliasing. Aktivering av anti-aliasing ble utført enten av spillet selv, eller, i deres fravær, ble det tvunget ved å bruke de riktige innstillingene til ATI Catalyst og Nvidia GeForce-driverne. Som allerede nevnt ble ingen ekstra konfigurasjonsverktøy brukt.

For å få ytelsesdata brukte vi verktøyene som er innebygd i spillet, med obligatorisk opptak av originale testvideoer hvis mulig. I alle andre tilfeller ble Fraps 2.9.6-verktøyet brukt i manuell innstilling med en tredobbelt testbestått og påfølgende gjennomsnittsberegning av det endelige resultatet. Når det var mulig, ble data registrert ikke bare i gjennomsnitt, men også på minimumsproduktivitet.

Spilltester: Call of Duty: World at War


Fabrikkoverklokkingen utført av EVGA er tydeligvis ikke nok til å konkurrere på like vilkår med Nvidia GeForce GTX 280, men ytterligere overklokking lar den oppnå dette selv ved en oppløsning på 2560x1600, til tross for den smalere minnebussen. Dessuten, i sistnevnte tilfelle, viser minimumsytelsen seg å være høy nok for komfortabel spilling, og generelt sett er den overklokkede EVGA GeForce GTX 260 Core 216 Supeclocked praktisk talt ikke dårligere enn ATI Radeon HD 4850 X2 med betydelig lavere strømforbruk og støy.

Spilltester: Crysis Warhead


Det samme kan sees i Crysis Warhead - ekstra overklokking bringer EVGA-kortet til nivået til Nvidia GeForce GTX 280. Imidlertid er unntaket i dette tilfellet oppløsningen på 2560x1600, der den mindre bredden på minnetilgangsbussen begynner å påvirke, så vel som den mindre mengden minne i seg selv - 896 mot 1024 MB.

Spilltester: Enemy Territory: Quake Wars

ET: Quake Wars inneholder et gjennomsnittlig ytelsestak fastsatt til 30 fps pga nettverksspill alle hendelser synkroniseres med 30 Hz. For å få mer fullstendige data om ytelsen til grafikkort i Quake Wars, ble denne begrenseren deaktivert via spillkonsoll. Siden testing bruker spillets interne muligheter, er det ingen minimumsinformasjon om ytelse tilgjengelig.


Forskjellen mellom de ulike representantene for Nvidia GeForce GTX 200-familien i dette spillet er minimal, men også her lar overklokking av EVGA-kortet det nå samme nivå som Nvidia GeForce GTX 280, og med en oppløsning på 2560x1600 til og med litt foran det. I alle tilfeller er ytelsesmarginen veldig høy og overgår langt kravene til spillet.

Spilltester: Far Cry 2


I original versjon EVGA GeForce GTX 260 Core 216 Superclocked er litt dårligere enn Nvidia GeForce GTX 280, men overklokking av GPU til 715/1541 MHz og minnet til 1150 (2300) MHz lar deg praktisk talt bygge bro over gapet, med bare en liten forsinkelse i minimum ytelse gjenstående.

Spilltester: S.T.A.L.K.E.R.: Clear Sky

For å sikre et akseptabelt ytelsesnivå i dette spillet, ble det besluttet å forlate bruken av FSAA, samt slike ressurskrevende alternativer som "Solstråler", "Våte overflater" og "Volumetrisk røyk". Under testing ble modusen "Enhanced full dynamic lighting" (DX10) brukt for ATI-kort, DirectX 10.1-modusen ble i tillegg brukt


Et EVGA-produkt overklokket til det ytterste oppfører seg på samme måte i Clear Sky - økte klokkehastigheter gjør at det kan være på nivå med Nvidia GeForce GTX 280 i gjennomsnittlig ytelse, men et mindre antall funksjonelle enheter og en smalere minnebuss kan ikke kompenseres av forsterkningen i frekvenser, noe som påvirker minimumsytelsen negativt.

Spilltester: Dead Space


Det faktum at etterslepet i antall ALU-er, TMU-er og RBE-er ikke er så lett å kompensere for med klokkefrekvenser bekreftes også i Dead Space: hvis, ifølge gjennomsnittsindikatorer, det maksimalt overklokkede EVGA-kortet er foran Nvidia GeForce GTX 280 ganger 2-5 %, avhengig av oppløsning, så forblir minimumsytelsen den samme. Dessuten, med en oppløsning på 2560x1600, er overklokking alene ikke lenger nok, og Nvidia GeForce GTX 280 kommer igjen på topp. Tatt i betraktning de relativt beskjedne kravene som stilles av spillet, er det generelle ytelsesnivået veldig høyt og forskjellen beskrevet ovenfor er umulig å legge merke til med det blotte øye.

Spilltester: Devil May Cry 4


Det overklokkede EVGA-kortet oppfører seg omtrent på samme måte i Devil May Cry 4, og viser overlegenhet over Nvidia GeForce GTX 280 i gjennomsnittlig ytelse og paritet i minimumsytelse. Unntaket er oppløsningen på 2560x1600, hvor den klarer å overgå sistnevnte indikator betydelig flaggskipmodell familier.

Spilltester: Grand Theft Auto IV

Siden med dagens standard videominne på 512 MB, tillater ikke spillet bruk av "Texture Quality"-alternativverdien over "Medium", og den maksimale sikre verdien for "View Distance"-alternativet er 32, ble alle tester utført med akkurat disse innstillingene. For andre alternativer ble de maksimalt mulige verdiene satt. Siden testing bruker spillets opprinnelige funksjoner, er det ingen minimumsinformasjon om ytelse tilgjengelig.


På grunn av funksjonene beskrevet ovenfor, ble betydelige avvik i resultatene mellom testdeltakere identifisert kun i oppløsninger på 1920x1200 og 2560x1600. I det første tilfellet tillot overklokking av EVGA-kortet oss å oppnå gjennomsnittlig ytelse på nivået til Nvidia GeForce GTX 280, og i det andre brakte det det helt til førsteplassen, og etterlot ikke bare flaggskipet Nvidia-modellen, men også ATI Radeon HD 4850 X2. Også, etter resultatene av ATI Radeon HD 4870 1GB, kan det antas at spillet favoriserer det store antallet teksturprosessorer i Nvidia-løsninger.

Fra og med neste gjennomgang vil testmetoden i GTA IV bli justert til den nye minimumsverdien for videominne på 896 MB.

Spilltester: Fallout 3


ATI-løsninger er uovertrufne, men kort basert på Nvidia G200 føles ganske trygge i alle oppløsninger, inkludert 2560x1600. Det er interessant at selv med fabrikkoverklokking er EVGA GeForce GTX 260 Core 216 Superclocked på ingen måte dårligere enn Nvidia GeForce GTX 280, og med ekstra overklokking overgår den den til og med merkbart med 8-10%.

Spilltester: Mass Effect


Situasjonen, som allerede er sett gjentatte ganger i andre tester, gjentas - den maksimale overklokkingen av EVGA-kortet gjør at det enkelt kan konkurrere på like vilkår med Nvidia GeForce GTX 280, både i gjennomsnitt og minimum ytelse. ATI Radeon HD 4870 1GB er dessverre ikke en konkurrent til løsninger basert på G200/G200b i dette spillet; Bare den mye varmere og veldig støyende ATI Radeon HD 4850 X2 klarte å overgå dem.

Spilltester: Racerfører: GRID


Det er umulig å ikke legge merke til seieren til det maksimalt overklokkede EVGA-kortet i 2560x1600-oppløsningen, hvor det bare tapte for ATI-monsteret med to prosessorer. I alle andre tilfeller er bildet vanlig - fabrikkoverklokking er ikke nok til å konkurrere med Nvidia GeForce GTX 280, og for å oppnå lignende ytelse, må du ty til ytterligere å øke klokkehastighetene til GPU og minne, og minimum ytelsen øker praktisk talt ikke.

Spilltester: X³: Terran Conflict


Spillet foretrekker helt klart ATI-løsninger, bare se på minimumsytelsen ved oppløsninger over 1280x1024. Til og med ekstra overklokking av EVGA-kortet hjelper lite - med en oppløsning på 1680x1050 kan minimumsytelsen bare heves til 22 bilder per sekund, noe som tydeligvis ikke er nok til å sikre jevnhet spilling. Det er interessant å merke seg at ved oppløsninger på 1920x1200 og 2560x1600, gjør den relativt beskjedne fabrikkoverklokkingen utført av EVGA at GeForce GTX 260 Core 216 Superclocked kan utkonkurrere Nvidia GeForce GTX 280.

Spilltester: Red Alert 3

Spillet inneholder en permanent gjennomsnittlig ytelsesbegrenser, fastsatt til 30 bilder per sekund.


Så langt prestasjonssituasjonen Nvidia-kort i Red Alert 3 er langt fra ideelt - når du bruker FSAA 4x, viser de alle uakseptabelt lav ytelse. Vi kan bare sette vårt håp til ny verson GeForce-drivere, kan det løse dette problemet. Oppførselen til det overklokkede EVGA-kortet er imidlertid ikke fundamentalt forskjellig fra det som kunne observeres i tidligere tester.

Spilltester: Spore

Spillet inneholder en permanent gjennomsnittlig ytelsesbegrenser, fastsatt til 30 bilder per sekund. FSAA støttes ikke.


Ingen informasjon kunne innhentes fordi alle deltakende grafikkort nådde den gjennomsnittlige ytelsesgrensen. Derfor er de alle like godt egnet for bruk i Spore. Siden denne testen i de fleste tilfeller ikke gir noen meningsfull informasjon, slutter vi å bruke den - den vil bli erstattet av et av de populære og mer informative spillene.

Spilltester: World in Conflict


Ytterligere overklokking av EVGA GeForce GTX 260 Core 216 Superclocked ga imponerende resultater - med en oppløsning på 1680x1050 var kortet i stand til å utkonkurrere selv ATI Radeon HD 4850 X2, og med en oppløsning på 1920x1200 viste det seg å være den andre videoadapteren enn den nevnte ATI-løsningen med to prosessorer som gir et komfortabelt ytelsesnivå. Den maksimale gevinsten med ekstra overklokking sammenlignet med Nvidia GeForce GTX 280 var nesten 14 %, noe som kan betraktes som et utmerket resultat, gitt etterslepet i antall funksjonelle enheter, samt ytelse og videominne.

Syntetiske tester: Futuremark 3DMark06









EVGA-kortet viste ikke fremragende resultater i noen av 3DMark06-testene, verken med fabrikkoverklokking eller med den ekstra vi prøvde. Tilsynelatende har den truffet et tak diktert av maskinvarekonfigurasjonen til GeForce GTX 260 Core 216.

Syntetiske tester: Futuremark 3DMark Vantage

For å minimere påvirkningen sentral prosessor, når du tester i 3DMark Vantage, brukes "Extreme"-profilen, med en oppløsning på 1920x1200, FSAA 4x og anisotropisk filtrering. For å fullføre ytelsesbildet, tas individuelle testresultater fra dette tidspunktet over hele oppløsningsområdet.






Testing i 3DMark Vantage viste nøyaktig det motsatte resultatet: i modusen med ekstra overklokking klarte EVGA GeForce GTX 260 Core 216 Supeclocked ikke bare å komme foran Nvidia GeForce GTX 280, men tok førsteplassen blant alle testdeltakerne!


Den største gevinsten fra overklokking observeres i oppløsningen på 1280x1024; Etter hvert som oppløsningen øker, smalner gapet mellom EVGA GeForce GTX 260 Core 216 Superclocked og Nvidia GeForce GTX 280 – sistnevnte har fortsatt et godt forsprang på ytelsen til minnedelsystemet og det er ikke lenger mulig å komme unna med overlegenhet i GPU-frekvens.


I den andre testen er bildet litt annerledes - i alle oppløsninger er EVGA-kortet litt dårligere enn Nvidia GeForce GTX 280 normal modus, og går på nivå med det i modusen med ekstra akselerasjon. Tilsynelatende er mangelen på teksturprosessorer vellykket kompensert av deres høyere driftsfrekvens. Merk at begge deler Nvidia-løsninger i denne testen er de merkbart dårligere enn ATI Radeon HD 4850 X2.

Konklusjon

La oss oppsummere. Testing avslører ingen forskjeller i ytelse mellom 55nm og 65nm Nvidia-versjoner GeForce GTX 260 Core 216, som har referanse GPU og minnefrekvenser, men fabrikkoverklokkingen av EVGA-kortet ga det en merkbar fordel, i gjennomsnitt fra 4,3 % til 6,4 %, avhengig av oppløsningen. Ytterligere overklokking tillot oss å legge til ytterligere 8-9%.

Som et resultat viste hovedpersonen i dagens anmeldelse, EVGA GeForce GTX 260 Core 216 Superclocked, sin beste side, og demonstrerte at den kan være en verdig rival til ATI Radeon HD 4870 1GB. I mange tester var EVGA-produktet raskere, men på grunn av tapene i spill som Fallout 3, Race Driver: GRID, X³: Terran Conflict og Red Alert 3, var den gjennomsnittlige fordelen bare rundt 5 %, og da bare ved oppløsninger ikke høyere enn 1680x1050. Dermed bestemmes valget i dette tilfellet utelukkende av spillerens personlige preferanser.

Når det gjelder forsøket på å ta igjen Nvidia GeForce GTX 280, var det ikke vellykket i fabrikkversjonen, men takket være bruken av den nye 55 nm-versjonen av G200, viste kortet godt overklokkingspotensial, og med hjelpen av ytterligere overklokking klarte vi å ta igjen og til og med forbigå GTX 280 nesten i alle tester.












I standardoppløsninger varierte den gjennomsnittlige fordelen med EVGA GeForce GTX 260 Core 216, overklokket til frekvensene 715/1541/2300 MHz, fra 3,1 til 3,8 %, og den største effekten ble observert i Devil May Cry 4 (1280x1024, % 1024, % fordel) ), World in Conflict (1680x1050, 10,8 % fordel) og X³: Terran Conflict (henholdsvis 1920x1200 og 2560x1600, 16,2 % og 19,3 % fordel). Mer enn bra, spesielt med tanke på den betydelig lavere kostnaden sammenlignet med Nvidia GeForce GTX 280. Derfor er det lurt å kjøpe sistnevnte med bruk av 55-nm versjoner av Nvidia GeForce GTX 260 Core 216, spesielt siden utseendet av i massesalget av GeForce GTX 285-skjermkort, som også bruker 55 nm-versjonen av G200 og følgelig har et høyere frekvenspotensial enn GTX 280.

Selve produktet, beskrevet i denne anmeldelsen, EVGA GeForce GTX 260 Core 216 Superclocked, fortjener en ekstremt positiv vurdering. I tillegg til attraktive ytelsesnivåer og godt overklokkingspotensial, kan den skilte med en grei pakke som inkluderer fullversjonen av det populære skytespillet Far Cry 2 og et praktisk overklokkingsverktøy, samt livstidsgaranti og deltakelse i EVGA Step-Up-programmet. Det eneste som kan skremme en potensiell kjøper er relativt høy pris, tradisjonelt karakteristisk for EVGA-produkter, fordi den offisielle prisen på ATI Radeon HD 4870, utstyrt med 512 MB GDDR5-minne, allerede har falt under $200, og for versjonen med 1024 MB minne er satt til $239. Reelle priser i detaljhandelen i Moskva er selvfølgelig høyere enn de offisielle prisene til produsenter, men de er ganske korrelerte med dem - så når EVGA GeForce GTX 260 Core 216 Superclocked-kort dukker opp for salg her, bør vi forvente at de også vil være flere dyrt enn Radeon HD 4870 1 GB.

EVGA GeForce GTX 260 Core 216 Superclocked: fordeler og ulemper

Fordeler:

Bruker 55nm versjon av G200
Høy ytelse i moderne spill
Overgår ATI Radeon HD 4870 1GB i mange tilfeller
Med ekstra overklokking er den foran Nvidia GeForce GTX 280
Ytelse uavhengig av programvarestøtte for multi-GPU
Bredt utvalg av FSAA-moduser
Minimal innvirkning av FSAA på ytelse
PhysX GPU-akselerasjonsstøtte
Maskinvarestøtte for HD-videodekoding
Støtte S/PDIF lydutgang via HDMI
Relativt lavt energiforbruk og varmeavledning
Relativt lavt støynivå
Godt overklokkingspotensial
Inkluderer fullversjonen av Far Cry 2

Feil:

Ytelsesskjevhet mot teksturprosessorer og RBE
Mangel på støtte for DirectX 10.1 og Shader Model 4.1
Ufullstendig maskinvarestøtte for VC-1-dekoding
Mangel på integrert lydkjerne
Pakken inkluderer ikke en programvare HD-videospiller
Høy pris

Annet materiale om dette emnet


ATI Radeon HD 4850 X2 vs Nvidia GeForce GTX 280: avgjørende kamp
Utvikling av ATI Catalyst-drivere ved å bruke eksemplet med Radeon HD 4870
våpenbrødre: to Palit GeForce 9800GTX+ skjermkort

Det ser ut til at en spillvideoadapter med en DDR3-buss, som lenge har blitt erstattet av den raskere og mer moderne DDR5-minnetypen, kan overraske brukeren. Ingenting, med mindre denne videoadapteren er Nvidia 260, hvis egenskaper kan konkurrere med mange moderne enheter, som har en forbedret teknisk prosess og mange innovasjoner.

Veldig dyr produksjon

Å dømme etter det faktum at avvisningsraten under produksjonen av GT200-brikker oversteg 50 %, var prisen på videoadaptere i denne serien klart overpriset på markedet. Men enhver kjøper visste at han hadde på lager ikke bare en annen forbruksvare fra en kjent produsent, men praktisk talt en av beste produktene hvit montering. Og vi snakker om GeForce GTX 260 spillskjermkort. Den utmerkede byggekvaliteten er bare en av en hel liste over kvaliteter som denne videoadapteren har.

Reduksjonen i kostnadene for enheten på markedet skyldes typen DDR3-buss som brukes. Produsenter mente at dette minnet ikke ville spille noen stor rolle i å overføre betydelige mengder informasjon, fordi adapteren har mange andre interessante teknologier som kan forbedre ytelsen. Men besparelsene er åpenbare; brikken var billigere å produsere enn en tilsvarende med DDR5-minne.

Gentlemans sett

Det kan ikke sies at for topplinjen, som inkluderer GeForce GTX 260, er egenskapene ideelle og langt bedre enn konkurrentene. Det er helt motsatt. Ta den tekniske prosessen - 65 nm med et kjerneområde på 576 kvadratmeter. mm. Enhver spiller vil si at dette er forrige århundre. En annen interessant ting er videominnets båndbredde, som er mest viktig egenskap for spillvideoadapter. Det er 112 gigabyte per sekund. Dette er en veldig stor figur, selv for moderne spillskjermkort.

Høy ytelse til videoadapteren sikres av en 448-bits minnebuss. Tilsynelatende, på grunn av det dyre dekket, er prisen på enheten tydeligvis for høy, fordi i I det siste Nvidia bestemte seg for å installere 384-bits busser i toppmodeller, og øke minnebåndbredden ved å overklokke kjernene, men det er ukjent hvor lenge potensialet deres vil vare.

Noe er galt her

En veldig merkelig egenskap for Nvidia GTX 260 er mengden minne. Det er tross alt vanlig på markedet å sette størrelsen som et multiplum på 512 megabyte, men her er det 896 MB. Alt handler om bitkapasiteten: den ikke-standardiserte bussen ble oppnådd ved å deaktivere flere kontrollenheter på videoadapterkortet, dette påvirket reduksjonen i den totale minnemengden.

Og hvis du går dypere inn i etterforskningen, kan du finne ut at GTX 260-brikken er et avslag fra den eldre modellen fra samme GTX 280-linje. Den har bare en standard 512-bits buss og 1024 MB minne. For å oppnå ytelsen til sin eldre bror, vil det ikke være mulig å forbedre egenskapene til GeForce GTX 260 programmatisk, med mindre du lodder inn de manglende kontrollenhetene. På det meste kan du øke kjernefrekvensen ved å øke spenningen på den. For å gjøre dette trenger du NVFlash-programmet, der du i stedet for standardspenningen på 1,12 volt må endre det til 1,18 volt og laste opp endringene til BIOS til videoadapteren.

Noen godbiter

260 videoutgangskarakteristikkene er tiltalende. Alle enheter på markedet har identiske kontakter. Du kan koble til hvilken som helst enhet, det spiller ingen rolle om den er digital eller analog - fra den gamle D-Sub-porten til den moderne HDMI-standarden. Det er til og med en TV-utgang, som er implementert i form av S-video, men de medfølgende adapterne lar deg koble til enheter som har en komponentinngang.

I alle Nvidia GTX 260 skjermkort er kjølesystemets egenskaper upåklagelig. Kjølingen kan ikke bare justeres automatisk, men også høy kvalitet montering forårsaker ikke ubehag under drift. Noe som er ganske sjeldent i videoadaptermarkedet.

Beste avtale

XFX er kjent blant spillere som en av de beste innen produksjon av videoadaptere. Ingen forbruksvarer, kun kraftige spillenheter under dette merket. Derfor tiltrakk utseendet på markedet til GeForce GTX 260 Black Edition under dette merket oppmerksomheten til mange XFX-fans til produktet.

Hvor mye koster en boks? I størrelse kan den konkurrere med størrelsene hovedkort. Mange adaptere, tilbehør, merkede disker med drivere og detaljerte instruksjoner De færreste vil bli overrasket, men spillet Far Cry 2 skulle være en belønning for en bruker som kun bruker lisensiert programvare.

Gotisk utseende Et spillskjermkort er litt skummelt i starten, men vekker så respekt. Ikke alle brukere har et slikt mesterverk. Naturligvis er kjølesystemet på toppnivå, i denne forbindelse er det ingen spørsmål for XFX GTX 260. Strømforbruksegenskapene er litt forvirrende - 236 W, som den eldre GTX 280-modellen Tilsynelatende var det fabrikkoverklokking av minnet til 300 MHz som hadde en slik innvirkning på strømforbruket.

Kunne ikke gjort det uten Zotac

Men Zotac-merket, velkjent blant spillere, som inntil nylig tok sjetonger fra topplinjen, mistet posisjonen litt da de begynte å produsere enheter i lavprissegmentet. Zotac satte GeForce GTX 260-produktet, hvis tekniske egenskaper tilsynelatende appellerte til produsenten, på produksjonslinjen.

Merkeboks, utmerket emballasje i en støtsikker pose, massevis av kabler og adaptere, CD-er med drivere og instruksjoner - et standardsett for alle toppenheter. Ser du nøye på adapteren får du følelsen av at det er samme XFX, bare med et nytt klistremerke med en drage fra Zotac. Selv i GTX 260 er kjølesystemets egenskaper identiske.

Tilsynelatende bestemte fabrikken seg for ikke å endre egenskapene til brikkesettet, og la alt være som det er. Dette er bevist av ytelsesindikatorer, minne og kjernefrekvenser, så vel som maksimalt Men i priskategorien opptar skjermkortet en av de første plassene, hva fangsten er er ukjent.

Ødelegge grunnlaget

Produsentene Gainward, Palit og Gigabyte er mer forbruksvarer, det er i alle fall oppfatningen. Tilsynelatende var de interessert i ytelsesegenskapene til Nvidia GTX 260, og de ga ut veldig produktive enheter som raskt fant kjøperne.

Ut fra en rekke forbrukeranmeldelser i media er det ingen klager på disse tre produsentene. Enten utstyret er komplett, monteringen, ytelsen - de er upåklagelig. Kjøperne var naturligvis også fornøyd med prisen, fordi disse produsentene har satt svært attraktive priser for spillskjermkort.

Det er imidlertid spørsmål om videoadapteren fra MSI. Enheten presenteres uten proprietære modifikasjoner - et ukjent GTX 260-skjermkort. Kjennesystemets egenskaper har alltid vært i første rekke for MSI, "Cyclone"-radiatoren gjør det alltid lett å finne på hyllen.

Merkelig aktør i markedet

Konstruktører og designere av selskapet GALAXY, hvis mesterverk ofte kan finnes på markedet i form av skjermkort med stort beløp kjølere i kjølesystemet, forlot de standardradiatoren i GTX 260. Lavtemperaturegenskapene til kjernen og minnebrikkene er fordelen for at kjøpere går til butikken og kjøper et GALAXY-produkt.

Og likevel gjorde produsenten noe med videoadapteren, siden den, med fabrikkegenskapene til brikken, yter utmerket i tester, og etterlater de fleste produsenter av brikken med samme navn. Interessant nok er kjerne- og minnetemperaturene normale.

Endelig

Som et resultat av gjennomgangen kan vi konkludere med at GTX 260-skjermadapteren, hvis egenskaper er veldig imponerende når det gjelder ytelse på markedet for spillenheter, er ganske konkurransedyktig i toppklassen. Noe helt annet er forvirrende - alle produsenter, uten unntak, har installert nesten samme kjølesystem. Brukeren vil ikke se noen proprietære teknologier fra MSI eller GALAXY. Denne rariteten antyder at skjermkortet er helt uegnet for overklokking - det er ikke noe potensiale. På grunn av dette er det ingen vits i å installere forbedret kjøling. Å øke kjernespenningen gir ingen gevinst i spill, det øker bare strømforbruket og varmegenereringen.