nVidia GeForce GTX 280 test

155 reacties
Inhoudsopgave
  1. 1. Inleiding
  2. 2. Twee gezichten
  3. 3. GT200 chip
  4. 4. GTX260 en GTX280
  5. 5. Extra foto's GeForce 280 GTX
  6. 6. Extra foto's GeForce 260 GTX
  7. 7. Point-of-View en ASUS
  8. 8. 3D mogelijkheden
  9. 9. Video
  10. 10. Benchmarks: 3DMark06 / Vantage
  11. 11. Benchmarks: Call of Juarez
  12. 12. Benchmarks: Crysis
  13. 13. Benchmarks: Lost Planet
  14. 14. Benchmarks: S.T.A.L.K.E.R.
  15. 15. Benchmarks: Supreme Commander
  16. 16. Benchmarks: Unreal Tournament 3
  17. 17. Benchmarls: World in Conflict
  18. 18. Benchmarks: CUDA
  19. 19. Conclusie
  20. 20. Besproken producten
  21. 21. Reacties

Inleiding

Het is een jaarlijks terugkerend verschijnsel: nVidia introduceert een nieuwe generatie videokaarten, je wordt op alle bekende hardware sites dood gegooid met indrukwekkende benchmarkgrafieken en uiteindelijk is de conclusie dat het de ontwikkelaar van 3D-chips opnieuw is gelukt om een kaart te ontwikkelen die weer duidelijk sneller en mooier is dan zijn voorloper. Vandaag, bij de introductie van de GeForce GTX 280, is dat niet anders. Toch is de introductie van deze 10de generatie GeForce-kaart anders dan de introductie van generatie 6, 7, 8 of 9: voor het eerst gaat het niet alleen om de 3D-mogelijkheden, maar wordt de nieuwe kaart door nVidia ook gepositioneerd als superkrachtig rekenwonder voor uiteenlopende toepassingen. En zoals we verderop zullen zien blijft het deze keer niet bij vage beloftes, maar laat men daadwerkelijk zien wat voor power een moderne GPU heeft zodra je hem inzet voor taken waar je normaal gesproken een CPU voor zou gebruiken. Intel, eat your heart out...

Nvidia GeForce GTX 280

nVidia introduceert vandaag twee nieuwe videokaarten, de GeForce GTX 280 en 260. Beide zijn high-end videokaarten, gebaseerd op de nieuwe GT200 chip. We hebben hierbij te maken met alweer de 10de generatie GeForce producten. Wanneer nVidia haar bestaande naamgeving had doorgezet, zou de GTX 280 zodoende GeForce 10800 GTX hebben geheten, en de GTX 260 zou als GeForce 10800 GTS door het leven zijn gegaan. Iedereen begrijpt wel dat dergelijke namen met vijf cijfers niet bepaald duidelijk meer zijn. Daarnaast heeft nVidia er bij de overgang van de 8- naar de 9-serie zo'n potje van gemaakt qua naamgeving, dat het tijd is om schoon schip te maken.

De nieuwe kaarten komen in plaats van de GeForce 9800 GX2, nVidia huidige topmodel dat slechts een kort leven beschoren is geweest. Alle andere kaarten uit de GeForce 9-serie, tot en met de 9800 GTX, blijven courant totdat nVidia goedkopere kaarten in de nieuwe GTX-reeks gaat introduceren. De prijskaartjes van de nieuwe kaarten zijn flink: nVidia hanteert adviesprijzen van $ 649 voor de GTX 280 en $ 499 voor de GTX 260. De Nederlandse prijzen voor de GeForce GTX 280 ligt gemiddeld tussen de 525 en 550 euro. Voor de GTX 260 betaald je gemiddeld tussen de 350 en 375 euro.

Point-of-View was de eerste die ons van een sample van de GTX 280 kon voorzien, maar ook ASUS was ruim op tijd vóór de lancering. Op basis van hun kaarten zijn wij flink aan de slag gegaan.

Twee gezichten

Sinds de komst van DirectX 8 zijn videokaarten getransformeerd van relatief simpele chips die domweg enkele voorgeprogrammeerde trucjes kunnen uitvoeren, tot flexibel programmeerbare rekenwonders. De opkomst van vertex- en pixel-shaders heeft ervoor zorgd dat moderne games ongekend mooie 3D-effecten hebben. Waar de programmeerbaarheid in de DirectX 8 tijd nog in de kinderschoenen stond, werden DirectX 9 chips al veel geavanceerder. Zo geavanceerd zelfs dat velen zich begonnen af te vragen of zo'n GPU niet ook voor andere zaken ingezet kan worden. Een moderne 3D-chips bestaan immers uit tientallen, zo niet honderden relatief simpele cores, die super snel aan parallele taken kunnen werken. Na enkele geslaagde en minder geslaagde experimenten is het inzetten van videokaarten voor andere taken dan 3D-beeld in een stroomversnelling gekomen. Één van de eerste echt indrukwekkende demonstraties was de door Stanford University gemaakte Folding@Home client die werkte op de ATI Radeon X1900 en nieuwere videokaarten. Hiermee wist men al snel veel hogere snelheden te bereiken dan met een conventionele CPU. Bij de DirectX 10 generatie GPU's werd er voor het eerst expliciet rekening gehouden met het inzetten van GPU's voor uiteenlopende taken en werd de architectuur daar op aangepast. Inmiddels bevinden we ons bijna twee jaar na de introductie van de eerste DirectX 10 videokaart en kan de revolutie daadwerkelijk gaan beginnen.

nVidia was lang stil op het vlak van GPGPU (General Purpose GPU), maar achter de schermen heeft men flink geïnvesteerd. Het bedrijf zag al snel dat er één belangrijk nadeel was bij het gebruiken van videokaarten voor andere taken dan 3D-beeld: GPU's laten zich buiten DirectX of OpenGL omgeving maar erg lastig programmeren. Daarvoor heeft men een oplossing uitgewerkt die de naam CUDA draagt. Dit is een API die het mogelijk maakt om een 3D-chip aan te sturen met op C+/C++ gebaseerde programmeertechnieken. Ofwel, iedere doorgewinterde programmeur kan met beperkte bijscholing nu ook software voor videokaarten maken. CUDA is volgens nVidia de sleutel om het breed inzetten van GPU's tot een succes te maken. Inmiddels heeft nVidia als proof-of-concept al een CUDA-enabled versie van de genoemde Folding@Home client uitgebracht. Maar dat is nog maar het begin... Zo kregen we al de beschikking van een pre-release van software die met behulp van de GPU video kan encoderen. Zoals we verderop zullen zien met indrukwekkende resultaten! Alsof dat nog niet dé killer application is, heeft nVidia al aangekondigd dat men er samen met Adobe voor zorgt dat voor het eind van het jaar Photoshop en Premiere versneld zullen worden door videokaarten. Men gaat zelfs nog een stap verder; de volgende stap van Mac OS X, codenaam Snow Leopard, gaat de GPU ook voor meer dan alleen 3D-beelden inzetten. Juist omdat de CUDA interface relatief eenvoudig is, mogen we de komende maanden en jaren vele applicaties verwachten die intensief gebruik maken van de GPU. En wie nu al GeForce 8 of GeForce 9 kaart bezit, heeft geluk: ook deze kaarten zijn geschikt voor CUDA software.

physxbynvidia_01

CUDA is niet de enige manier waarop men de videokaart voor meer dan alleen 3D-graphics wil gaan inzetten. Een ander vlak is physics-berekeningen in 3D-games. Dit is een veel besproken onderwerp, waar in de praktijk nog niet bijster veel van terecht is gekomen. Een bedrijf dat de laatste jaren hard aan de weg timmerde op dit vlak is Ageia, dat zelfs een heuse Physics-processor introduceerde. Als relatief kleine speler kon Ageia echter niet genoeg game-developers achter zich krijgen om de PPU tot een succes te maken. Een recente overname door nVidia brengt alles echter in een stroomversnelling. Nog deze zomer belooft nVidia met een driver te komen waardoor games die gebruik maken van de PhysX API gebruik kunnen maken van GeForce 8, 9 of GTX videokaarten. Daarnaast geeft men aan druk in de weer te zijn met vele gamedevelopers om PhysX in de toekomst in steeds meer games te implementeren. In de Hardware.Info TV uitzending van komende vrijdag kunnen we daar al enkele sneak-previews van geven...

GT200 chip

De GT200 chip, waarop de twee nieuwe videokaarten zijn gebaseerd, is dus ontworpen om enerzijds als 3D-chip alle records te kunnen doorbreken, maar anders ook als multifunctioneel inzetbare processor voor parallelle taken. Kijk je naar de specificaties van de chip, dan gaat het je bijna duizelen: de op 65 nm geproduceerde GT200 bevat zo'n 1.4 miljard transistors en meet 576 mm² (24x24 mm). Hiermee is de chip groter en complexer dan welke andere chip dan ook die we afgelopen jaren in desktop PC's zijn tegen gekomen. Ter vergelijking: Intels nieuwe generatie Core 2 Quad processor (Yorkfield) meet 'slechts' 214 mm² en heeft 'slechts' 820 miljoen transistors. Het moge duidelijk zijn, de GT200 is geen kleine jongen...


Intels Wolfdale afmeting verbleekt bij vergelijking met nVidia's GT200.

De specificaties van de GT200 zijn zijn indrukwekkend. De chip heeft in totaal niet minder dan 240 unified shader units. Omdat 3D-beelden slechts één van de taken van de nieuwe GPU is, spreek nVidia zelf liever over cores. Al deze cores zijn onderverdeeld in 20 blokken. Per blok kunnen de rekeneenheden on-the-fly van gedaante verwisselen: ze kunnen ingezet worden als vertex-shader, als pixel-shader en multi-functionele rekeneenheid voor CUDA-achtige gebruiksdoelen.

Elk blok van 24 cores heeft een eigen hoeveelheid L1-cache. Daarnaast zijn er per blok in totaal acht texture-units terug te vinden, wat het totaal op 80 brengt. Binnen elk van blokken zijn de 24 cores weer opgedeeld in drie groepjes van 8. Elk van deze groepjes heeft 16 kB geïntegreerd geheugen, waardoor er super snel data uitgewisseld kan worden tussen cores die aan dezelfde dataset werken, zonder dat daarvoor verder weg gelegen L1-cache gebruikt hoeft te worden.


Het blokdiagram van de GT200 in processor modus...


... en het blokdiagram in 3D-modus


De GPU bestaat uit 10 blokken van elk 24 cores. Alle cores zijn direct verbonden met lokaal geheugen.

De GT200 GPU maakt verder gebruik van een 512-bit geheugeninterface. Hiermee kan een geheugenbandbreedte tot meer dan 140 GB/s bewerkstelligd worden.

nVidia heeft berekend dat de theoretische rekenkracht van de GT200 zo'n 933 GLOPS bedraagt, ofwel 933 miljard floating point opdrachten per seconde. Ter vergelijk; de Core 2 Extreme QX9650 komt niet verder dan 96 GFLOPS.

GTX260 en GTX280

Zoals geschreven gebruikt nVidia de GT200 chip op twee nieuwe kaarten, de GeForce GTX 280 en de GeForce GTX 260. Deze tweede is een goedkoper model, waarbij sommige gedeeltes van de chip zijn uitgeschakeld om de kaart voor een lager bedrag te kunnen aanbieden.

Nvidia GeForce GTX 280
GeForce GTX 280

De GeForce GTX 280 is een joekel van een videokaart van zo'n 27 centimeter lang, met een koeler die flink doet denken aan die van de GeForce 9800 GTX. De GT200 chip op de kaart werkt met de volle 240 shaders. De kaart is verder voorzien van 1 GB GDDR3-geheugen. De klokfrequentie van de GPU bedraagt 602 MHz, met een 1296 MHz shader clock. De geheugenchips werken op 1107 MHz.

De kaart maakt gebruik van een PCI-Express 2.0 x16 verbinding. Het maximale stroomverbruik van de kaart bedraagt - schrik niet - 236 Watt. Om dat mogelijk te maken heeft de kaart zowel een 8-pins als 6-pins connector aan boord. Op de kaart vinden we verder twee dual-link DVI-uitgangen, die vanzelfsprekend met een convertorplug geschikt zijn voor HDMI. De kaart heeft verder een S/P-DIF audioingang, zodat geluid aan het HDMI signaal kan worden toegevoegd.

{PHOTO|L26201-1}
GeForce GTX 260

De GTX 260 maakt gebruik van dezelfde GT200 chip, maar nVidia heeft bij deze kaart 20% van de beschikbare rekeneenheden uitgeschakeld. Zodoende heeft deze kaart 192 cores. Dit heeft ook een gevolg voor het geheugen; de interface is bij de GTX 260 beperkt tot 448 bit en op de kaart vinden we 896 MB geheugen. De klokfrequenties zijn bij de GTX 260 ook lager: de GPU werkt op 576 MHz, de shaders draaien op 1242 MHz en het geheugen op 999 MHz.

Dankzij de iets mindere specficaties is de GTX 260 ook iets zuiniger; het maximale stroomverbruik is 182 Watt. Vandaar ook dat de GTX 260 puur twee 6-pin aansluitingen heeft. Voor de rest zijn de specs vrijwel identiek: ook de 260 is PCI-Express 2.0, heeft twee DVI-uitgangen en de mogelijkheid om S/P-DIF audio in te voeren.

In onderstaande tabel zijn de belangrijkste specs terug te vinden en te vergelijken met de GeForce 9800 GTX. Wat opvalt is dat de klokfrequenties relatief laag zijn in vergelijking met de vorige generatie. De extra cores en dubbel zo brede geheugenbus kunnen dat zoals we verderop zullen zien meer dan compenseren.

Algemeen
 
MerkNvidiaNvidia
ProductnaamGeForce 9800 GTXGeForce GTX 280
ProductcodeGeForce 9800 GTXGeForce GTX 280
DetailsProductinfoProductinfo
Chip
CodenaamG92GT200
Rekenkernen128 cores240 cores
Kloksnelheid675 MHz602 MHz
Transistors754 mln1400 mln
Productieprocedé65 nm65 nm
Kloksnelheid shaders1688 MHz1296 MHz
Vertex Shader versie4.04.0
Pixel Shader versie4.04.0
Pixel kleurprecisieFP32
Geheugen
Geheugengrootte512 MB1024 MB
Type geheugenGDDR3GDDR3
Geheugensnelheid1100 MHz1107 MHz
Geheugencontroller256 bit512 bit
Functionaliteit
DirectX versieDirectX 10.0DirectX 10.0
SLI compatible
Crossfire compatible
Geïntegreerde H.264 videodecoder
Geïntegreerde VC-1 videodecoder
Kaartontwerp
InterfacePCI-Express 2.0 x16PCI-Express 2.0 x16
Extra power-connector
Type power connector(s)2x PEG6PEG6+PEG8
Total board power140 W236 W
Lengte27 cm

Point of View GeForce GTX 280 1GB
De GeForce GTX 280 naast de GeForce 9800 GTX

Extra foto's GeForce 280 GTX

Hier onder vind je de GeForce 280 GTX van alle kanten gefotografeerd:

Nvidia GeForce GTX 280

Nvidia GeForce GTX 280

Nvidia GeForce GTX 280

Point of View GeForce GTX 280 1GB

Point of View GeForce GTX 280 1GB

Point of View GeForce GTX 280 1GB

Asus ENGTX280/HTDP/1GB

Extra foto's GeForce 260 GTX

Ook van de GeForce GTX 260 hebben we enkele extra foto's voor je:

{PHOTO|L26201-2}

{PHOTO|L26201-3}

{PHOTO|L26201-4}

Point-of-View en ASUS

Voor deze test gingen we aan de slag met GeForce GTX 280 kaarten van Point-of-View en ASUS. Zoals gebruikelijk bij nieuwe high-end videokaarten leveren beide fabrikanten dezelfde nVidia referentiekaart. Beiden geven echter hun eigen invulling aan het geheel.

Point of View GeForce GTX 280 1GB

De kaart van Point-of-View wordt geleverd met de nieuwe game Assassin's Creed. De klokfrequenties van de Point-of-View kaart zijn verder identiek aan nVidia's referentiekaart. De adviesprijs van de Point-of-View kaart bedraagt € 549. De kaart zou vanaf morgen (de 17de) leverbaar moeten zijn.

Asus ENGTX280/HTDP/1GB

De kaart van ASUS luistert naar de naam ENGTX280 en wordt relatief kaal geleverd. ASUS heeft wel direct de klokfrequenties opgevoerd:de GPU draait op 670 MHz in plaats van 602 MHz en het geheugen op 1215 MHz in plaats van 1107 MHz. Dat heeft als resultaat dat de kaart van ASUS net wat beter presteert dan de standaard GTX 280.

3D mogelijkheden

De belangrijkste functionaliteit van de nieuwe kaarten blijft natuurlijk het op het scherm toveren van 3D-beelden. Dankzij de extra shaders en de gigantische geheugenbandbreedte is de nieuwe kaart zoals we verderop zullen zien een stuk sneller dan de GeForce 9800 GTX, nVidia's huidige single-GPU topmodel. Zelfs de GeForce 9800 GX2 met twee GPU's wordt zoals we zullen zien geregeld verslagen.

De GTX 260 en 280 zijn volledig geschikt voor DirectX 10. Ondersteuning voor DirectX 10.1, zoals de nieuwste ATI kaarten dat bieden, moeten we helaas missen. Volgens nVidia heeft men tijdens de ontwikkeling van de GPU contact gehad met diverse game-developers en kreeg men van iedereen de feedback dat DX 10.1 niet belangrijk is. Desalniettemin is het bijna onbegrijpelijk dat de nieuwe functionaliteit niet is ingebakken.

Deze ontwikkeling schijnt ook nieuw licht op de rel rond het spel Assassin's Creed. Daarvan kwam een DirectX 10.1 patch uit, die duidelijk voor een flinke prestatiewinst zorgde. Al na enkele dagen werd de patch om vage redenen weer ingetrokken. De geruchten gingen al snel dat dit onder druk van nVidia gebeurde.

Of nVidia de ontwikkeling van DirectX 10.1 nu wel of niet actief tegenwerkt zal nooit duidelijk worden. Één ding moeten we wel constateren; tot nu toe zijn er nog geen games die de nieuwe DirectX API ondersteunen en er zijn ook nog geen harde toezeggingen van game developers dat ze dit gaan doen.

10-bit kleur

Wat niet onbesproken mag blijven is dat de GT200 de eerste 3D-chip is die daadwerkelijk met 10-bit kleur kan werken. Door 10-bits voor alle kleurcomponenten te gebruiken zijn er ruim 1 miljard verschillende kleuren mogelijk, heel wat meer dan de 16,7 miljoen kleuren die normale kaarten kunnen produceren.

Let wel; er zijn meer moderne GPU's die intern met 10-bit kleur kunnen rekenen, maar de GT200 is de eerste die ook daadwerkelijk een 10-bit output heeft. De eerste GTX 260 en GTX 280 kaarten hebben er overigens niet veel aan: 10-bit kleur wordt alleen ondersteund in combinatie met DisplayPort. De GT200 chip is geschikt voor deze nieuwe monitoraansluiting, maar de connector is op het eerste referentieontwerp van de kaarten nog niet ondergebracht.

HP heeft recentelijk als eerste een monitor met 10-bit kleur aangekondigd. Pas zodra dergelijke monitoren daadwerkelijk leverbaar zijn en er DisplayPort versies van de nieuwe GTX-kaarten komen, kunnen we daadwerkelijk inschatten wat de impact van deze nieuwe functionaliteit is.

SLI

Wat natuurlijk ook bij de GTX 260 en GTX 280 niet mag ontbreken is SLI-functionaliteit. Beide kaarten kunnen op een moederbord met nVidia chipset met z'n tweeën of met z'n drieën worden geplaatst. We hebben wegens beperkte tijd helaas nog geen SLI-scores, maar zullen die zo snel mogelijk bepalen. Triple-SLI lijkt in ons voornamelijk een theoretische mogelijkheid; er zullen maar weinig mensen zijn die € 1650 puur aan videokaarten gaan spenderen.

Nvidia GeForce GTX 280
De nieuwe GTX kaarten kunnen uiteraard in SLI gebruikt worden.

Let bij aanschaf van deze kaart wel op de voeding waarmee je hem gaat gebruiken. Een GTX 280 heeft een maximaal stroomverbruik van 236 Watt. Wanneer je zo'n 150 à 200 Watt voor de overige componenten rekent van een high-end PC rekent, kom je in totaal op zo'n 400 Watt. Gezien het feit dat een voeding net boven de 50% load het efficiëntst werkt, is een 650W à 750W voeding voor een PC met GTX 280 kaart geen overbodige luxe. Voor een systeem met twee kaarten is een 1000 Watt voeding aan te raden. Voor een Triple SLI opstelling van drie GTX 280 kaarten is een voeding van zo'n 1400 Watt aan te raden.

Video

Op het vlak van video-ondersteuning is er weinig nieuws te melden. De GT200 chip heeft dezelfde PureVideo HD 2 functionaliteit als de GeForce 9 kaarten. Dat betekent dat de nieuwe GTX kaarten dus ook een volledige decoder voor HD-video in H.264 formaat hebben. Enige tijd geleden bemerkten we in een uitgebreide test al dat de beeldkwaliteit van Purevideo HD iets beter is dan van ATI's Avivo HD / UVD.

Wel is er nog één nieuwtje te melden; nieuwe drivers zorgen ervoor dat de GeForce 9 en GeForce GTX kaarten nu ook geschikt zijn voor BD Live Blu-Ray-schijven. Hiervoor moeten twee HD-streams tegelijkertijd ondersteund worden.

Dankzij een S/P-DIF audioingang kunnen de GTX kaarten de audio van een geluidskaart bijvoegen aan een HDMI signaal. Helaas gaat nVidia geen stap verder; het uitsturen van moderne audiotracks als Dolby Digital True HD en DTS Master Audio is helaas niet mogelijk. Aangezien de uitgang niet HDMI 1.3 is, kan helaas ook niet van de op de vorige pagina besproken 10-bit kleurfunctionaliteit bij video gebruik gemaakt worden.

Stroombesparing

Het maximale stroomverbruik van 236 Watt voor de GTX 280 en 182 Watt voor de GTX 260 zal velen hebben doen schrikken. Gelukkig heeft nVidia er deze keer echter alles aan gedaan om het stroomverbruik wanneer je niet in 3D-game zit zo ver mogelijk terug te brengen. High-end kaarten uit de vorige generaties hadden er immers een handje aan om altijd extreem veel stroom te verbruiken.

nVidia geeft zelf aan dat het verbruik in 2D modus rond de 25W ligt. Hiertoe schakelt men een groot gedeelte van de chip helemaal uit. Tijdens het afspelen van een Blu-ray film moet het verbruik rond een acceptabele 35W liggen.


Dankzij nVidia's HybridPower kan de GTX 280 bij een chipset met integrated video helemaal uitgeschakeld worden.

Een mooie nieuwe functionaliteit is HybridPower: in combinatie met bijvoorbeeld de nVidia nForce 780a chipset met geïntegreerde videokaart is het mogelijk om de GTX 260/280 in Windows helemaal uit te schakelen (lees: 0 Watt) en het beeld via de interne videokaart te laten lopen. Zodra een 3D-game wordt opgestart neemt de losse videokaart het dan naadloos over.

Benchmarks: 3DMark06 / Vantage

We hebben de nieuwe GeForce GTX 280 getest op ons standaard videokaarten testsysteem bestaande uit een Intel Core 2 Extreme QX9650 processor, 4 GB DDR3-1333 geheugen, een ASUS Maximus Extreme moederbord (Intel X38 chipset), een Western Digital Raptor 74 GB harddisk en een Cooler Master Real Power M1000 voeding. Voor de test maakten we gebruik van ForceWare driver versie 177.34. Alle tests zijn uitgevoerd onder Windows Vista Ultimate 32-bit.

In de grafieken vind je de GTX 280 met een blauw balkjes. Overige nVidia kaarten zijn groen, ATI kaarten zijn rood. Alle benchmarks hebben we indien mogelijk uitgevoerd in drie resoluties - 1280x1024, 1680x1050 en 1920x1200 - en zowel met als zonder anti-aliasing.

3DMark06

In 3DMark06 behalen we een score van 15491 punten. Hiermee wordt de score van de 9800 GX2 niet geëvenaard, maar stuift de GTX 280 wel alle bestaande single-GPU kaarten duidelijk voorbij.

3DMark Vantage (Performance)

De GTX 280 is de eerste losse videokaart die niet overklokt de 10000 punten grens in 3DMark Vantage doorkomt. De nieuwe kaart is bijna twee keer zo snel als de 9800 GTX. Een schokkend groot verschil!

Benchmarks: Call of Juarez

In Call of Juarez is de GTX 280 sowieso duidelijk sneller dan alle bestaande single-GPU kaarten. Maar het wordt nog mooier: in de hoogste resolutie laat de nieuwe kaart zelfs de GeForce 9800 GX2 en ATI Radeon HD 3870X2 achter zich. Uistekende scores dus!

Benchmarks: Crysis

Over de Crysis benchmarks kunnen we kort zijn; de resultaten van de GTX 280 zijn onvoorstelbaar goed. Dit biedt perspectieven voor toekomstige games die nog complexer dan Crysis worden!

Benchmarks: Lost Planet

Ook in Lost Planet is de GTX 280 veel sneller dan welke andere single-GPU videokaart dan ook. De GeForce 9800 GX2 met twee chips blijft de leiding nemen, het verschil met de 9800 GTX is echter opnieuw erg groot.

Benchmarks: S.T.A.L.K.E.R.

In de oudere game S.T.A.L.K.E.R. kan de GTX 280 de scores van de dual-GPU kaarten niet evenaren, maar weet de nieuwe kaart opnieuw duidelijk betere scores de op dit moment snelste single-GPU kaart te bewerkstelligen.

Benchmarks: Supreme Commander

In Supreme Commander zien we een vergelijkbaar resultaat: de dual-GPU kaarten blijven aan top, maar de GTX 280 is duidelijk sneller dan de 9800 GTX.

Benchmarks: Unreal Tournament 3

In Unreal Tournament 3 neemt de GeForce GTX 280 overtuigend de leiding. De nieuwe kaart weet alle andere bestaande videokaarten op een flinke afstand te houden. De grafieken zeggen genoeg:

Benchmarls: World in Conflict

De laatste benchmark is opnieuw een klapper. In World in Conflict zet de GTX 280 scores neer die tot nu toe onmogelijk leken. Zeker in de hogere resoluties is het verschil met de gevestigde orde gigantisch:

Benchmarks: CUDA

In de inleiding beloofden we het al; de introductie van de GeForce GTX 280 is méér dan een nieuwe kaart die weer een aantal procent sneller is dan zijn voorlopers. Wat ons in ons testlab het meest heeft verbaasd is de test met de pre-release versie van de BadaBOOM Media Converter van Elemental Technologies. Deze software kan video omzetten naar H.264 formaat foor gebruik op mobiele apparaten, zoals de iPod, iPhone, PSP, en zo verder. Steeds meer mensen kijken video op portable mediaspelers en kennen de frustratie van het lange wachten eer video is omgezet naar het juiste formaat. Niet langer... BadaBOOM maakt gebruik van CUDA en laat zodoende vrijwel het complete encoding proces over aan de videokaart. De resultaten zijn opzienbarend.

Ter test zetten wij de leader van Hardware.Info TV en het eerste hoofdstuk van de DVD van Fantasia 2000 om naar een voor de iPhone geschikt .MP4 bestand. Om een vergelijk te kunnen maken tussen verwerking op de GPU en de CPU deden we hetzelfde ook met de Nero Digital software. De instellingen hielden we zoveel mogelijk identiek; BadaBOOM maakt een bestand met 640x360 resolutie en 2.36 Mbps bitrate. Hierop hebben we Nero Digital ook ingesteld. Het blijft een beetje appels met peren vergelijken, maar dat vergeet je al snel als je naar de resultaten kijkt...

Het omzetten van de korte leader van Hardware.Info duurt met Nero Digital op onze Core 2 Extreme QX9650 - let wel; de één na snelste CPU die verkrijgbaar is - zo'n 39 seconden. De BadaBOOM deed hetzelfde in 6,2 seconden, ofwel ruim 6x zo snel!

Het eerste hoofdstuk van de Fanatasia 2000 DVD duurt 1:49. Nero Digital doet er 2 minuten en 55 seconden over om het te converteren. 175 seconden dus, het omzetten duur langer dan het fragment zelf. Hetzelfde hoofdstuk converteerden we met BadaBOOM naar MP4 in 18,7 seconden. Je leest het goed: geen tikfouten hier, de nVidia chip doet dit daadwerkelijk ruim 9x sneller dan Intels Core 2 Extreme QX9650!

Dit zijn resultaten die je aan het denken zetten... De videokaart gebruiken voor andere doeleinden dan 3D staat eigenlijk nog steeds in de kinderschoenen. Met BadaBOOM laat nVidia echter goed zien wat mogelijk is. En hoewel op de utility nog heel veel is aan te merken - je kunt bijna niets instellen en de stabiliteit is verre van optimaal - is de toon gezet; de GPU inzetten voor andere doeleinden kan echt een revolutie in de PC wereld gaat betekenen. Ga maar na; als het omzetten van video in plaats van langzamer dan realtime ineens een aantal maal sneller dan realtime gaat, biedt dit mogelijkheden voor vele nieuwe toepassingen.

Op pagina twee schreven we al dat nVidia samenwerkt met Adobe om een gedeelte van het werk van Photoshop en Premiere naar de GPU over te hevelen. Als ook daar dergelijke winsten behaald kunnen worden, zal dat betekenen dat het bewerken van HD video eind van dit jaar ineens echt een nieuwe spurt kan krijgen.

Bij de BadaBOOM demo blijft het niet. nVidia heeft ook een speciale versie van de Folding@Home client gemaakt. Deze is lastiger te benchmarken, maar desalniettemin willen we je onderstaande grafiek uit nVidia's presentatie van de GTX 280 niet onthouden:

Volgens nVidia weet een GTX 280 gemiddeld 511 units per dag te verwerken. Onze eerste tests wijzen ook in die richting. Dat betekent dat een GTX dit tot zo'n 100x sneller kan doen dan een gemiddelde CPU. nVidia becijferde dat als slechts 1% van de bezitters van GeForce 8, 9 en GTX kaarten de Folding@Home client zal installeren, dat de totale rekenkracht van het project in één klap verdubbelt.

Conclusie

Laten we de meest voor de hand liggende conclusie meteen maar trekken; de GeForce GTX 280 is overduidelijk de snelste videokaart van dit moment. De prestaties die de kaart weet te behalen zijn ongekend. Juist in complexe games als Crysis en World in Conflict maakt nVidia de bestaande single GPU kaart in één klap met de grond gelijk. Het prijskaartje van € 549 wel erg pittig, zodat we minder enthousiast kunnen zijn over de prijs/prestatie-verhouding. Maar voor een echt high-end game systeem is de GTX 280 op dit moment de enige juiste keuze.

Het schokkende gedeelte van onze test is echter te vinden op de vorige pagina. De test met de pre-release versie van de CUDA-enables BadaBOOM videoencoder spreekt boekdelen. Het omzetten van video naar iPod-formaat gaat volgens onze tests ruim 9x sneller dan op de Core 2 Extreme QX9650, notabene de één na snelste processor van dit moment. Ik kan me niet herinneren wanneer is voor de laatste keer in een Hardware.Info review kon schrijven dat iets van de ene dag op de andere twee keer zo snel ging. nVidia bewijst nu dat een activiteit waar velen hun PC voor gebruiken ineens ruim 9x sneller kan. Er zijn weinig superlatieven te vinden die deze ontwikkeling eer aan doen.

Het inzetten van videokaarten voor andere doeleinden dan 3D heeft de potentie om the next big thing op PC vlak te worden. Ook AMD/ATI praat daar ale jaren over, maar nVidia levert nu als eerste overduidelijk bewijs. Of we dan praten over zaken als video-encoding of physics in games, de fundamenten zijn door nVidia gelegd en de nieuwe GeForce GTX 260 en 280 lijken er beter dan welke kaart dan ook op toegerust, al is het geen geheim dan andere toepassingen dan 3D ook voor de binnenkort verschijnende nieuwe ATI-kaarten een belangrijk gebruiksdoel zullen zijn.

Over de GeForce 6 waren we enthousiast toen deze uitkwam. Over de GeForce 7 lees je op Hardware.Info ook een lovend verhaal. De GeForce 8 was als eerste DirectX 10 kaart naar onze mening één van de belangrijkste introducties die nVidia ooit gedaan heeft. De GeForce 9 was eigenlijk een misser, maar dat is sinds vandaag snel vergeten... de nieuwe GeForce GTX 280 is wat ons betreft het meest begerenswaardige stuk hardware dat te krijgen is.Maar belangrijker nog; de revolutie van het voor uiteenlopende taken inzetten van een videokaart is vanaf vandaag écht begonnen.


Besproken product

Vergelijk  

Product

Prijs

Nvidia GeForce GTX 280

Nvidia GeForce GTX 280

  • GT200
  • 240 cores
  • 602 MHz
  • 1024 MB
  • 512 bit
  • DirectX 10.0
  • PCI-Express 2.0 x16
Niet verkrijgbaar
0
*