Point of View GeForce GTX 680 2GB productervaring door Coolreinoudnl

Coolreinoudnl 8 juni 2012 15:11
Algemene gegevens
Aanschafdatum product juni 2012
Product verkregen via productreview.option.
Prestaties
Beeldkwaliteit
Overklokbaarheid
Geluidsproductie
Warmteproductie
Zou je dit product aan anderen aanbevelen? Ja
Zou je weer videokaart van Point of View kopen? Ja

Min- en pluspunten

  • Prijs hoger dan HD 7970 (op moment van schrijven)
  • GTX 670 in het achterhoofd
  • Maximaal 4 schermen op een enkele nVidia kaart t.o.v. 6 bij AMD
  • Verkrijgbaarheid
  • Nog weinig preformance updates in driver updates
  • Preformance
  • 3D Support
  • Eindelijk meer dan twee schermen op een nVidia kaart
  • Looks (Blijft persoonlijk)
  • Driver support
  • Featureset
  • Stroomverbruik
  • Reference koeler

Inleiding

In december kwam AMD met de Radeon HD 7970, Daarmee namen ze het stokje van nVidia over als fabrikant van de snelste single gpu videokaart. De HD 7970 was niet alleen sneller dan de GTX 580 van nVidia, ook was de Radeon HD 7970 de eerste videokaart met een chip die gebakken was op 28nm. Ook was AMD de eerste met een PCI-E 3.0 interface en zo ook de eerste met ondersteuning voor DirectX 11.1. Natuurlijk was het wachten op een antwoord van nVidia op de Radeon HD 7970. Het antwoord van nVidia waar iedereen op wachtte bleef lang uit, maar sinds een tijd is die er nu als de GTX 680, een nieuwe videokaart gebaseerd op nVidia's nieuwe 28nm GK104 GPU.

Die nieuwe GTX 680 is totaal anders dan nVidia voorheen deed met hun topmodellen. nVidia vond voorheen dat alles draaide om prestaties en dat stroomverbruik en geluidsproductie niet belangrijk waren. Nu gooit nVidia het roer compleet om, de nieuwe 600 serie moet volgens nVidia voornamelijk efficiënt zijn.

Uiteraard heeft nVidia niet bezuinigd op de prestaties, de kaart is toch weer een aardige stap vooruit ten opzichte van de GTX 580. De GTX 680 maakt ook gebruik van een turbo-functionaliteit (die een beetje te vergelijken is als Intel's Turboboost), een nieuwe anti-aliasing systeem (FXAA) en de mogelijkheid om vier monitoren op één videokaart aan te sluiten.

GK104 chip

De GTX 680 is gebaseerd op de GK104 GPU. Deze GPU komt uit nVidia's Kepler generatie. Deze GPU is, net als AMD's Tahiti GPU's, gebakken op basis van 28nm transistors. Wie de geruchten over nVidia's videokaarten de afgelopen maanden heeft gevolgd, zal weten dat de GK104 ten eerste was bedoeld voor nieuwe mid-range videokaarten. De GK110 stond op de planning als nieuwe high-end chip die de opvolger van de GF110 chip, wel bekend van de GTX 580. Waarom de GTX 680 niet met GK110 chip uitgerust is weten we tot op de dag van vandaag nog steeds niet. Waarschijnlijk zal nVidia het niet gelukt zijn de GK110 met goede batches te kunnen produceren. Misschien komt de GK110 later nog terug als een GTX 685 of GTX 780. De 'mid-range' GK104, die oorspronkelijk dus voor een 'GeForce GTX 660 Ti'-achtige videokaart bedoeld was, bleek veel beter te presteren dan nVidia voor deze kaart in gedachte had. Zo goed zelfs dat nVidia zelfs met deze minder complexe GPU de prestaties van AMD's Tahiti GPU; de HD 7970 kan verbeteren!

De GK104 is een op 28 nm gebakken chip met 3.540.000.000 (3.54 miljard) transistors. Ter vergelijking: de 40nm gebakken GF110 GPU van de GTX 580 had er ongeveer 3 miljard. AMD's Tahiti GPU van de HD 7970 heeft nog meer transistors: 4,3 miljard. De GK104 bestaat verder uit 1536 cores, ofwel Cuda Cores zoals nVidia ze noemt. Dat zijn er drie keer zoveel dan in de GF110 chip. De GK104 heeft een 256-bit geheugenbus. Dat is een stapje terug ten opzichte van de GF110, maar begrijpelijk als je bedenkt dat de chip voor mid-range kaarten ontwikkeld is.


De GK104 Chip

De werking van SMX

De GF110 chip van de GTX 580, die bovendien weer gebaseerd was op de GF100 van de GTX 480, bestond uit 16 Streaming Multiprocessors, Die bestonden elk uit 32 (Cuda) cores. Alle cores in één zo'n Streaming Multiprocessor (SM) voeren op ieder moment een zelfde instructie uit op andere data. De cores binnen de GF110 waren flink opgevoerd en draaide op de dubbele snelheid van de standaard klokfrequentie van de GPU. Zo was de standaard frequentie van de GTX 580 772 MHz en werkten de Cuda cores ofwel shader units dus op 1544 MHz.

Bij de nieuwe Kepler generatie heeft nVidia haar architectuur omgegooid. De streaming multiprocessors bestaan voortaan uit 192 (Cuda) cores, waarbij nVidia het nu over SMX in plaats van SM heeft. Wel is het zo dat elk van de cores binnen een SMX op elk moment in tijd dezelfde instructie uitvoert. Met blokken van 192 cores is nVidia misschien wel iets minder flexibel, de aansturing van de chip kan wel een stuk simpeler werken wat een belangrijk is voor een efficiëntere werking. De cores binnen zo'n SMX werken voortaan op de standaard klokfrequentie in plaats van de dubbele snelheid van de GPU. De GK104 heeft 8 SMX-units. Het totale aantal cores komt dus neer op 1536. Als je meerekent dat de cores niet langer op dubbele klokfrequentie werken zoals bij de GF110, heeft de GK104 op gelijke klokfrequentie in theorie dus 50% meer rekenkracht dan de GF110. In de praktijk werkt het helaas wat anders. Het feit dat je met 8 x 192 cores wat minder flexibel bent met instructies verdelen dan met 16 x 32 cores, Daarnaast is de geheugenbandbreedte lager als bij de GF110. Dat maakt dat het gemiddelde prestatieverschil tussen de GTX 680 en de GTX 580 wel wat lager is.


De GK104 chip met 8 SMX-units met elk 192 Cuda cores.

Naast de 192 Cuda cores bevat elke SMX-unit ook nog een tesselation unit en 16 texture units. Elke SMX unit bevat 64 kB cache-geheugen waarmee de verschillende (Cuda)cores data kunnen uitwisselen. In het midden van de chip vinden we een groot stuk L2-cache, wat als toegangspoort tot het geheugen functioneert. De geheugencontroller aan de randen van de GPU (4 x 64-bit) is uiteraard geschikt voor GDDR5 chips.


SMX vs. SM units

De Specificaties

De GK104 chip vormt dus de basis van de GeForce GTX 680 videokaart. De GPU werkt standaard op 1006 MHz, maar dankzij de GPU Boost zal de GPU in vrijwel alle gevallen sneller werken.


Een Reference GTX 680 van Point of View, die in deze review word gebruikt

De GTX 680 is standaard voorzien van 2048 MB GDDR5-geheugen, werkend op 1502 MHz. Dat is extreem snel, zeker als je bedenkt dat het geheugen bij de GTX 580 op 1002 MHz werkte. We mogen eigenlijk al de conclusie trekken dat de stap van 384-bit terug naar 256-bit geheugen wordt gecompenseerd door de verhoogde klokfrequentie. De kaart heeft een maximaal TDP van 195 watt. Voor nVidia ongekend! de TDP van de GTX 580 bedroeg namelijk 244 watt. Hierdoor heeft de GTX 680 ook voldoende aan twee 6-pin PCI-E (PEG) connectors. De connectors zitten boven elkaar en dus niet naast elkaar op de kaart. Doordat de ene connector net wat dieper zit dan de andere, kun je erg eenvoudig twee kabels aansluiten.


De PEG connectors van de GTX 680

nVidia's referentiekaart heeft twee DVI aansluitingen, één HDMI aansluiting en één DisplayPort 1.2 aansluiting. Alle aansluitingen zijn ook daadwerkelijk allemaal tegelijk aan te sluiten. Het is dus mogelijk om meer dan twee monitoren op een enkele nVidia kaart kunt aansluiten! De HDMI-uitgang is geschikt voor wat AMD Fast HDMI noemt, waardoor er dus 4K-resoluties aangestuurd zouden kunnen worden. nVidia wil echter voor alsnog de term Fast HDMI niet over nemen. Uiteraard heeft de GTX 680 twee SLI-connectors behouden. SLI, Triple SLI en Quad SLI zijn dus allemaal mogelijk.


Het Reference PCB van de GTX 680

De nieuwe trick van nVidia; GPU boost

Hiervoor schreef ik al dat de standaard klokfrequentie van de GeForce GTX 680 1006 MHz bedraagt. In de praktijk zal de GeForce GTX 680 zelden op precies deze klokfrequentie draaien. Een nieuwe technologie die nVidia GPU Boost noemt zorgt ervoor dat de GPU sneller gaat werken als dat gewenst is en juist langzamer wanneer dat mogelijk is. GPU Boost is vergelijkbaar met bijvoorbeeld Intels Turbo Boost. De GPU meet constant het stroomverbruik en de temperatuur van de GPU. Mocht het volgens beide waardes mogelijk zijn, dan wordt de klokfrequentie in kleine stapjes opgehoogd. nVidia doet geen officiële uitspraken over de maximale klokfrequentie die dankzij GPU Boost behaald wordt. Wel word er gesproken van een Boost Clock,wat min-of-meer mogen de klokfrequentie is die in de meeste gevallen minimaal behaald zal worden. Die Boost Clock bedraagt bij de GeForce GTX 680 1058 MHz. In de praktijk zul je ook GPU Boost klokfrequenties tot 1110 MHz zien. Dit zorgt GPU-boost ervoor dat de videokaart bijna altijd tegen z'n TDP-waarde aanzit; de voorgenoemde 195watt.

GPU Boost werkt echter ook andesom. Als er slechts een beperkte hoeveelheid rekenkracht van de GPU gevraagd wordt en de GPU de benodigde prestaties kan behalen met een lagere kloksnelheid, dan schakelt de kaart zichzelf terug om stroom te besparen. Dit zie je bijvoorbeeld gebeuren met de Frame Rate Target optie, deze vind je onder meer in de EVGA Precision overkloksoftware. Hiermee kun je bijvoorbeeld aangeven dat de GPU 60 beelden per seconde te berekenen en niet meer. Er wordt dan niet langer energie verbruikt aan frames die je toch niet zult zien.

http://www.youtube.com/watch?featur...dded&v=IV53YpXHeVk
Introductievideo van de GTX 680 (Skip naar 0:35 voor uitleg van de Turboboost)

TXAA en Adaptive Vsync

Eén van de nieuwe features die de GeForce GTX 680 bied is een nieuwe anti-aliasing methode die nVidia TXAA noemt. TXAA is een combinatie van hardwarematige anti-aliasing en een filtermethode van verschillende sample-posities voor achtereenvolgende frames. Hierdoor kun je met minder verlies van frames een gelijk resultaat krijgen dan de zwaarder belastende MSAA anti-aliasing.


Het resultaat van TXAA vs. MSAA

TXAA heeft ongeveer hetzelfde frameverlies als 2x anti-aliasing volgens de standaard multisampling methode (MSAA). Volgens nVidia behaald TXAA een kwaliteit vergelijkbaar met 8x MSAA. Helaas is TXAA iets wat door games ondersteund moet worden. Wel zal in de toekomst dit geforceerd kunnen worden via het controlepaneel van nVidia. Gamedevelopers zoals Epic en Crytek zijn twee belangrijke namen uit een lijstje van ontwikkelaars die support voor TXAA in toekomstige games hebben aangekondigd. Hoewel TXAA vooral een softwarematige gimmick is, komt de technologie niet beschikbaar voor de vorige generatie nVidia-kaarten.

3D Vision Surround en NVENC

Met de GTX 680 is het voor het eerst mogelijk gemaakt om meer dan twee schermen met één videokaart aan te sturen. Onder de naam EyeFinity biedt AMD al sinds de Radeon HD 5000 serie die in 2009 op de markt kwam de mogelijkheid om zes schermen aan te sturen. Het heeft dus 2.5 jaar en twee generaties sinds dien geduurd voordat nVidia hetzelfde implementeerde in hun kaarten. Wel is er een verschil: waar AMD tot zes schermen ondersteunt, gaat nVidia maar tot maximaal vier schermen. Voor de meeste gamers is dat prima, gamen op drie schermen is erg prettig, maar gamen op zes juist niet, aangezien je dan een rand in het midden hebt. Hetzelfde geld voor vier schermen. Er is uiteraard wel een voordeel van nVidia's implementatie. DisplayPort is geen must om meer dan drie schermen te gebruiken. Je kunt dus op een GTX 680 zonder extra verloopkabels drie standaard DVI-monitoren aansluiten: twee via DVI en één via de HDMI-uitgang. Ook is de GTX 680 geschikt voor het aansluiten van drie nVidia 3D Vision schermen. Ook 3D-beelden met drie schermen behoort dus tot de mogelijkheden.


Eindelijk! Gamen op drie schermen met een enkele nVidia kaart.

Een laatste nieuwe feature die even gemeld moet worden is dat nVidia net als AMD een hardwarematige H.264 encoder in haar GPU heeft ingebakken, deze noemt men NVENC. Deze encoder moet volgens de fabrikant 1080p HD-video tot 8x sneller dan zonder deze functie kunnen coderen. Simpelweg: een film van twee uur is hiermee in 15 minuten te encoderen. De encoder is onder meer geschikt voor H.264 Base, Main en High Profile en kan ook MVC (Multiview Video Coding) 3D-videos coderen. nVidia heeft een samenwerking aangekondigd met ontwikkelaars van video software om de encoder daarin beschikbaar te maken. Makers van software als Cyberlink zal ondersteuning bieden voor NVENC in hun volgende versies van hun software.

Benchmarks

De GeForce GTX 680 word getest met een Intel Core i7 2600k werkend op 4.4GHz, deze CPU draait op een ASUS Maximus IV Extreme-Z in combinatie met een 128GB Crucial m4, dit alles zit in een Corsair Obsidian 800D. Zelf beschik ik alleen over een GTX 680, Benchmarks van andere kaarten komen van een vergelijkende review, deze review gebruikt ongeveer dezelfde hardware als die ik gebruik, en is dus ongeveer vergelijkbaar met mijn scores.

Metro 2033 wordt vaak vergeleken met spellen als Stalker of Fallout 3, maar een dergelijke vergelijking doet geen recht aan de drie games. Fallout 3 is voornamelijk een rpg en de Stalker-games zijn free-roaming shooters met een rpg-tintje. Metro 2033 is daarentegen een ouderwetse first person shooter met een flinke dosis horror, die ons nog het meest aan FEAR doet denken. De reden waarom Metro soms met Fallout 3 wordt vergeleken, ligt met name in de post-apocalyptische wereld waarin het spel zich afspeelt.

Settings:

● DirectX 11
● AAA
● 16x AF
● Global settings = High
● PhysX = On

In Batman: Arkham City neemt Batman het opnieuw op tegen de gestoorde Joker, die samen met zijn handlangers de stad Gotham City terroriseert. Er is inmiddels een jaar verstreken sinds de gebeurtenissen uit het vorige deel, Batman: Arkham Asylum, en de gevangenen hebben nu vrij spel in de stad. Het is aan Batman om de straten van Arkham weer te ontdoen van al het gespuis. Terwijl hij waakt over de stad, raakt hij verwikkeld in een plan van schurk Two-Face om Catwoman te vermoorden.

Settings:

● DirectX 11
● 4x MSAA
● 16x AF
● Global settings = Very High
● PhysX = off

De Battlefield-serie draait om episch grote online veldslagen. Met 63 medespelers door een gigantische map rauzen, vijandelijke bases platbombarderen met een jachtbommenwerper en samen met je squad bikkelen om controlepunten in handen te krijgen. Bij Battlefield 3 is dit niet anders, al heeft ontwikkelaar DICE deze keer ook zijn pijlers gericht op een singleplayer. In vrijgegeven gameplaybeelden zagen we kapotgeschoten stadscentra, waar het zonlicht door scheuren in muren priemde en waren we getuige van een hele tankdivisie die door een uitgestrekte woestijn scheurde. Het is een onderdeel van de game waar niet om heen kunnen, maar Battlefield 3 laat zich toch vooral zien met zijn geniale multiplayer.

Settings:

● 4x AA in CP
● 16x AF in CP
● Game settings = High

Heaven Benchmark is een DirectX 11 GPU benchmark gebaseerd op de UNIGINE game engine. De benchmark laat de betoverende magie van drijvende eilanden met een klein dorpje dat verscholen ligt in de bewolkte hemel zien. De Interactieve modus biedt nieuwe ervaring van het verkennen van de ingewikkelde wereld van steampunk. Heaven Benchmark is de eerste DirectX 11 benchmark die uitgebracht werd. De originele versie werd vrijgegeven op het moment van de lancering van Microsoft Windows 7 in oktober 2009.

Settings:

● 8x AA
● 16x AF
● Shaders = High
● Tesselation = Extreme
● Measurement = FPS

DiRT 3 is heerlijk ongenuanceerd plezier in de modder, door de sneeuw en op het asfalt. Plezier met de hoofdletter P. En in de meest heerlijke bolides uiteraard. Er is een familieverpakking opengetrokken vol met iconische klassiekers en hedendaagse kilometervreters met een paar honderd PK onder de motorkap. Van de Ford RS200 uit de Group B-categorie en de klassieke Mini Cooper 1275S tot de nieuwe Ford Fiësta uit het rallykampioenschap van dit jaar. Om de nieuwigheid snel van deze wagens af te krijgen, zijn er meer dan honderd evenementen beschikbaar om vol gas doorheen te rossen.

Settings:

● 8x AA
● 16x AF in CP
● Ultra Settings

3DMark is een benchmark die gebruikt wordt door miljoenen gamers, honderden hardware review sites en veel toonaangevende fabrikanten van PC gaming hardware om hun prestaties prestaties te meten met die van andere producten. 3Dmark helpt het testen van overclocks en het afstellen van je systeem. In de grote database van Futuremark naar resultaten om te zien hoe je eigen pc vergelijkbaar is met die van anderen of gewoon genieten van de graphics en jezelf af te vragen waarom alle PC-games zien er niet zo goed uitzien als deze benchmark.

Stoomverbruik

Idle is de GeForce GTX 680 duidelijk zuiniger dan de GF110 gebaseerde GTX 580. Wel is de HD 7970 wel wat zuiniger dan de GTX 680. Onder load is nVidia echter wat zuiniger: in Heaven meet ik maximaal 276 watt, waar bij AMD de teller uitsloeg tot 319 watt. Geen wereldschokkend verschil, maar het gaat om het idee.

Settings:

● Unigine 3.0 Heaven Benchmark
● 1920x1080 Resolution
● 8x AA
● 15-minute load test
● 15-minute idle test
● Measurement is in watts

Temperaturen

Last but not least; de temperaturen, zeker niet onbelangrijk! Idle zijn de verschillen tussen de vorige generatie en de 680 niet echt groot te noemen. Het verschil tussen de GTX 680 en de HD 7970 is het wel waard om te noemen. De GTX 680 weet idle zo'n 11 graden koeler te blijven. Knappe prestatie, zeker als je ook kijkt naar het geluidsniveau. Ook onder load presteert de GTX 680 goed, 65 graden tegenover 80 graden van de HD 7970.

Settings

● Monitoring with EVGA Precision
● Unigine Heaven 3.0 1920x1080 8x AA
● 5-run sequence
● 20-minute idle duration
● Temperature measured in degrees Celsius

Conclusie

Een mid-range GPU die na productie zo goed blijkt te presteren dat deze zelfs in het high-end segment aan de top staat! Hiervan word ik eigenlijk alleen maar benieuwder wat er was gebeurt als de GTX 680 de GK110 chip had bevat! Helaas is dat niet het geval. Als je naar de prestaties van de GeForce GTX 680, dan zie je dat de nVidia zo'n 10% sneller is dan de Radeon HD 7970, niet de eerder door nVidia beloofde 25% maar de kaart is sneller. Kijk je naar het stroomverbruik dan is nVidia tijdens het gamen wat zuiniger. Idle is AMD juist zuiniger. Beide kaarten bezitten PCI-Express 3.0, Drie schermen met één kaart, Een geïntegreerde video encoder, Compromisloze video decoder en DirectX 11.1 Op het driver vlak vind ik nVidia nét wat beter zitten dan AMD, zeker als je over 3D support praat. Ook voor wie met GPGPU-programma's aan de slag wil, zal onder meer dankzij Cuda eerder voor een nVidia-kaart kiezen.

Vanuit het gamers oog zou ik voor de goedkoopst geprijsde kaart gaan, op het moment van mijn aanschaf was de prijs nagenoeg gelijk, op dit moment bezit je voor een goede 380 euro al een 7970, de nVidia zit daar net wat boven. Wel is nVidia met de GTX 670 ook een geduchte concurrent voor zowel de 7970 als 7950, deze ligt daar net iets tussen en zit op ongeveer het niveau van de GTX 580. Wel heeft deze kaart de nieuwe features die de 680 ook bied. Wil je de snelste single GPU op de markt, ga voor de 680. Heb je een wat minder groot budget dan zul je sneller voor een 7970, 7950 of GTX 670 gaan. Ook worden de 'oude' GTX 570 en 580 voor veel lagere prijzen dan voorheen aangeboden.

Nog toe te voegen:

- Overclocken met de GTX 680

Vergelijk  

Product

Prijs

Point of View GeForce GTX 680 2GB

Point of View GeForce GTX 680 2GB

  • Nvidia GeForce GTX 680
  • 1058 MHz
  • 2048 MB
Niet verkrijgbaar
0
*

Deze gebruiker heeft nog geen foto's geupload.