AMD Radeon R9 Fury X review: AMD's nieuwe vlaggenship

253 reacties
Inhoudsopgave
  1. 1. Inleiding
  2. 2. Fiji GPU: mag een core-tje meer zijn?  
  3. 3. High Bandwith Memory: snel, maar beperkt tot 4GB
  4. 4. De Fury X kaart met waterkoeling
  5. 5. Extra AMD-features
  6. 6. Hoe test Hardware.Info videokaarten
  7. 7. Benchmarks: 3DMark Fire Strike (Extreme / Ultra)
  8. 8. Benchmarks: Alien: Isolation
  9. 9. Benchmarks: Battlefield 4
  10. 10. Benchmarks: Civilization: Beyond Earth
  11. 11. Benchmarks: Far Cry 4
  12. 12. Benchmarks: GRID Autosport
  13. 13. Benchmarks: Metro Last Light
  14. 14. Benchmarks: Watch Dogs
  15. 15. Benchmarks: Evolve
  16. 16. Benchmarks: Total War: Atilla
  17. 17. Benchmarks: GTA V
  18. 18. Benchmarks: Project Cars
  19. 19. Benchmarks: The Witcher 3
  20. 20. Benchmarks: Hardware.Info GPU prestatiescore Q2 2015
  21. 21. Testresultaten: Stroomverbruik
  22. 22. Testresultaten: Geluidsproductie en temperatuur
  23. 23. Overklokresultaten
  24. 24. GTX 980 Ti of Fury X: wat is de beste keuze?
  25. 25. Conclusie
  26. 26. Besproken producten
  27. 27. Reacties

Inleiding

Vorige week donderdag introduceerde AMD een volledige line-up kaarten in de Radeon R7/R9 300-serie, echter stuk voor stuk gebaseerd op bestaande GPU’s. Vandaag introduceert AMD een nieuw topmodel, dat als enige nieuwe kaart ook daadwerkelijk op een geheel nieuwe chip is gebaseerd. In deze review nemen we de op Fiji-chip gebaseerde Radeon R9 Fury X uitvoerig onder handen.


Fiji is een beest van een chip.

Fiji is een beest van een chip. Met ruim 8 miljard transistors en 4096 stream processors is de GPU nog een stuk groter dan AMD’s snelste GPU tot nu toe, de Hawaii chip van de Radeon R9 290(X) en 390(X). Het meest bijzondere van de nieuwe GPU is echter het eraan gekoppelde geheugen. De AMD Fury is namelijk de eerste videokaart ter wereld die gebruik maakt van High Bandwidth Memory, een nieuwe geheugentechnologie die niet alleen hogere doorvoersnelheden mogelijk maakt, maar waardoor snelle videokaarten ook een stuk kleiner kunnen worden.

Verder opmerkelijk aan de Fury X is dat de kaart standaard wordt geleverd met waterkoeling. De kaart zelf is (mede dankzij het HBM-geheugen) relatief klein, wat het een interessante optie maakt voor inbouw in een compacte Mini-ITX behuizing, mits er plek is voor een uit de kluiten gewassen 120mm radiator.

Met een adviesprijs van $ 649 positioneert AMD de Fury X rechtstreeks tegenover de Nvidia GeForce GTX 980 Ti die een identieke adviesprijs kent. Dat is natuurlijk een interessant gevecht dat we verderop in deze review uitvoerig zullen analyseren. Ga er van uit dat AMD's partners de Fury X voor vergelijkbare prijzen als 980 Ti's op de markt gaan brengen, vermoedelijk dus rond de € 750.

Klik hier voor een overzicht van alle AMD Radeon R9 Fury X kaarten in onze prijsvergelijker.

Bij de Fury X blijft het niet. AMD heeft vorige week aangekondigd dat we op 14 juli ook een lager geklokte, vermoedelijk met enige uitgeschakelde shader units, Fiji-gebaseerde videokaart met luchtkoeling mogen verwachten. Die zal de naam Fury zonder X krijgen. Later in de zomer mogen de Radeon R9 Fury Nano verwachten, een kaart die nog geen 16 cm lang is, maar desalniettemin betere prestaties moet bieden dan een Radeon R9 290X met een veel lager stroomverbruik.

Vandaag is het dus echter het topmodel Fury X dat het podium bestijgt. Op de volgende pagina’s zullen we de nieuwe kaart en de nieuwe GPU uitvoerig uit de doeken doen, beginnend bij de chip, dan het HBM geheugen, daarna de kaart en uiteindelijk natuurlijk de prestaties.

Fiji GPU: mag een core-tje meer zijn?  

De op de Fury X gebruikte Fiji chip is met afstand de grootste GPU die AMD ooit heeft gemaakt. De chip bevat meer dan 8 miljard transistors en meet maar liefst 596 mm².

Meer is beter

Nemen we een duik in de specificaties, dan blijkt dat enkel de geheugencontroller met ondersteuning voor High Bandwidth Memory, waarover meer op de volgende pagina, het enige écht nieuwe is binnen de chip. Voor de rest is de GPU opgebouwd uit IP-blokken die we al kennen van andere AMD-chips, maar dan met als achterliggende gedachte: meer is beter.

De chip is opgebouwd rond 64 zogenaamde compute units, die elk weer bestaan uit 64 cores, zodat de chip in totaal dus 4096 stream processors heeft. Ter vergelijking: de Hawaii chip van de Radeon R9 290(X) en 390(X) heeft 2816 cores, we hebben dus van doen met 45% meer rekenkracht.

AMD Radeon R9 Fury X
Het blokschema van de Fiji-chip

De chip maakt gebruik van dezelfde derde generatie Graphics Core Next architectuur, GCN 1.2 dus, als de Tonga chip, die we kennen van de Radeon R9 285 en 380. De compute units zijn dus identiek aan die van Tonga, met als grootste verschil uiteraard dat Fiji er veel meer heeft. De vernieuwingen van GCN 1.2, zoals de lossless kleurcompressie op de databussen en verbeterde tessellation prestaties, vinden we dus ook terug bij Fiji. Naast het aantal cores heeft AMD ook de L2-cache verhoogd, naar 2 MB. De chip bevat acht individuele schedulers, die ervoor zorgen dat de chip zeer geschikt is voor het gelijktijdig verwerken van data voor meerdere programmathreads, een functie die zeker voor DirectX 12 erg belangrijk is.

Nu we het toch over DirectX 12 hebben: qua ondersteuning voor 3D API’s is Fiji dus identiek aan Tonga. Dat betekent onder meer dat de Fury X kaart geschikt is voor DirectX 12 feature level 12_0. Het hogere 12_1 niveau wordt uitdrukkelijk niet ondersteund, iets wat Nvidia bij de 900-serie kaarten wel doet. AMD geeft aan dat men niet verwacht dat games specifieke DX12 feature level 12_1-effecten gaan gebruiken en dat dus geen gemis is. Daar zouden ze zomaar eens gelijk in kunnen hebben, maar het klinkt wel wat hypocriet uit de mond van een bedrijf dat iedereen jarenlang heeft doen geloven dat DirectX 11.1 en 10.1 toch echt véél beter waren dan de door Nvidia ondersteunde 11.0 en 10.0. Daar staat echter weer tegenover dat AMD GPU's wél geschikt voor de toekomstige feature level 11_2 (waar door Microsoft nog aan gewerkt wordt) en alle bestaande Nvidia GPU's naar verluid niet. En om het DirectX 12 verhaal nóg ietsje complexer te maken: naast de feature levels wordt ook onderscheid gemaakt binnen zogenaamde resource binding tiers, wat heel kort door de bocht maten zijn voor de restricties hoeveel taken/threads GPU's parallel kunnen uitvoeren. Zonder al te diep in deze über verwarrende techniek te duiken mag je stellen dat als een GPU geschikt voor Tier 2 deze in potentie een hoger maximaal prestatieniveau kan behalen dan Tier 1 en bij Tier 3 zijn er zelfs vrijwel geen limieten. Alle AMD GPU's per GCN-architectuur - dus GCN 1.0, 1.1 én 1.2 - zijn Tier 3 en bij Nvidia is alleen tweede generatie Maxwell (ofwel de GTX 900 serie) Tier 2 en oudere GPU's Tier 1. GPU's die én feature level 11_2, én feature level 12_1 én Tier 3 geschikt zijn, bestaan nog niet. Of AMD of juist Nvidia voor de toekomst de beste DirectX 12 implementatie hebben? Wie het weet mag het zeggen...

Naast DirectX 12 ondersteuning is er ook support voor de Vulkan, Mantle en OpenCL 2.0 API's.

Voor wie de chip voor GPGPU-doeleinden wil gebruiken is het goed om te weten dat de double precision floating point prestaties op 1/16 van het niveau van de single precision liggen, in tegenstelling tot de factor 1/2 zoals we die kenden van Hawaii. AMD geeft dan ook ruiterlijk toe dat Fiji primair gemaakt is voor gamers en dus niet voor specifieke DP GPGPU-applicaties.

Fiji heeft verder dezelfde multimediabouwstenen als in de kort geleden aangekondigde Carrizo APU. Dat betekent dat de ingebakken video-decoder ondersteuning biedt voor H.265 (HEVC) en dat zowel H.265 als H.264 ook in Ultra HD resolutie verwerkt kunnen worden. De H.264 video encoder is verder ook versneld. Ondersteuning voor TrueAudio is ook aanwezig, maar zoals we al schreven in onze Radeon R7/R9 300-serie review, besteedt AMD daar weinig aandacht meer aan.

De display controllers zijn identiek aan die van Tonga. Dat betekent dat er ondersteuning is voor maximaal zes monitoren. Het combineren van drie Ultra HD-schermen, die inwendig elk worden aangestuurd als 2x Full HD, is uiteraard ook prima mogelijk. De display controller biedt ondersteuning voor DisplayPort 1.2 en HDMI 1.4. Dat laatste is een tegenvaller: door het ontbreken van HDMI 2.0 is het niet mogelijk om een PC met Fury X kaart op een Ultra HD televisie aan te sluiten met 60Hz weergave. Anno 2015 is dat eigenlijk een onbegrijpelijke keuze, die betekent dat wie van plan was om met de Fury X een huiskamer 4K game-PC te bouwen, van een koude kermis thuiskomt. Voor wie gebruik maakt van monitoren is er natuurlijk geen probleem, aangezien in de PC wereld juist DisplayPort is ingeburgerd voor Ultra HD-schermen.

Het ontbreken van HDMI 2.0 betekent ook dat de kaart HDCP 2.2 moet missen. Dat betekent vermoedelijk dat het onmogelijk wordt om toekomstige Blu-ray 4K discs af te spelen, al is ook nog niet duidelijk hoe dat op Nvidia kaarten precies zal werken. Vermoedelijk zal 99% van de aspirant kopers van de Fury X hier niet echt mee kunnen zitten.

Ten slotte heeft Fiji dezelfde XDMA Crossfire-engine als Hawaii en Tonga aan boord. Ofwel: Crossfire is mogelijk en je hebt er geen speciale kabels of bruggen meer voor nodig.

AMD Radeon R9 Fury X
De HDMI uitgang van de Fury X werkt nog via HDMI 1.4. Voor de rest is de GPU helemaal van deze tijd.

High Bandwith Memory: snel, maar beperkt tot 4GB

De AMD Radeon R9 Fury X is de eerste videokaart die gebruik maakt van High Bandwidth Memory, een nieuwe technologie die we een paar dagen geleden in een uitgebreid achtergrondartikel al uitvoerig uit de doeken deden. Om niet in herhaling te vallen, nodigen we je uit om dat artikel alsnog te lezen als je dat nog niet gedaan hebt.

De Fiji chip is op de zogenaamde interposer voorzien van een viertal HBM 1.0 stacks, zoals een HBM-chip in jargon heet. Elk van deze stacks staat via een 1024-bit bus in verbinding met de GPU, zodat je dus mag concluderen dat de GPU in totaal een 4096-bit geheugenbus heeft.

De HBM 1.0 stacks werken op 500 MHz DDR-snelheid en kunnen dus 1 Gigabit/s doorvoersnelheid per pin verwerken. De totale geheugenbandbreedte komt zodoende op 4096 gigabit/s, ofwel 512 GB/s. Om dat in perspectief te zetten: 384-bit GDDR5 op 1750 MHz, zoals aanwezig op de GTX 980 Ti, biedt 336 GB/s;  512-bit GDDR5 op 1500 MHz als op de R9 390X komt neer op 384 GB/s. In beide gevallen biedt de combinatie van Fiji met HBM dus een significante prestatiewinst.

Bij HBM is het echter niet alleen de bandbreedte die hoger is dan bij GDDR5, vooral ook de latency, ofwel de wachttijd tussen een verzoek om data uit het geheugen te halen en het moment dat die data daadwerkelijk op de geheugenbus beschikbaar komt, zou naar verluidt veel lager moeten zijn. Over hoeveel lager die latency in de praktijk is vergeleken met GDDR5 kon AMD ons geen getallen geven; we konden het ook zelf nog niet achterhalen of meten.

AMD Radeon R9 Fury X
De Fiji-chip met daarnaast de vier HBM-chips

Hét discussiepunt bij de Fury X is natuurlijk de hoeveelheid geheugen: met ondersteuning voor vier HBM-stacks en een beperking van 1 GB per stack bij HBM 1.0 is de Fury X de facto beperkt tot 4 GB geheugen. Dat terwijl concurrent GeForce GTX 980 Ti voorzien is van 6 GB en AMD zélf nota bene haar lager gepositioneerde Radeon R9 390 en 390X kaarten van 8 GB voorziet. Een terecht veel gestelde vraag is dus: is 4 GB genoeg als je nu een videokaart koopt?

AMD zélf zegt - uiteraard - dat 4GB voldoende is. De redenering tijdens de officiële persintroductie getuigde echter niet bepaald van veel respect voor het kennisniveau van de gemiddelde IT-journalist. AMD claimt dat de Fury X prima af kan met 4 GB, ook bij toekomstige games, juist omdat het geheugen zo snel is. Het idee dat je een gebrek aan hoeveelheid geheugen kunt compenseren door sneller geheugen is simpelweg absurd. Ga maar na: als een game meer dan 4GB aan assets (textures, shader code, etc.) nodig heeft, zal de rest van de data via de PCI-Express bus opgehaald moeten worden uit het normale RAM-geheugen van de PC. De snelheid van PCI-Express 3.0 x16 is 16 GB/s, een ordegrootte langzamer dan de 300+ GB/s van GDDR5 of 500+ GB/s van HBM. Dan hebben we het nog niet gehad over de véél hogere latency. Nee, als een game écht meer dan 4GB nodig hebt, zit je met een Fury X niet goed, HBM of niet.

De vraag is echter of dat in de lijn der verwachting ligt. En daar moeten we zeggen dat AMD's claim dat 4GB voor de komende jaren voldoende is, vermoedelijk correct is. Toen we begin dit jaar de 8GB versie van de Sapphire Radeon R9 290X testten, moesten we extreem ons best doen om überhaupt een scenario te vinden met een significant verschil: Watch Dogs met een extra hi-res texture pack, in Ultra HD en in een open world scene, waar we met een motor op zo hoog mogelijke snelheid doorheen crossten. Dan nog was het absolute prestatieniveau in deze situatie zó laag, dat twee keer zo snel als onspeelbaar nog altijd onspeelbaar is, ook met een kaart met het prestatieniveau van een 980 Ti of Fury X. 

Laat je ook niet van de wijs brengen door de verschillende "Hoeveel VRAM gebruiken games"-artikelen die de laatste tijd door verschillende collegae wereldwijd worden gepubliceerd. Het is inderdaad relatief eenvoudig om game/settings-combinaties te vinden die op een GTX 980 Ti meer dan 4GB geheugen gebruiken. Daarmee is echter niet gezegd dat dat geheugen ook nuttig wordt gebruikt. Veel game-engines zijn namelijk zo ontwikkeld dat ze zo opportunistisch mogelijk game data cachen in het geheugen van de videokaart, maar dat er tot 6 GB aan data gecached wordt, betekent niet dat al die data ook daadwerkelijk gebruikt wordt. Vergelijk het met de Linux-kernel die er op gemaakt is om beschikbaar geheugen ook altijd zo veel mogelijk als filesystem cache te gebruiken. Als je op een PC met 64 GB geheugen ziet dat Linux al je geheugen gebruikt, is dat geen bewijs dat je systeem met 32 GB minder snel zou zijn. Zo ook met de videokaart: bij de GTX 980 Ti zijn voldoende situaties waar meer dan 4 GB in gebruik kan zijn, maar dat is geen bewijs dat met 4 GB of minder de game langzamer zou zijn.

Dat gezegd hebbende blijft het natuurlijk zo dat niemand een glazen bol heeft waarin hij of zij kan zien hoe de games van de komende drie jaar gaan presteren. Hoewel krom door AMD uitgelegd, is het zeker verdedigbaar dat de games van de toekomst meer profijt hebben van sneller (bandwidth + latency) dan van meer geheugen. De stelling dat games over twee à drie jaar juist meer profijt hebben van meer geheugen is net zo goed te verdedigen. Vooruitlopend op de conclusie maakt dit dat de keuze tussen de Fury X en een 980 Ti bijna neer komt op zelf een "gok" nemen naar hoe games zich de komende jaren gaan ontwikkelen.

AMD Radeon R9 Fury X
De HBM stacks die direct naast de GPU geplaatst worden maken het mogelijk om de high-end videokaart op een relatief kleine PCB te plaatsen.

De Fury X kaart met waterkoeling

Terug naar de kaart zelf. Zoals ook al in ons achtergrondartikel over High Bandwidth Memory geschreven, is één van de voordelen van het nieuwe type geheugen dat er een veel kleinere PCB nodig is om GPU plus geheugen te huisvesten. Het maakt dat de Fury X videokaart slechts 19,5 centimeter lang is, ongekend klein voor een high-end videokaart. Dat maakt ook dat de Fury X veel makkelijker dan een 980 Ti te plaatsen is in een compacte (Mini ITX) game PC, mits je natuurlijk een behuizing hebt waar de relatief dikke 120mm radiator in geplaatst kan worden.

AMD Radeon R9 Fury X
De Fury X is is standaard voorzien van waterkoeling

De Fury X kaart biedt drie DisplayPort 1.2 aansluitingen, waar je dankzij DisplayPort MST-hubs tot maximaal zes schermen aan kunt hangen. Daarnaast is er éénmaal HDMI, zoals twee pagina's terug geschreven geschikt voor versie 1.4. Crossfire connectors heeft de kaart niet, want net als andere recente Radeon-kaarten maakt de Fury X gebruik van de XDMA Crossfire-methode waarbij je geen extra connectors nodig hebt. Achterop vinden we een tweetal 8-pin PEG-connectors. Met de PCI-Express bus meegerekend zou de kaart zo tot 375W vermogen kunnen betrekken, terwijl AMD aangeeft dat de "typical board power" 275W bedraagt.

De Fiji GPU op de kaart werkt op 1050 MHz en maakt uiteraard gebruik van AMD's PowerTune functionaliteit, waarbij hij wordt teruggeklokt als hij niet vol belast wordt. Het HBM geheugen werkt zoals geschreven op 500 MHz.

De kaart is dus standaard voorzien van waterkoeling en zal in eerste instantie door AMD's partners alleen als "compleet product", ofwel als referentiekaart inclusief bijbehorende waterkoeler in een eigen doos verkocht worden. De kaart zelf heeft dus geen koeler en is, naar onze smaak althans, strak afgewerkt met een soort zachte rubber coating. De waterkoeling is voor zover wij weten ontwikkeld door Asetek. De pomp zit op de kaart zelf en is - zoals we verderop zullen zien - helaas duidelijk hoorbaar. Op de radiator heeft AMD een vrij stille ventilator geplaatst, die overigens wel altijd draait, ook als de kaart idle is.

Volgens AMD is de waterkoeler geschikt om tot 500W belasting te koelen. In de Catalyst Control Center zien we dat de kaart standaard is ingesteld om de GPU op 75 °C te houden. Op het moment van schrijven zijn er nog geen tools die de temperatuur van de GPU kunnen monitoren om dit te controleren.

De kaart biedt verder twee identieke BIOS'en waartussen je via een schakelaar kunt kiezen. Slechts één van beide is flashbaar, zodat je altijd een veilige, werkende BIOS hebt om op terug te vallen.

Een leuke extra feature is dat er naast de PEG-stroomconnectors een achttal rode LED's zijn geplaatst die oplichten naarmate de kaart meer belast wordt. Voor wie dat niet wil kunnen die LED's echter ook uitgeschakeld worden.

AMD Radeon R9 Fury X
LED's achterop tonen de belasting van de Fury X kaart

Hieronder vind je extra foto's van de Fury X kaart, klik voor een vergroting:

In onderstaande tabel vind je de specificaties van de Fury X nog eens overzichtelijk terug:

Algemeen
 
MerkAMD
ProductnaamRadeon R9 Fury X
ProductcodeRADEON R9 FURY X
DetailsProductinfo
Chip
CodenaamFiji
ArchitectuurGCN 1.2
Rekenkernen4096 cores
Kloksnelheid1050 MHz
Transistors8900 mln
Die-grootte596 mm²
Productieprocedé28 nm
Geheugen
Geheugengrootte4096 MB
Type geheugenHBM1
Geheugensnelheid500 MHz
Geheugencontroller4096 bit
Bandbreedte512 GB/s
Functionaliteit
DirectX versieDirectX 12 fl 12_0
SLI compatible
Crossfire compatible
Geïntegreerde H.264 videodecoder
Geïntegreerde H.265 videodecoder
Geïntegreerde VC-1 videodecoder
Kaartontwerp
InterfacePCI-Express 3.0 x16
Extra power-connector
Type power connector(s)2x PEG8
Total board power275 W
Lengte19.5 cm

Extra AMD-features

Uiteraard is de Radeon Fury X geschikt voor de FreeSync technologie die het mogelijk maakt om de verversingsfrequentie van monitoren te synchroniseren met de videokaart. Klik hier voor onze AMD FreeSync review met alle uitleg over deze technologie. Door het grote aantal FreeSync-compatible monitoren dat nu al op de markt is en is aangekondigd, vinden we deze technologie meer en meer een écht voordeel van AMD GPU's. Juist het feit dat we spoedig ook de de eerste Ultra HD FreeSync-schermen mogen verwachten is interessant voor Fury X-eigenaren. Als je immers een game hebt waar de Fury X in Ultra HD met hoogste settings geen 60 fps of iets wat daarop lijkt kan genereren, kan FreeSync bij een lagere framerate alsnog zorgen voor een soepele game-ervaring.

AMD TrueAudio wordt ook ondersteund, al lijkt die technologie een stille dood aan het sterven.

In de drivers van de Fury X vinden we verder, net als bij de nieuwe 300-serie kaarten overigens, een optie om een framerate target in te stellen. Zo kun je bijvoorbeeld instellen dat 90 fps voldoende is. Speel je een game waarbij de Fury X snel genoeg is om veel meer fps te berekenen, dan wordt de GPU teruggeklokt om vlak boven die ingestelde grens te blijven. Het resultaat: even soepele gameplay en een veel lager stroomverbruik. Nvidia heeft een dergelijke technologie overigens al langer. We zullen er in de toekomst een keer uitgebreid op terug komen.

Ten slotte blaast AMD hoog van de toren dat de Fury X mede dankzij de Liquid VR "technologie" zeer geschikt voor VR-headsets. Het toonde de nieuwe kaart tijdens de introductie dan ook uitvoerig in combinatie met de nieuwste versie van de Oculus Rift headset. Om eerlijk te zijn: zowel AMD als Nvidia roepen om het hardst dat hun videokaarten het meest geschikt zijn voor VR - en we het zullen het pas echt weten zodra VR-headsets als de Oculus Rift daadwerkelijk op de markt komen en de eerste daarvoor geoptimaliseerde games daadwerkelijk gelanceerd worden. Wat Liquid VR precies is, blijft vooralsnog ook onduidelijk. Op haar website spreekt AMD zelf ook over een "initiative", wat vermoedelijk maar aangeeft dat Liquid VR bovenal een marketing term is waarmee AMD graag springt op de bandwagon die VR-heet...


Volgens AMD is de Fury X de ideale videokaart voor VR. Nvidia claimt natuurlijk het tegenovergestelde.

Hoe test Hardware.Info videokaarten

Wij testen videokaarten op een op Intel Haswell-E processor gebaseerd testplatform. De exacte specificaties van het testplatform zijn als volgt: 

Op dit moment testen we 3DMark Fire Strike aangevuld met een twaalftal games. Dit is de volledige lijst aan games die we testen.

  • 3DMark Fire Strike
  • Alien: Isolation
  • Battlefield 4
  • Civilization: Beyond Earth
  • Far Cry 4
  • Metro Last Light
  • Watch Dogs
  • GRID Autosport
  • Evolve
  • Total War: Atilia
  • GTA V
  • The Witcher 3
  • Project CARS

Al deze games draaien we in een viertal of zestal resoluties / instellingen:

  • 1920x1080 (Full HD) Medium / Normal
  • 1920x1080 (Full HD) Highest / Ultra + 4x MSAA
  • 2560x1440 (WQHD) Medium / Normal
  • 2560x1440 (WQHD) Highest / Ultra
  • 3840x2160 (Ultra HD) Medium / Normal
  • 3840x2160 (Ultra HD) Highest / Ultra + 4x MSAA

Let wel: de WQHD benchmarks hebben we enkel van games die we als laatste aan onze set benchmarks hebben toegevoegd. 

Naast de gemiddelde framerate (fps) meten we voor een aantal games ook de frametimes getest en tonen we het 99ste percentiel daarvan. Klik hier voor ons artikel over deze methodiek waarin we uitleggen waarom deze getallen nog veel belangrijker zijn dan de fps-waardes. 

Op basis van de scores van de geteste games berekenen we de Hardware.Info GPU-prestatiescore, die in feite voor elk van de resoluties/settings het gemiddelde van de gemeten framerates is. Deze GPU-prestatiescore geeft met één blik de beste indruk van de prestaties van videokaarten.

Voor de AMD Radeon R9 Fury X hebben we net als voor de Radeon R7/R9 300-serie kaarten een beta-versie van Catalyst met versienummer 15.15 gebruikt. Oudere kaarten hebben we niet opnieuw getest voor deze review, hou daar rekening mee als je de grafieken bekijkt. Uiteraard zijn zijn de laatste aan onze benchmarkset toegevoegde games (specifiek Evolve, Total War: Atilia, GTA V, The Witcher 3 en Project CARS) allen recentelijk getest en dus met courante drivers voor bestaande kaarten. Benchmarks van Alien: Isolation, Battlefield 4, Civilization: Beyond Earth, Far Cry 4 en Metro Last Light zijn in sommige gevallen van eind vorig jaar. Overigens is dit niet enkel vanwege tijdsgebrek: de nieuwe driver die we van AMD ontvingen werkt ook simpelweg nog niet met de 200-serie kaarten. 

In alle grafieken is de Radeon R9 Fury X te herkennen aan blauwe balkjes. Bestaande AMD kaarten zijn rood, bestaande Nvidia kaarten zijn groen.


Ons nieuwe testsysteem gebaseerd op Intel Core i7 5960X en MSI X99S Gaming 9 AC.

Benchmarks: 3DMark Fire Strike (Extreme / Ultra)

In 3DMark Fire Strike komt de Fury X op 14.098 punten, tegen 15.141 voor de GTX 980 Ti. In de "zwaardere" versie van Fire Strike neemt het verschil af: in de Ultra-versie, die in Ultra HD resolutie wordt gedraaid, komt de Fury X op 3.991 punten, tegen 4.089 voor de 980 Ti. 

Benchmarks: Alien: Isolation

In Alien: Isolation zien we dat de AMD Fury X in Full HD met medium settings ruim onder het niveau van de GTX 980 Ti presteert. Voeren we de resolutie en beeldkwaliteit op, dan wordt het verschil steeds kleiner om bij Ultra HD met Ultra-settings uiteindelijk nipt de eerste plek te betreden. Met 55,8 fps is de game in Ultra HD met hoogste settings prima speelbaar.

Benchmarks: Battlefield 4

Battlefield 4 draaien we normaal gesproken voor AMD GPU's met Mantle en voor Nvidia GPU's met DirectX. Met de nieuwe kaarten en de daarvoor aan ons geleverde driver liepen we echter tegen het probleem aan dat de prestaties met Mantle een stuk lager zijn dan met DirectX. Vandaar dat we voor de nieuwe kaarten de benchmark ook in DirectX modus hebben gedraaid. 

In Ultra HD met Ultra settings komen we op 35,6 fps, nipt onder het niveau van de GTX 980 Ti. Kijken we naar de 99e percentiel frametijd, dan blijkt AMD echter nipt beter te presteren. In Ultra HD met medium settings blijft de kaart net ons het niveau van de 980 Ti, maar is de game met beide opties even soepel speelbaar. 

Frametimes

Benchmarks: Civilization: Beyond Earth

Ook Civilization: Beyond Earth draaiden we tot nu toe met Mantle op AMD-kaarten, maar dat werkte met de nieuwe driver voor de 300-serie in z'n geheel niet. Vandaar dat we ook deze benchmark nu in DirectX modus hebben gedraaid op de nieuwe kaarten. 

Opnieuw zien we dat de Nvidia GeForce GTX 980 Ti ruim wint in Full HD, maar dat de AMD Fury X nipt de voorsprong pakt in Ultra HD. 

Benchmarks: Far Cry 4

In Far Cry 4 in Full HD blijkt de Fury X niet sneller dan een 390X. Anders is dat in Ultra HD, waar de kaart de 980 Ti voorbij gaat en zeker bij Ultra-settings de hoogste score neer zet. Kijken we echter naar het 99e percentiel frametimes, dan mogen we concluderen dat AMD en Nvidia even snel zijn.

Frametimes

Benchmarks: GRID Autosport

Bij GRID Autosport is er in Full HD een aanzienlijk prestatieverschil tussen de 980 Ti en de Fury X. Dat verschil wordt ingelopen bij de hogere resolutie/settings. Bij Ultra HD met Ultra-settings is Nvidia nog altijd de snelste, maar is de game ook op de Fury X prima speelbaar.

Benchmarks: Metro Last Light

In Metro Last Light zien zien we weer een vergelijkbaar resultaat: een achterstand bij Full HD Medium die langzaam wordt ingelopen en bij Ultra HD met hoogste settings omslaat in een nipte voorsprong.

Benchmarks: Watch Dogs

Watch Dogs blijft een game die op Nvidia kaarten beter presteert dan AMD kaarten en waar de Fury X geen zeer grote prestatiewinst ten opzichte van de 390X kan neerzetten. Ultra HD met normal settings is prima speelbaar, net als bij Nvidia high-end kaarten, met Ultra settings helaas niet. 

Frametimes

Benchmarks: Evolve

In Evolve blinkt de Fury X uit. Bij Full HD met hoogste settings wordt het prestatieniveau van de GTX 980 Ti al geëvenaard, in WQHD en Ultra HD gaat AMD er voorbij. Kijken we naar het 99e percentiel van de frametimes, dan blijken AMD en Nvidia in Ultra HD vrijwel identiek te presteren. 

Frametimes

Benchmarks: Total War: Atilla

In Total War: Atilla weet de Fury X het prestatieniveau van de 980 Ti niet te evenaren, maar komt AMD op z'n minst wel in de buurt met de nieuwe kaart.

Benchmarks: GTA V

GTA V is in Full HD met medium settings zoals bekend enorm CPU-gelimiteerd en zien we zoals al eerder aangetoond dat de AMD drivers duidelijk meer CPU-overhead hebben dan die van Nvidia. Je koopt een Fury X echter voor hogere resoluties en settings natuurlijk. Het verschil met Nvidia wordt kleiner, maar de Fury X blijft ruim onder het prestatieniveau van de 980 Ti presteren. Kijken we naar het 99ste percentiel frametimes in Ultra HD met normal settings dan is het verschil echter minimaal. Ultra HD op hoogste settings loopt niet bepaald lekker, daar moet men wellicht nog wat extra optimalisaties doorvoeren.

Frametimes

Benchmarks: Project Cars

Project Cars is een game waarvan we recent nog moesten concluderen dat Nvidia kaarten overwegend veel beter presteren dan AMD kaarten. We zien dat de GTX 980 Ti onverslaanbaar is, al is het verschil met de Fury X in de hoogste resoluties beperkt.

Benchmarks: The Witcher 3

In onderstaande grafieken vind je ten slotte de testresultaten uit The Witcher 3, een game die we zeer recent aan onze set hebben toegevoegd. In Ultra HD resolutie zijn de GTX 980 Ti en de Fury X vrijwel even snel. 

Frametimes

Benchmarks: Hardware.Info GPU prestatiescore Q2 2015

De Hardware.Info GPU prestatiescore Q2 2015 is het gemiddelde van de behaalde framerates in tien van de getoonde games (Project Cars en The Witcher zijn nog geen onderdeel van de Q2 scores). Hierdoor krijgen we een goed beeld van de gemiddelde prestaties.

In 1080p Medium komen we uit op een gemiddelde van 151,1 fps, slechts beperkt meer dan de Radeon R9 390X en niet eens op het niveau van de GTX 980, laat staan dat van de 980 Ti. We hebben het op de vorige pagina's gezien, de kaart gaat pas meespelen in het topsegment bij hogere resoluties/settings. 

In 1080p met Ultra settings gaat de kaart de GeForce GTX 980 Ti voorbij. De Fury X zit hier zo'n 15% onder het niveau van de 980 Ti.

In Ultra HD met Medium settings loopt AMD flink in. We komen op een gemiddelde van 82,5 fps, nog geen 8% langzamer dan de GeForce GTX 980 Ti.

In Ultra HD met hoogste settings blijken de Fury X en de GTX 980 Ti exact even snel: voor beide kaarten komen we bij de 10 games op een gemiddelde van 41,7 fps.

Testresultaten: Stroomverbruik

Voor het idle verbruik bepalen we het gemiddelde verbruik van vijf minuten idle tijd op de Windows desktop.

Voor de load test draaien we de Metro Last Light benchmark in 1920x1080 met Very High settings en bepalen we het gemiddelde verbruik gedurende de gehele benchmark. Let dus op: in de grafieken vind je het verbruik van het complete testsysteem, inclusief CPU, moederbord, enz.

Idle is de Fury X wat minder zuinig dat andere kaarten. Dat is op zich niet gek: de GPU is vermoedelijk niet de boosdoener, maar eerder de pomp en de ventilator van de waterkoeler die moeten blijven draaien. 

De load-grafiek toont ons dat in Metro Last Light de Fury X zo'n 10 watt meer verbruikt dat de GTX 980 Ti. Misschien nog wel opvallender is dat het stroomverbruik veel lager is dan bij de Radeon R9 390X. Aangezien de GPU-architectuur identiek is, maar de Fiji wel meer cores heeft, mag je concluderen dat de Fiji chip zelf meer stroom moet verbruiken dan de Hawaii chip, maar dat dit geheel wordt gecompenseerd - steker nog: méér dan dat - door het zuinige HBM geheugen!

Bij de Alien: Isolation test is de Fury X zelfs wat zuiniger dan de 980 Ti, terwijl deze bij Far Cry 4 juist wat meer stroom verbruikt.

Testresultaten: Geluidsproductie en temperatuur

De geluidsproductie van videokaarten meten we op een afstand van 10 centimeter binnen een geluidsdichte box, waarbij we de meter schuin op de videokaart richten. In het geval van de Fury X hebben we kaart en waterkoeler zo gepositioneerd dat beide zo'n 10 centimeter van de microfoon stonden, om zo het geluid van zowel de pomp als de ventilator meer te nemen in de meting.

De load-test is een gemiddelde van 1 minuut gemeten tijdens een verlengde 3DMark Fire Strike Extreme run, nadat de kaart daarvoor een kleine 10 minuten in dezelfde benchmark is opgewarmd. 

Idle meten we 36,4 dB(A) en dat is geheel in lijn met andere high-end videokaarten. Hierbij moet echter wel gezegd dat de meeste custom GTX 980 Ti kaarten koelers hebben die idle helemaal stil staan en dus geen geluid produceren (zie bijvoorbeeld hier de resultaten in de review van de EVGA GTX 980 Ti SC+). Onder load meten we 38,7 dB(A) en dat is aanzienlijk minder dan de GeForce GTX 980 Ti met referentiekoeler. Custom versies als de genoemde EVGA zijn stiller, maar we hebben nog geen 980 Ti getest die ook maar in de buurt komt van het lage geluidsniveau van de Fury X. 

De temperatuur ten slotte: zoals we al schreven zijn er op dit moment geen tools die de temperatuur van de Fiji-GPU kunnen uitlezen, dus onze gebruikelijke test kunnen we niet doen. In het Catalyst Control Center zien we echter dat de standaard instelling van de waterkoeler is om de GPU op 75 graden te houden en we hebben geen reden om aan te nemen dat dat niet gebeurt. We meten onder volle load dat de radiatior maximaal zo'n 50 graden wordt, waardoor het aannemelijk is dat de GPU 75 graden is. Dat maakt de chip aanzienlijk koeler dan referentie Nvidia-kaarten.

Overklokresultaten

Op het moment van schrijven is het enkel mogelijk om de Radeon R9 Fury X te overklokken via de Catalyst Control Center. Daarin is de klokfrequenties voor het GPU in te stellen, naast de zogenaamde power limit. Er is geen mogelijkheid om het GPU-voltage te verhogen en het is ons niet duidelijk of dat puur een beperking is van de CCC software of dat de kaart geen voltage tweaking toestaat. Het aanpassen van de geheugenklokfrequentie is officieel niet mogelijk, maar wellicht als gevolg van een bug in de drivers, zagen wij om de zoveel reboots ineens wél een slider voor geheugenklokfrequentie in CCC. Het maakt dat we ook het geheugen hoger konden klokken.

Wij stelden voor onze overklokpoging de power limit maximaal in, ofwel +50%. Zoals gebruikelijk voor onze OC-tests stelden we de 5960X CPU ook nog wat hoger in, op 4,5 GHz.

Uiteindelijk bleek het overklokpotentieel beperkt. We konden de GPU-klokfrequentie met 95 MHz verhogen tot 1145 MHz. De geheugenklokfrequentie konden we met 100 MHz verhogen. Dat lijkt weinig, maar is wel 20% bovenop de standaard klokfrequentie.

Al met al behaalden we zo een 3DMark Fire Strike score van 16963 punten, tegenover 14098 op stock snelheid.

AMD Radeon R9 Fury X

Om het wel even in perspectief te zetten: met de Gigabyte uitvoering van de GeForce GTX 980 Ti kregen we na overklokken een score van 19359 punten

GTX 980 Ti of Fury X: wat is de beste keuze?

Tot zo ver onze testresultaten van de AMD Radeon R9 Fury X. Blijft natuurlijk de vraag der vragen over: welke kaart moet je hebben als je op zoek bent naar een high-end videokaart voor gamen op Ultra HD resolutie? Laten we de twee kemphanen eens op een aantal punten vergelijken:

Prijs: Daar kunnen we heel kort over zijn. Beide kaarten hebben een adviesprijs van $ 649. Uiteraard zullen er wat variaties zijn zodra de partners hun modellen op de markt hebben, maar laten we er vooralsnog maar vanuit gaan dat de Fury X en GTX 980 Ti even goedkoop duur zijn. Gelijkspel. 

Prestaties: In Full HD is de GTX 980 Ti gemiddeld duidelijk sneller dan de Fury X. Maar daar zijn de kaarten uiteraard niet voor bedoelt. Als we resolutie en settings opvoeren, wordt het verschil kleiner, om in de Ultra HD met hoogste settings uit te komen op een gelijk gemiddeld prestatieniveau voor GTX 980 Ti en de Fury X. We mogen dus concluderen dat voor Ultra HD - daar zijn deze kaarten voor bedoeld - de prestaties geen factor bij de keuze zijn. Gelijkspel. Hier moeten we wel één opmerking bij maken: de meeste 980 Ti's die verkocht worden zijn overklokte modellen, en dus een paar procent sneller dan het referentiemodel.

Compatibiliteit met API's: Beide kaarten zijn geschikt voor DirectX 12, maar AMD doet feature level 12_0 en Nvidia doet feature level 12_1. Gaat dat in de toekomst een verschil maken? Dat is lastig te zeggen, maar op basis van gelijksoortige situaties in het verleden met DirectX 10.1 en 11.1 (waarvoor we amper tot geen specifieke games hebben gezien) zou je verwachten van niet. Resultaten uit het verleden bieden echter geen garantie voor de toekomst en uiteraard geldt: baat het niet, dan schaadt het niet. Aan de andere kant doet AMD weer de toekomstige extra feature level 11_2 en valt de AMD GPU binnen resource binding restrictieniveau Tier 3 en Nvidia binnen het lagere Tier 2. Geen van beide heeft dus een 100% volledig DirectX 12 implementatie en het is op dit moment onmogelijk welk van beide architecturen het best is uitgerust voor de DX12 games van de toekomst. We houden het maar op een Onbeslist.

Geheugen: Hier zal de discussie de komende tijd hevig over gaan. AMD heeft sneller geheugen, zowel qua bandbreedte als qua latency. Nvidia heeft meer geheugen, 6GB in plaats van 4GB. Op dit moment kunnen we geen situatie vinden waar meer dan 4GB een significante prestatiewinst oplevert in een situatie waar het absolute framerate niveau speelbaar is. Of toekomstige games meer profijt hebben van meer of van sneller geheugen valt niet te zeggen. Het feit dat AMD op het prestatieniveau van de GTX 980 Ti inloopt naarmate je de resolutie en settings verhoogt, doet vermoeden dat de kaart bij complexere games in de toekomst de winst pakt. Maar dat Nvidia dan kan winnen wegens een toename in de omvvang van game-assets is even goed verdedigbaar. Het komt er op neer in welk van beide verhalen jij het meest gelooft. Onbeslist.

Form factor: De Fury X is een veel kleinere kaart dan de GTX 980 Ti. Voor wie de kaart in een dikke desktop-PC stopt, zal het worst zijn. Er zijn echter de nodige Mini ITX-kastjes waar je wél een Fury X in kwijt kunt en geen GTX 980 Ti. Voordeel van de waterkoeling constructie is natuurlijk ook dat warme lucht direct de kast wordt uitgeblazen, wat je mist bij custom 980 Ti kaarten en juist bij kleine behuizingen van belang is.Tegelijkertijd is het natuurlijk ook zo dat er heel wat compacte kastjes zijn waar wel een videokaart van volledige lengte in past, maar geen waterkoeler. Desalniettemin ben je met AMD gewoon flexibeler en dus winst voor AMD.

Geschiktheid voor de woonkamer: wie een game-PC wil samenstellen om in de woonkamer te gamen op een Ultra HD TV is bij AMD aan het verkeerde adres. De Fury X mist HDMI 2.0 en aangezien er op twee oude Panasonic exemplaren na geen enkele Ultra HD TV is met DisplayPort, ben je bij het aansluiten op een TV beperkt tot 30 fps. Dat maakt dat we op dit vlak Nvidia de punten moeten geven.

Stroomverbruik, geluid en koeling: Bij onze stroomverbruiktests blijkt Nvidia in twee sitaties wat zuiniger en AMD in een andere situatie. De verschillen zijn beperkt en geen reden om een bepaalde keuze op te baseren. Het HBM geheugen weet de relatieve onzuinigheid van AMD's GPU-architectuur ruim te compenseren. Qua geluidsproductie is AMD aan de winnende hand: onder load is de watergekoelde Fury X duidelijk stiller dan de GTX 980 Ti en ook stiller dan alle tot nu toe door ons getest custom GTX 980 Ti's. Het feit dat de GPU-temperatuur volgens AMD rond de 75 graden worden gehouden - en met een maximaal gemeten temperatuur van circa 50 graden bij de radiator hebben we geen reden om daar aan te twijfelen - betekent dat de kaart ook koeler blijft dan GTX 980 Ti's. AMD pakt hier de punten.

Featureset: Nvidia heeft G-Sync, AMD heeft FreeSync. Nvidia heeft DSR, AMD heeft VSR. Nvidia claimt dat hun videokaarten het meest geschikt zijn voor VR, AMD doet dat ook. Zo kunnen we nog wel een heel rijtje zaken opnoemen die voor beide geldt. Gelijkspel moeten we er maar van maken, al kunnen voor jou natuurlijk specifieke zaken de doorslag geven.

Overklokken: We krijgen een aardige overklok uit de AMD kaart, maar ook niet veel meer dan dat. AMD geeft zelf ook aan dat HBM op dit moment nog niet bepaald geschikt is voor overklokken. Van de eerste GTX 980 Ti kaarten van Nvidia partners weten we dat flinke prestatiewinsten zijn te behalen. Hier dus een voorzichtige winst voor Nvidia.

Al met al dus vijf keer onbeslist, twee keer winst voor AMD en twee keer winst voor Nvidia. Het maakt dat de keuze voor één van beide kaarten primair gebaseerd moet worden op persoonlijk voorkeuren.

Conclusie

Met de Radeon R9 Fury X introduceert AMD een bijzondere videokaart, waarvan het nieuwe High Bandwidth Memory duidelijk de meest in het oog springende feature is. Met deze kaart speelt AMD weer een rol van betekenis in het high-end segment en heeft het een interessant alternatief voor de GeForce GTX 980 Ti. Voor gamers die willen gaan spelen op Ultra HD resolutie - ofwel daadwerkelijk op een 4K-scherm ofwel virtueel dankzij technieken als DSR/VSR - is een kaart van het kaliber als deze Fury X en de GTX 980 Ti ondanks de relatief hoge prijs geen overbodige luxe.

Op de vorige pagina hebben we de voor- en nadelen van zowel de Fury X als die van de GTX 980 Ti op een rij gezet. We mogen conluderen dat beide kaarten in de resolutie die er toe doet ruwweg even snel zijn, een identiek prijskaartje hebben, beide een USP hebben qua geheugen (de een sneller, de andere meer), beide een even waardevolle set extra features hebben en zelfs de grootste DirectX experts op dit moment nog niet kunnen zeggen of de feature level 12_1 van Nvidia of de Tier 3 van AMD zwaarder weegt. Nvidia wint voor wat betreft geschiktheid voor gebruik in de woonkamer dankzij HDMI 2.0 en overklokpotentieel. AMD scoort net wat meer punten qua form factor, geluidsproductie en temperatuur.

Het maakt dat het onmogelijk is om tussen beide kaarten een onbetwiste winnaar uit te roepen. Dat is op z'n minst jammer voor de AMD adepten die de afgelopen generatie toch gewend zijn geraakt aan het feit dat een nieuwe AMD high-end kaart op z'n minst tijdelijk de koppositie in benchmarkgrafieken inneemt. Maar het is wat het is.

De keuze zal dus voornamelijk van persoonlijke voorkeuren afhangen. Vind je het feit dat de kaart lekker klein en koel is dankzij de waterkoeler van belang, of kies je voor HDMI 2.0 bij de GTX 980 Ti? Verwacht je dat je volgende monitor een FreeSync model is, of vind je DirectX 12_1 ondersteuning toch belangrijker? En misschien wel de lastigste en feitelijk niet te beantwoorden vraag: denk je dat toekomstige games juist primair profiteren van sneller of van meer geheugen? Beide claims zijn goed verdedigbaar en ook wij durven/kunnen in die discussie geen kamp kiezen.

Geen duidelijke winnaar dus, maar laten we op z'n minst met z'n allen blij zijn dat er in het high-end GPU-segment ten minste een keuze is!

Klik hier voor een overzicht van alle AMD Radeon R9 Fury X kaarten in onze prijsvergelijker.

AMD Radeon R9 Fury X


Besproken product

Vergelijk  

Product

Prijs

AMD Radeon R9 Fury X

AMD Radeon R9 Fury X

  • Fiji
  • 4096 cores
  • 1050 MHz
  • 4096 MB
  • 4096 bit
  • DirectX 12 fl 12_0
  • PCI-Express 3.0 x16
Niet verkrijgbaar
0
*