AMD Radeon RX Vega 56 / 64 review: minder euro's, meer watts

223 reacties
Inhoudsopgave
  1. 1. Inleiding
  2. 2. Scherp geprijsd, (bijna) niet te koop
  3. 3. Referentiekaart
  4. 4. Vega 10 GPU
  5. 5. High Bandwidth Cache (of toch Memory?)
  6. 6. Display engine en mediamogelijkheden
  7. 7. Benchmarks: nieuwe testprocedure
  8. 8. Benchmarks: 3DMark Fire Strike / Timespy
  9. 9. Benchmarks: Unigine Superposition
  10. 10. Benchmarks: Ghost Recon: Wildlands (DX11)
  11. 11. Benchmarks: GTA V (DX11)
  12. 12. Benchmarks: Project Cars (DX11)
  13. 13. Benchmarks: Rainbow Six Siege (DX11)
  14. 14. Benchmarks: The Witcher 3 (DX11)
  15. 15. Benchmarks: Battlefield 1 (DX12)
  16. 16. Benchmarks: Hitman (DX12)
  17. 17. Benchmarks: Rise of the Tomb Raider (DX12)
  18. 18. Benchmarks: Total War: Warhammer (DX12)
  19. 19. Benchmarks: Doom (Vulkan)
  20. 20. Benchmarks: Hardware.Info GPU Prestatiescore 2017-2018
  21. 21. Testresultaten: Stroomverbruik
  22. 22. Testresultaten: Geluidsproductie
  23. 23. Testresultaten: AMD Radeon RX Vega voor coin mining
  24. 24. Testresultaten: Overklokken
  25. 25. Conclusie
  26. 26. Besproken producten
  27. 27. Reacties

Inleiding

Eindelijk, eindelijk is het zover: AMD's nieuwste generatie gaming videokaart op basis van de Vega-architectuur is beschikbaar - op papier althans. Voor deze review testten we zowel de Radeon RX 64 als diens iets goedkopere RX 56 familielid. De grote vraag is natuurlijk of AMD hiermee succesvol een plek kan terugveroveren in de markt voor high-end videokaarten. Het antwoord daarop, lees je in dit artikel.

Twee weken geleden publiceerden we al een uitgebreide preview van de Radeon RX Vega videokaarten, waarin we de belangrijkste eigenschappen uit de doeken deden. Voor wie die preview gemist heeft, herhalen we de belangrijkste informatie in deze review. 

Met RX Vega wil AMD terugkeren in de markt voor high-end videokaarten. Het huidige topmodel van het merk, de op de Polaris GPU gebaseerde Radeon RX 580, kost rond de 250 à 300 euro en zit qua prestaties een beetje tussen de Nvidia GeForce GTX 1060 en 1070 in. Hij moet het, in de gamingmarkt in elk geval, vooral hebben van zijn prijs/prestatieverhouding. In het luxere segment heeft Nvidia het rijk al geruime tijd voor zichzelf alleen met de GTX 1070, 1080 en 1080 Ti. 

Harware-liefhebbers hebben lang moeten wachten op concurrentie. Het is inmiddels zo’n 1,5 jaar geleden dat AMD voor het eerst een tipje van de sluier oplichtte over de Vega-generatie GPU’s. Sindsdien werd bij verschillende gelegenheden meer en meer bekend gemaakt; eind juni kwam de eerste videokaart op basis van de nieuwe GPU, de Radeon Vega Frontier Edition, in Amerika beschikbaar. Die relatief dure kaart is echter puur op professionals gericht; van gamers werd nog wat meer geduld gevraagd. 

AMD Radeon RX Vega 64
De Radeon RX Vega 64 Limited Edition met aluminium koeler

Voor die groep komen nu de RX Vega kaarten op de markt, gebaseerd op de Vega 10 GPU. In eerste instantie zijn er twee varianten. Bij de in theorie direct verkrijgbare (zie volgende pagina) Radeon RX Vega 64 zijn alle 64 compute units (en daarmee 4096 shader processors) ingeschakeld. Daarnaast volgt op 28 augustus een goedkopere Radeon RX Vega 56, waarbij 12,5% van de rekeneenheden is uitgeschakeld. Van de Radeon RX 64 brengt AMD verder zowel een luchtgekoelde als watergekoelde referentiekaart op de markt, terwijl AMD’s partners als ASUS, MSI, Gigabyte en Sapphire versies met eigen lucht- en waterkoelers zullen introduceren. AMD verwacht de eerste custom Vega kaarten aan het einde van het derde kwartaal, of uiterlijk aan het begin van het vierde kwartaal, in de winkel. Wie dus op korte termijn een Vega kaart wil, zal moeten kiezen voor één van AMD's referentiekaarten.

AMD Radeon RX Vega 64 Liquid Cooled
De speciale watergekoelde versie van de Radeon RX Vega 64

De Radeon RX Vega 64 kaarten krijgen een standaard klokfrequentie van 1247 MHz met een 1546 MHz Boost-klokfrequentie. Overigens definieert AMD de Boost-klokfrequentie tegenwoordig net als Nvidia als de "gemiddelde te verwachten klokfrequentie tijdens gaming". De maximaal te verwachten klokfrequentie is 1630 MHz.

De RX 64’s krijgen 8 GB HBM2-geheugen, verdeeld over twee stacks van elk 4 GB, waarover meer verderop in dit artikel. Het geheugen biedt een bandbreedte van 484 GB/s. Met de genoemde Boost-klokfrequentie en 4096 cores, heeft de Radeon RX Vega 64 een maximale rekenkracht van 12,66 Teraflops (bij single-precision, ofwel 32-bit instructies). Dat is meer dan het dubbele in vergelijking met de 6,17 Teraflops van de Radeon RX 580 en ook aanzienlijk meer dan de 8,6 Teraflops van de Radeon Fury X, AMD's laatste high-end videokaart, die inmiddels al geruime tijd niet meer beschikbaar is. De watergekoelde versie van de RX 64 krijgt nog iets hogere klokfrequenties.

De Radeon RX 56 heeft naast minder ingeschakelde rekeneenheden ook lagere klokfrequenties: 1156 MHz met een 1471 MHz Boost-klokfrequentie. Het geheugen op deze kaart biedt een doorvoersnelheid van 410 GB/s.

Kaart Radeon RX Vega 56 Radeon RX Vega 64 Radeon RX Vega 64
Liquid Cooled
GPU Vega 10 Vega 10 Vega 10
Compute units 56 64 64
Shader units 3584 4096 4096
Texture units 224 256 256
ROPs 64 64 64
GPU-klokfrequentie 1156 MHz 1247 MHz 1406 MHz
GPU Boost-klokfrequentie 1471 MHz 1546 MHz 1677 MHz
Maximale GPU-klokfrequentie 1590 MHz 1630 MHz 1750 MHz
Geheugen 8 GB HBM2 8 GB HBM2 8 GB HBM2
Geheugen controller 2048-bit 2048-bit 2048-bit
Geheugen klokfrequentie 800 MHz 945 MHz 945 MHz
Geheugen bandbreedte 410 GB/s 484 GB/s 484 GB/s
GPU power 165 W 220 W 265 W
Board power 210 W 295 W 345 W
Stroomaansluiting 8-pin + 6-pin 2x 8-pin 2x 8-pin

Scherp geprijsd, (bijna) niet te koop

Misschien wel het interessantste stukje nieuws dat we twee weken geleden konden brengen in onze uitgebreide Vega preview was de prijs. Die bleek scherper dan verwacht: de Radeon RX Vega 56 krijgt een adviesprijs van $ 399 en de Radeon RX Vega 64 een van $ 499. Europese adviesprijzen zijn op het moment van schrijven nog niet bekend, maar zullen vanwege de BTW vermoedelijk rond de € 399-449 en € 499-549 uitkomen. Daarmee zijn de Radeon RX Vega 56 en Vega 64 respectievelijk zo'n  100 euro goedkoper dan hun primaire rivalen, de GeForce GTX 1070 en 1080.

Zoals we al schreven zou de RX Vega 64 per direct beschikbaar moeten zijn en volgt de RX 56 op 28 augustus. Heb je echter 500 euro in de zak branden om direct na het lezen van deze review aan een RX Vega te spenderen, dan heb je pech. AMD liet ons weten dat Alternate de officiële launch partner is voor de Benelux, maar van Alternate vernamen we dat AMD heeft besloten wegens de zeer beperkte beschikbaarheid van Vega kaarten in eerste instantie geheel geen voorraad toe te kennen aan de Benelux. Als je dus een Vega-kaart wil, zal je over de grens moeten gaan kopen. Ook daar is succes niet gegarandeerd, want voor heel Duitsland zijn er naar verluidt slechts zo'n 800 kaarten beschikbaar. Dat is aanzienlijk minder dan gebruikelijk bij een lancering. Over anderhalve week moet de tweede batch Vega-kaarten uitgeleverd worden. Alternate hoopt dan wel een klein aantal kaarten te ontvangen, maar dat is nog niet bevestigd.

Mocht de komende dagen een shop in de Hardware.Info Prijsvergelijker claimen Vega kaarten op voorraad te hebben, dan is ons advies: bel en vraag of de voorraad er echt is. 

Laat het gezegd zijn dat de prijzen aanzienlijk lager uitvallen dan wij tot voor kort hadden verwacht. Sterker nog, met de volgens bronnen binnen de industrie erg hoge prijzen en matige beschikbaarheid van HBM2 geheugenchips, durven we ons hardop af te vragen of AMD met deze prijsstelling überhaupt nog wel geld verdient aan Vega. Tegelijkertijd is dat natuurlijk het probleem van AMD en niet van de consument. Voor de lage prijzen geldt misschien wel gewoon: vraag niet hoe het kan, maar geniet ervan.

Radeon Packs: sympathiek, maar (nog) niet voor Nederland

Voor wie behoefte heeft aan een nieuwe monitor en/of een nieuwe processor, kondigde AMD twee weken geleden een aantal interessante aanbiedingen aan. Men komt namelijk met diverse gaming packs, waarbij een RX Vega kaart wordt gecombineerd met $ 200 korting op een Samsung C34F791 34" FreeSync gaming-monitor (klik hier voor onze review in Hardware.Info TV), $ 100 korting op een Ryzen 7 processor plus X370-chip moederbord én twee gratis triple-A games, ter waarde van minimaal $ 120. Welke games dat exact zijn zal variëren per regio, maar het voorbeeld dat AMD gaf was een combinatie van Prey en het nog te verschijnen Wolfenstein II.

Het totale voordeel is volgens AMD zo’n $ 420, terwijl zo’n gaming pack slechts $ 100 meer gaat kosten dan een losse kaart. De Radeon RX Vega Red Pack, gebaseerd op een RX Vega 56, moet $ 499 gaan kosten en de Radeon RX Vega Black Pack, gebaseerd op een RX Vega 64, krijgt een prijs van $ 599 mee. Daarnaast komt er nog een Radeon RX Vega Aqua Pack met een watergekoelde Radeon RX Vega 64 voor $ 699. De watergekoelde kaart wordt enkel als onderdeel van een dergelijk pakket verkocht en zal dus niet los voor een lagere prijs te koop zijn.

Als je zo'n gaming pack koopt, moet je de monitor en/of Ryzen 7 processor direct mee bestellen om de korting te krijgen. Het is echter niet verplicht om alle bijbehorende producten te kopen. Als je bijvoorbeeld met de games en de korting op de monitor tevreden bent, maar geen behoefte hebt aan een nieuwe processor en moederbord is dat ook prima – en is je totale besparing nog altijd ruim meer dan de $ 100 die de gaming pack meer kost dan een losse Vega kaart.

Tot zover het Amerikaanse verhaal, want Europa en zeker de Benelux lijken er bekaaid vanaf te komen. Op de website van AMD lezen we dat dat voor Nederland en België de korting op de FreeSync monitor geen deel gaat uitmaken van de Radeon packs. De twee games voor onze regio worden zoals verwacht Wolfenstein II en Prey. Verder zijn er drie specifieke, relatief dure X370-moederborden waar de korting voor geldt: de ASUS Crosshair VI Extreme, de Gigabyte GA-AX370-Gaming K7 en de MSI X370 XPower Gaming Titanium.

Mocht je nog steeds enthousiast zijn, dan is er meer slecht nieuws. Alternate liet ons als officiële AMD-partner weten dat er in eerste instantie helemaal geen Radeon Packs komen in Nederland als gevolg van de beperkte beschikbaarheid. Als er al Radeon Packs verkocht gaan worden, zal dat volgens Alternate op z'n vroegst over een maand zijn. Op dit moment heeft men nog geen afspraken met AMD hierover. Oftewel, we zijn blij gemaakt met een dode mus.

Of de bundels überhaupt een groot succes zouden gaan zijn valt te betwijfelen: de C34F791 is een monitor van bijna 1000 euro en voor een Ryzen 7 met X370 moederbord betaal je ook al snel 500 euro of meer. Samen met een Vega kaart blijft het ondanks de korting toch een hele smak geld. Hoewel de korting zeer sympathiek is, is AMD’s achterliggende doel natuurlijk ook duidelijk; kopers van Vega kaart verleiden om helemaal in het AMD ecosysteem met én Ryzen én FreeSync te stappen.

Referentiekaart

Voor deze review ontvingen wij de referentiekaart van zowel de Radeon RX Vega 64 en 56, twee kaarten die visueel niet van elkaar te onderscheiden zijn. In tegenstelling tot de Limited Edition heeft de standaard uitvoering een plastic kap om de koeler. Voor de rest zijn de kaarten identiek.

AMD heeft opnieuw gekozen voor een koeler met radiale ventilator voor de referentiekaart. Zoals we verderop zullen zien is die opnieuw bepaald niet stil. De kaart heeft een tweetal 8-pin PEG-connectors en gezien het stroomverbruik is dat niet voor niets. Als monitoraansluitingen biedt de kaart 3x DisplayPort 1.4 en 1x HDMI 2.0. Er kunnen maximaal zes schermen aangesloten worden, de exacte configuraties vind je in dit artikel op de pagina "Display engine". 

Het is deze referentiekaart die AMD's partners als ASUS, Gigabyte, MSI en Sapphire in eerste instantie beschikbaar zullen hebben. Pas aan het einde van dit kwartaal of aan het begin van het volgend kwartaal zullen de eerste Vega RX kaarten met custom koeler verschijnen.

AMD Radeon RX Vega 64

AMD Radeon RX Vega 64

AMD Radeon RX Vega 64

Hieronder vind je alle officiële foto's van de Radeon RX Vega 64 Limited Edition (klik voor grote versies):

 

Vega 10 GPU

Het kloppend hart van de nieuwe Vega RX videokaarten is natuurlijk de Vega 10 GPU. Deze wordt net als de Polaris GPU van de Radeon RX 480/580 kaarten geproduceerd middels een 14nm FinFET procedé, maar met 12,5 miljard transistors is Vega 10 een stuk groter dan Polaris.


Boven: De Vega 10 GPU met twee HBM2 stacks. Onder: de Fiji GPU met vier HBM1 stacks.

Waar de Polaris 20 chip 2304 grafische cores heeft, heeft Vega 10 er aanzienlijk meer, 4096 om precies te zijn. Dat is weliswaar hetzelfde aantal waar de Fiji chip van de Radeon Fury (X) videokaarten de beschikking over had, maar de Vega chip is gebaseerd op een nieuwe, geoptimaliseerde architectuur. Bovendien is Vega geschikt om op veel hogere klokfrequenties te werken dan Fiji.

De 4096 shader processors van de Vega 10 chip zijn onderverdeeld in 64 zogenaamde next-gen­ compute units. De GPU bevat verder 4 next-gen geometry engines, 256 texture units en 64 render backends. Er is 4 MB L2-cache binnen de GPU - een verdubbeling ten opzichte van de Polaris generatie - maar wanneer je alle in de chips aanwezige registers en caches bij elkaar optelt kom je volgens AMD zelfs uit op 45 MB aan SRAM-cellen. De belangrijkste eigenschap van de nieuwe GPU is echter de geïntegreerde geheugencontroller. Vega 10 wordt niet gecombineerd met conventioneel GDDR5(X) geheugen, maar met HBM2, waarover meer op de volgende pagina.

Vega 10 is de eerste discrete AMD GPU die gebruik maakt van Infinity Fabric, AMD’s nieuwe gestandaardiseerde technologie om verschillende onderdelen van een chip met elkaar te laten communiceren. De Ryzen CPU’s maken ook gebruik van dit Infinity Fabric. Doordat er nu een gestandaardiseerde interne communicatiemethode is voor alle soorten chiponderdelen, kan AMD in de toekomst veel sneller nieuwe chips ontwikkelen. Zodra over een tijdje Ryzen APU’s op de markt komen (met een Vega-variant GPU aan boord) zullen ook daar CPU en GPU via Infinity Fabric met elkaar communiceren.

Hogere klokfrequenties

Wat bij de specificaties van de Radeon RX Vega kaarten direct zal opvallen is dat de GPU’s op relatief hoge klokfrequenties werken. Waar bij de Fiji-chip ca. 1 GHz nog standaard was en Polaris kaarten rond de 1,3 GHz hun werk moeten doen, werken de Vega chips op 1,5 tot zelfs 1,7 GHz.

Om dat mogelijk te maken is de gehele opbouw van de GPU volgens AMD herzien. Men is na Polaris duidelijk gaan onderzoeken waar de bottlenecks in het ontwerp zaten en op basis daarvan zijn verschillende onderdelen van de GPU-architectuur opnieuw ontworpen. Belangrijk is dat men deze aanzienlijke stap in klokfrequentie heeft kunnen zetten zonder de pipeline van de grafische cores te verlengen; de pipeline voor zowel integer als floating point berekening was vier stappen bij Polaris en dat is ook bij Vega nog steeds het geval. Dit zorgt ervoor dat de hogere klokfrequentie direct bijdraagt aan hogere prestaties.

Nieuwe architectuur

De architectuur van Vega is geheel nieuw en Vega 10 is dus zeer zeker niet “Polaris met meer rekeneenheden en HBM-geheugen”. Over wat er allemaal nieuw is binnen de Vega-architectuur had AMD overigens eind vorig jaar al veel bekend gemaakt (zie ook dit artikel).

Allereerst heeft AMD binnen de Vega-architectuur een nieuwe, volledig programmeerbare geometrie pipeline ontwikkeld, getiteld primitive shader. In de traditionele 3D-pipeline komt deze in plaats van de vertex en geometry shaders en pakt dus al het werk op dat te maken heeft met het uit driehoeken opbouwen van de scene. Bij bestaande software kan Vega ook prima conventionele code vertex en geometery shader code verwerken, maar dankzij uitbreidingen op de Vulkan en wellicht in de toekomst ook DirectX API's zijn de compute units ook efficiënter volgens de nieuwe methode aan te sturen. Laat duidelijk zijn; het gaat nog altijd gewoon om de bestaande rekeneenheden (compute units) die op meerdere manieren aangestuurd kunnen worden, maar dankzij de nieuwe methode is er wat minder overhead en kan er efficiënter gewerkt worden. 

De compute units, de feitelijke rekeneenheden waarvan er duizenden binnen de chip aanwezig zijn, zijn ook vernieuwd en noemt men nu Vega NCU, waarbij NCU staat voor Next-generation Compute Unit. Een belangrijke verbetering is dat de CU's niet enkel geoptimaliseerd zijn voor verwerking van 32-bit data, maar nu ook op dubbele snelheid 16-bit data en ook op viervoudige snelheid 8-bit data kunnen verwerken. Deze aanpassing is vooral van belang om de GPU's geschikter te maken voor compute workloads, zoals bijvoorbeeld machine learning. Volgens AMD kunnen ook gamers er in potentie van profiteren. Sommige niet graphics-gerelateerde code van game-engines, zoals bijvoorbeeld AI (artificiële intelligentie) algoritmes, zouden ook in 16-bit of 8-bit uitgevoerd kunnen worden en daarvoor veel sneller verwerkt worden. Tijdens de presentatie toonde AMD als voorbeeld de nieuwe 3DMark Serra benchmark waarbij bij Vega een aantal post-processing en andere effecten in 16-bit kunnen worden doorgerekend, zonder dat dit zichtbare visuele implicaties heeft. Het resultaat is een double digit verbetering van de prestaties.

Ook de manier waarop de Vega chips de uiteindelijke pixels berekenen is geoptimaliseerd. Verbeterde algoritmes bepalen vooraf of een pixel wel of niet zichtbaar is en zetten de verdere verwerking ervan stop wanneer dat niet het geval is. Deze moeten het onnodig meerdere keren renderen van pixels binnen een frame zo veel mogelijk voorkomen.

Daarnaast nieuw is de Draw Stream Binning Rasterizer, een technologie vergelijkbaar met Tiled Based Rendering, waarbij het beeld wordt opgedeeld in vakjes (bins in AMD jargon) en vakje-voor-vakje verwerkt wordt. Hierdoor is er minder geheugenbandbreedte nodig en kunnen de prestaties omhoog. Nvidia gaf een tijd geleden toe dat een vergelijkbare technologie één van de redenen is van de goede prestaties van de GeForce 10-serie. De Draw Stream Binning Rasterizer is volgens AMD volledig beschikbaar en de drivers bepalen per game of de technologie wel of niet wordt ingeschakeld, omdat het bij sommige games voor prestatiewinst zorgt, maar bij andere niet. Dat in- en uitschakelen van DSBR gebeurt geheel automatisch op driver-niveau. Hierdoor heb je er als gebruiker geen omkijken naar, maar ook geen inzicht in. 

Ten slotte: de render backends staan in de nieuwe architectuur in directe verbinding met de L2-cache en kunnen daar op hoge snelheid mee communiceren. Dit heeft volgens AMD een significant positief effect op de prestaties bij game-engines die van deferred rendering gebruik maken.

“Meest complete DirectX 12 implementatie”

De compute units binnen Vega ondersteunen verder een 40-tal nieuwe instructies, die beschikbaar zullen komen via uitbreidingen op de Vulkan-standaard en binnen DirectX 12 zodra de Shader Model 6 standaard in een toekomstige Microsoft-update wordt gelanceerd. Een aantal van deze instructies zijn primair voor andersoortige workloads bedoeld, maar verschillende zijn ook interessant voor game developers.

Hoe dan ook stelt AMD met Vega de meest complete DirectX 12 implementatie te hebben, inclusief volledige ondersteuning voor het toekomstige Shader Model 6. Wat de meerwaarde daarvan op termijn is, zal moeten blijken. 

High Bandwidth Cache (of toch Memory?)

Ken je de anekdote van de hoge pief van een grote Amerikaanse multinational die tijdelijk op het kantoor in Amsterdam gestationeerd werd? De Nederlandse collega’s probeerden om een voor zijn kaliber geschikte tijdelijke woonlocatie in Amsterdam te vinden, maar slaagden daar niet in. Geen probleem volgens zijn Amerikaanse assistente, ze had zelf al een woning “in de buurt” gevonden. Dit bleek in Nijmegen te zijn. Moraal van het verhaal: of iets “in de buurt” is, ligt er maar net aan met welk perspectief je ergens naar kijkt.

In de computerwereld noemen we geheugen dat in de buurt van rekeneenheden aanwezig is, specifiek geheugen binnen dezelfde chips, in de regel cache. Termen als L2-cache en L3-cache kom je geregeld tegen bij CPU- en GPU-reviews op Hardware.Info.

Bij Vega noemt AMD wat wij tot nu toe het normale geheugen van de videokaart zouden noemen echter ook ineens cache. De Vega kaarten krijgen in AMD-jargon dus niet 8 GB geheugen, maar 8 GB cache. Op de doos van Vega kaarten zal dan ook staan "8 GB High Bandwidth Cache". Vreemd? Ja. Onzinnig? Zeker niet! De reden waarom AMD over cache spreekt is tweeledig. Allereerst maakt Vega gebruik van HBM2 (High Bandwidth Memory versie 2) geheugen, chips die direct naast de GPU op een zogenaamde interposer binnen de totale chip worden geplaatst. Dat kunnen we toch gerust “in de buurt” noemen - maar nog belangrijker is dat het geheugen ook daadwerkelijk als een cache kan werken, waarover later meer.

Eerst meer over HBM. Vega is na de Fury (X) kaarten de tweede generatie GPU’s die gebruik maken van HBM. Bij Fury maakte men nog gebruik van de eerste versies van HBM; HBM 1.0 chips - stacks in jargon - werden via een 1024-bit bus verbonden met de GPU. De HBM 1.0 stacks werkten op 500 MHz DDR-snelheid en kunnen dus 1 Gigabit/s doorvoersnelheid per pin verwerken. AMD’s Radeon R9 Fury kaarten werden van vier van dergelijke stacks voorzien en de totale geheugenbandbreedte kwam zodoende op 4096 gigabit/s, ofwel 512 GB/s. De maximale hoeveelheid geheugen per stack was 1 GB, wat betekende dat de Fury kaarten in totaal 4 GB geheugen hadden.

Wat bij HBM 2.0 is gebleven is de 1024-bit verbinding tussen de geheugenchip en de GPU. De bandbreedte per pin is echter verdubbeld naar 2 Gigabit/s. De belangrijkste verbetering is de capaciteit; een stack kan nu 4 GB geheugen bevatten en in de toekomst zelfs 8 en 16 GB. Bij HBM wordt geheugen gestapeld en iedere laag bij HBM2 bevat 1 GB. De standaard voorziet dus in geheugen met tot 16 lagen per stack. Op de Vega kaarten maakt AMD dus gebruik van HBM2, maar in tegenstelling tot bij de Fury plaatst het twee in plaats van vier stacks. Dat maakt dat de geheugenhoeveelheid toeneemt; 8 GB. De geheugenbandbreedte is echter vrijwel identiek aan de Fury; de verdubbeling van de bandbreedte per pin wordt immers gecompenseerd door de halvering van het aantal stacks. AMD spreekt over 484 GB/s, wat duidt op een klokfrequentie van 945 MHz.

Die 484 GB/s is zeker niet wereldschokkend. De GeForce GTX 1080 Ti zit met 352-bit GDDR5X-geheugen op 1375 MHz op exact dezelfde waarde. De directe concurrent van Vega, de GeForce GTX 1080, komt met 256-bit GDDR5X geheugen op 1250 MHz  echter uit op “slechts” 320 GB/s.

Het voordeel van HBM zit volgens AMD echter niet primair bij de hoge bandbreedte. Volgens AMD biedt HBM2 ten opzichte van GDDR5X vooral ook veel lagere latencies én een veel lager stroomverbruik. Daarmee kan een groter deel van het TDP-stroombudget van een videokaart gebruikt worden voor de GPU en om heel eerlijk te zijn; kan AMD in de praktijk het feit dat haar architectuur wat minder efficiënt is dan die van Nvidia voor een groot gedeelte compenseren.

Een ander belangrijk voordeel van HBM is dat het totale oppervlakte dat nodig is voor GPU en geheugen veel minder is dan bij een traditionele GPU met GDDR-geheugen. Voor desktop gebruikers betekent dit dat we absoluut weer kleine Nano-varianten van de videokaarten mogen verwachten, geschikt voor Mini ITX systemen. Maar de kleine afmetingen zijn nog veel interessanter voor all-in-one PC’s en laptops, waar AMD op termijn ook Vega in wil gaan verwerken.

Geheugen als cache

Terug naar het hele geheugen versus cache verhaal. AMD signaleert een duidelijke trend dat datasets steeds groter en groter en worden en de hoeveelheid geheugen van een videokaart ruim te boven gaan. Bij games is dat zeker het geval; de totale hoeveelheid textures en andere grafische data van een moderne triple-A game is zeker meer dan 8 GB. Bij professionele workloads is dat zeker ook het geval; bij zaken als machine learning, waar de Vega-architectuur ook voor bedoeld is, kunnen datasets zelfs al richting de exabytes gaan.

Bij de RX Vega kaarten hebben we het natuurlijk primair over games. In de praktijk is het aan game developer om er binnen de engine voor te zorgen dat alle data die voor het huidige level of de huidige scene nodig is, in het lokale geheugen van de videokaart wordt geplaatst. Nieuw bij Vega is dat het geheugen daadwerkelijk als cache ingezet kan worden. Dat betekent dat alle data voor workloads (game of ander type) in de basis in het werkgeheugen van de PC of wellicht zelfs op een SSD of HDD staat en de GPU zelf met slimme algoritmes bepaalt welke data naar het lokale geheugen gehaald moet worden. Net zoals een CPU/GPU nu al zelf via slimme algoritmes ervoor zorgen dat alle benodigde data zo vaak en snel mogelijk van RAM-geheugen naar L2- of L3-cache wordt gehaald. Deze methode heeft twee voordelen; het ontlast de game(-engine) developer die niet zelf geheugenmanagement hoeft te ontwikkelen, maar bovenal werkt de methode op page-basis, wat betekent dat data in relatief kleine blokken overgehaald kan worden. Interne analyses van AMD geven aan dat bij games gemiddeld 50% van de data die door de engine in het videokaartgeheugen wordt geplaatst, helemaal niet wordt gebruikt.

Nu is dat laatste in principe toekomstmuziek (alle game engines regelen vooralsnog zelf hun eigen geheugenbeheer) maar ook nu al kun je gebruik maken van de caching techniek. Bij een Vega kaart kun je in de drivers via een slider immers de hoeveelheid geheugen van de videokaart virtueel vergroten, van 8 GB naar bijvoorbeeld 16 GB of 32 GB. Game engines (of andere software) zien dan een videokaart met de betreffende hoeveelheid geheugen en kunnen dat alloceren. De caching algoritmes binnen de Vega chip zorgen ervoor dat de belangrijkste data (lees: data waarvan verwacht wordt dat die daadwerkelijk gebruikt wordt) in de 8 GB geheugen op de kaart staat en de rest in RAM-geheugen van de PC.

Wat je daar aan hebt? Als er in de toekomst een game uit zou komen die meer dan 8 GB geheugen vereist, zou je die in een normaal geval niet met een 8 GB kaart kunnen spelen. Met een Vega kaart kan dat dus wél en dat maakt de videokaart in principe meer future-proof. En als AMD’s interne analyses kloppen dat van het in videokaartgeheugen opgeslagen game data in de regel maar circa 50% daadwerkelijk wordt gebruikt binnen een bepaalde scène, zou je dus in principe scenario’s waarvoor je een 16 GB videokaart nodig hebt probleemloos met een 8 GB kaart moeten kunnen spelen.

De Vega 10 chip kan in theorie overigens tot 512 TB virtueel geheugen adresseren. Dergelijke grote hoeveelheden zullen echter enkel nut hebben bij professionele gebruiksmodellen.

Display engine en mediamogelijkheden

Qua ondersteuning voor beeldschermen biedt de Vega GPU zoals je dat anno 2017 mag verwachten uiteraard ondersteuning voor DisplayPort 1.4 en HDMI 2.0b. Het aantal beschikbaar monitorconfiguraties is ten opzichte van de Polaris nog wat verder toegenomen; zo wordt de combinatie van 4K met 120 Hz én HDR nu officieel ondersteund - nu de schermen nog! Ook kun je bij Vega voor het eerst drie 4K-schermen in HDR-modus of twee 4K-schermen met 120 Hz combineren.

Ook op het vlak van hogere resoluties biedt Vega nieuwe mogelijkheden. Polaris ondersteunde al tot drie 5K-schermen als je die met twee kabels tegelijkertijd verbond, maar met Vega is het mogelijk om drie 5K schermen met elk slechts één kabel te verbinden. Zolang je genoegen neemt met 30 Hz is het zelfs mogelijk om drie 8K schermen op een Vega kaart aan te sluiten. Voor 8K 60 Hz blijft het maximale aantal schermen beperkt tot één.

Qua media-mogelijkheden zijn er weinig verschillen ten opzichte van Polaris. Net als bij die chips bevat Vega een H.264 en H.265 video encoder én decoder, inclusief ondersteuning voor 10-bit H.265. Eén verschil; waar Polaris bij H.264 in 4K-resolutie beperkt was tot 30 fps, is dat nu 60 fps. H.265 in 4K-resolutie deed Polaris al met 60 fps en Vega nu ook.

Benchmarks: nieuwe testprocedure

Sinds augustus 2017 hebben we op Hardware.Info een nieuwe testprocedure voor 3D-chips. Wij testen alle kaarten in een ruime selectie van games in een drietal resoluties met elk twee settings. Daarnaast gebruiken we een aantal synthetische 3D-benchmarks. Bij de selectie van games is rekening gehouden een goede mix te hebben tussen gebruikte API's (DX11, DX12, Vulkan), game engines, genres (FPS, RPG, open world, etc.) en eventuele bias richting AMD of Nvidia.

De volgende benchmarks vind je terug in deze review:

  • 3DMark Firestrike Extreme / Ultra (DX11)
  • 3DMark Timespy (DX12)
  • Unigene Superposition
  • Ghost Recon: Wildlands (DX11)
  • GTA V (DX11)
  • Project Cars (DX11)
  • Rainbow Six Siege (DX11)
  • The Witcher 3 (DX11)
  • Battlefield 1 (DX12)
  • Hitman (DX12)
  • Rise of the Tomb Raider (DX12)
  • Total War Warhammer (DX12)
  • Doom (Vulkan)

We testen de games in deze resoluties / settings:

  • 1920x1080 (Full HD) - Medium
  • 1920x1080 (Full HD) - Ultra / Highest 
  • 2560x1440 (WQHD) - Medium
  • 2560x1440 (WQHD) - Ultra / Highest 
  • 3840x2160 (Ultra HD) - Medium
  • 3840x2160 (Ultra HD) - Ultra / Highest 

Op basis van de scores van de tien genoemde games berekenen we de Hardware.Info GPU-prestatiescore, die in feite voor elk van de resoluties/settings het gemiddelde van de gemeten framerates is. Deze GPU-prestatiescore geeft met één blik de beste indruk van de prestaties van videokaarten

In de grafieken op de volgende pagina's vind je telkens in eerste instantie gemiddelde framerates, ofwel het gemiddelde aantal beelden per seconde dat een videokaart kan berekenen. Daarnaast doen we waar mogelijk ook een 99ste percentiel frametime analyse, om het minimale prestatieniveau van GPU's in kaart te brengen. De tijd die het kost om beelden binnen een 3D-game en dus binnen onze benchmark te renderen varieert van frame tot frame. Bij de 99ste percentiel analyse worden de rendertijden van alle individuele frames opgeslagen. Daarna gooien we de 1% langzaamste frames weg - dit om vreemde invloeden van incidentele externe oorzaken uit de analyse te houden. De hoogste rendertijd van de resterende 99% van de frames (oftewel: het langzaamste frame) is de 99ste percentiel frametijd. Om de grafieken ook voor wie wat minder diep in de materie zit duidelijk te houden, rekenen we die frametijd vervolgens weer om naar een FPS-waarde (1 / frametijd). Deze kun je dus opvatten als een minimale FPS, maar dan een verbeterde versie, aangezien deze is gebaseerd op daadwerkelijk de langzaamste frames en niet op letterlijk het minimale aantal frames dat ooit in een willekeurig tijdbestek van een seconde is berekend. De 99ste percentiel frametijden in milliseconden vind je in de productdatabase bij de gekoppelde producten op het tabblad Testresultaten.

Voor de benchmarks maken we gebruik van een testsysteem met de volgende specificaties:

Naast de prestaties meten we natuurlijk ook het stroomverbruik en de geluidsproductie van de kaarten.

Voor het stroomverbruik gebruiken we nieuwe hardware, waardoor we het verbruik geïsoleerd van de rest van het systeem kunnen meten. In tegenstelling tot oudere reviews tonen de grafieken in deze test dus enkel het verbruik van de kaarten, niet van het hele systeem. We meten het verbruik zowel idle (gemiddelde van vijf minuten) als onder load. De load test is een gemiddeld verbruik tijdens een minuut in de Rise of the Tomb Raider benchmark in Ultra HD met maximale settings.

De geluidsproductie meten we in een geluidsdichte box op 10 centimeter afstand. Ook hier doen we een meting bij idle en onder load. Voor de load test laten we de videokaart eerst circa 5 minuten opwarmen in een verlengde 3DMark Fire Strike Extreme test. Daarna meten we de gemiddelde geluidsproductie tijdens 30 seconden.  

Benchmarks: 3DMark Fire Strike / Timespy

In 3DMark Fire Strike Extreme (2560x1440) en Ultra (3840x2160) zien we dat de RX Vega 64 beide keren nipt de score van de Nvidia GeForce GTX 1080 evenaart. In de nieuwe DirectX 12 Timespy test blijft de RX Vega 64 juist net onder het resultaat van de GTX 1080.

De RX Vega 56 doet het in alle 3DMark onderdelen wat beter dan z'n rivaal, de GeForce GTX 1070.

Benchmarks: Unigine Superposition

De Unigine Superposition 3D-benchmark toont resultaten in Full HD en Ultra HD resoluties en maakt gebruik van state-of-the-art rendering technieken.

In beide gevallen behaalt de RX Vega 64 een prestatieniveau dat tussen de GTX 1070 en GTX 1080 in zit, waarbij het resultaat dichter bij de GTX 1070 zit. De RX Vega 56 scoort juist wat lager dan de GTX 1070.

Benchmarks: Ghost Recon: Wildlands (DX11)

Ghost Recon: Wildlands is een open world game gebaseerd op de Anvil Next engine, gebruik makend van DirectX 11.

Kijken we naar de resultaten, dan zien we dat Vega RX 64 schommelt tussen het prestatieniveau van de GTX 1070 en GTX 1080. Voor wie per se gemiddeld 60 fps of meer wil halen lijkt WQHD met Medium settings het hoogst haalbare. Voor Ultra HD schiet de Vega kaart in deze benchmark tekort.

De Vega 56 schurkt tegen het prestatieniveau van de GTX 1070 aan, maar gaat er in Ultra HD in Ultra settings net voorbij. Die setting is echter niet speelbaar. WQHD met Medium settings gaat ook op deze kaart prima.

Benchmarks: GTA V (DX11)

GTA V draait op een eigen, specifek voor deze game gemaakte engine en draait op DirectX 11.

Er lijkt nog een bug in de drivers voor Vega te zitten want hoe vaak we het ook proberen, onze GTA V benchmarks crasht altijd op exact hetzelfde moment. Ook op een tweede systeem zien we met de Vega-kaart hetzelfde gebeuren. We zijn hierover met AMD in conclaaf, maar AMD geeft aan onze situatie niet te kunnen reproduceren dus het lijkt iets geks bij specifiek onze testconfiguratie. De RX Vega 56 wil de tests in Ultra settings wel voltooien maar scoort dan zeer slecht, waardoor we ook hier vraagtekens bij mogen zetten.

Frametimes

Benchmarks: Project Cars (DX11)

De Project Cars race game maakt gebruik van DirectX 11 en draait traditiegetrouw wat beter op Nvidia kaarten dan AMD kaarten.

Opnieuw behaalt de RX Vega 64 een prestatieniveau tussen dat van de GTX 1070 en de GTX 1080 in. In WQHD en Ultra HD met Ultra-settings gaat de kaart zelfs de GTX 1080 voorbij. De RX Vega 56 is opnieuw sneller dan de GTX 1070. Ultra HD met hoogste settings in deze niet bepaald veeleisende game voor beide RX Vega kaarten geen probleem.

Frametimes

Ook wanneer we kijken naar de minimale framerate afgeleid van de 99ste percentiel frametimes zien we de vreemde resultaten in Ultra settings. 

Benchmarks: Rainbow Six Siege (DX11)

Rainbow Six Siege is een first person shooter gebaseerd op een door Ubisoft zelf ontwikkelde engine, gebruik makend van DirectX 11. De game neigt een voorkeur te hebben voor Nvidia's GPU's.

Als we kijken naar de resultaten zien we de RX Vega 64 opnieuw prestatieniveaus tussen die van de GTX 1070 en 1080 behalen. Met Medium settings zitten de resultaten dichter in de buurt van de GTX 1080, in Ultra settings juist dichter bij de GTX 1070. WQHD op hoogste settings is prima speelbaar. Voor Ultra HD moet je je echt beperken tot Medium settings. 

De Radeon RX Vega 56 is met Medium settings duidelijk sneller dan de GTX 1070 en met Ultra settings nipt langzamer. Het prestatieverschil met de RX Vega 64 is beperkt en ook hier is WQHD met hoogste settings en Ultra HD met Medium settings prima speelbaar.

Benchmarks: The Witcher 3 (DX11)

The Witcher 3 is een action role-playing game gebaseerd op de Red Engine 3 en gebruik makend van DirectX 11. Ook deze game blijkt in de praktijk iets beter te presteren op Nvidia kaarten dan op AMD kaarten.

Wederom zien we voor RX Vega 64 een prestatieniveau tussen dat van de GTX 1070 en GTX 1080 in. WQHD op hoogste instellingen en Ultra HD op Medium blijkt prima speelbaar.

De RX Vega 56 is met Medium settings ietsje langzamer dan de GTX 1070, in Ultra settings gaat de kaart z'n rivaal voorbij. Ook bij deze kaart is WQHD op hoogste settings prima speelbaar. Ultra HD op medium hangt er een beetje om, maar met een FreeSync monitor is een minimale fps van 43 prima.

Frametimes

Kijken we naar het minimale prestatieniveau op basis van de 99ste percentiel frametimes, dan zien we ook hier resultaten tussen de niveaus van de GTX 1070 en 1080 voor de RX Vega 64. In Ultra HD op hoogste settings zakt de kaart echter ineens flink weg. Deze resolutie met hoogste settings is duidelijk niet goed speelbaar en puur weggelegd voor een GeForce GTX 1080 Ti.

Benchmarks: Battlefield 1 (DX12)

Battlefield 1 maakt gebruik van de Frostbite engine en draaien we in DirectX 12 modus.

Traditiegetrouw doen AMD videokaarten het goed in deze benchmark en dat is deze keer geen uitzondering. In alle gevallen behaalt de RX Vega 64 een hogere gemiddelde framerate dan de GTX 1080. Zelfs in Ultra HD met hoogste settings komt de kaart in de buurt van 60 fps gemiddeld. De RX Vega 56 doet het duidelijk beter dan de GTX 1070. In Ultra HD is de kaart zelfs net zo snel als een GTX 1080. Met een Freesync-monitor moet Ultra HD met Ultra settings zelfs nét goed speelbaar zijn met een RX Vega 56.

Frametimes

Kijken we naar het minimale prestatieniveau gebaseerd op de 99ste percentiel frametime analyse, dan blijkt RX Vega 64 in Ultra HD met Medium settings zelfs in het worst-case scenario niet onder de 60 fps te zakken, opnieuw een nipt beter resultaat dan de GTX 1080. In Ultra HD met Ultea settings meten we een minimum prestatieniveau van 46,3 fps en dat is ook prima speelbaar. 

Benchmarks: Hitman (DX12)

Hitman maakt gebruik van de Glacier engine en van DirectX 12.

Opnieuw zien we voor RX Vega 64 een prestatieniveau tussen dat van de GTX 1070 en 1080 in, waarbij de kaart in dit geval veel dichter bij de GTX 1080 aanschurkt. Ultra HD met Ultra settings blijkt prima speelbaar. Ook in deze game in de RX Vega 56 nipt sneller dan de GTX 1070.

Benchmarks: Rise of the Tomb Raider (DX12)

Rise of the Tomb Raider is een adventure game die ook gebruik maakt van DirectX 12.

Wederom zien we een prestatieniveau tussen dat van de GTX 1070 en 1080, maar hoe meer we de resolutie en instellingen opschroeven, hoe dichter de kaart tegen de GTX 1080 aanschurkt, om in Ultra HD een vrijwel identiek prestatieniveau te bieden. Ultra HD met Medium settings is prima speelbaar, net als WQHD met Ultra settings. 

Op Full HD Medium na komt de RX Vega 56 altijd boven de GTX 1070 uit. 

Benchmarks: Total War: Warhammer (DX12)

Total War: Warhammer is een RTS games gebaseerd op de Warscape engine.

In Full HD is er zelfs met de Core i9 7900X op 4,5 GHz een duidelijke CPU-bottleneck en staan de videokaarten op bijna willekeurige volgorde in de grafiek. Besteed daar dus vooral niet teveel aandacht aan. Vanaf WQHD ligt de bottleneck duidelijk bij de videokaart en doet RX Vega 64 het goed. Erg goed zelfs: in drie van de vier tests in WQHD en Ultra HD scoort de kaart beter dan een GTX 1080. Het spel spelen in Ultra HD is geen enkel probleem met deze kaart. Voor de RX Vega 56 geldt dat hoe verder we de resolutie en settings opvoeren, hoe meer afstand de kaart neemt van de GTX 1070. De game spelen in Ultra HD resolutie is, zeker met een FreeSync monitor waarbij een minimum van 40 fps prima is, geen enkel probleem. 

Benchmarks: Doom (Vulkan)

Ten slotte testten we Doom, de enige game in deze review die gebruik maakt van de Vulkan engine.

Doom is gemaximeerd op 200 fps en in Full HD resolutie halen kaarten van dit kaliber dat makkelijk. In WQHD en Ultra HD zien we dat RX Vega 64 het net wat beter doet dan de GeForce GTX 1080. Achteraf bezien is het dus geen wonder dat AMD eind vorig jaar juist deze benchmark koos voor de eerste publieke demonstratie van Vega. Ultra HD met Ultra settings draait als een zonnetje op de RX Vega 64 en 56. 

Frametimes

Ook de frametime analyse bewijst dat Ultra HD in Ultra settings prima speelbaar is op RX Vega 64. Zelfs het minimale prestatieniveau zit ruim boven de 60 fps. 

Benchmarks: Hardware.Info GPU Prestatiescore 2017-2018

De Hardware.Info GPU Prestatiescore 2017-2018 is de gemiddelde framerate in alle geteste games behalve GTA V, aangezien we daar problemen mee hebben. De prestatiescore geeft een mooi overall beeld van de kaarten.

Om met de Radeon RX Vega 64 te beginnen. Het beeld dat we bij de verschillende games zagen, wordt bevestigd in de prestatiescore; de prestaties schurken tegen het niveau van de GeForce GTX 1080 aan. In WQHD en Ultra HD met hoogste settings gaat de RX Vega 64 de GTX 1080 zelfs nipt voorbij. We mogen dus wel stellen dat de kaarten ruwweg even snel zijn.

Kijken we naar de prestatiescores van de Radeon RX Vega 56 dan valt voornamelijk op dat het prestatieverschil tussen de 64 en 56 uitvoeringen erg beperkt is; gemiddeld is de RX Vega 64 maar een dikke 10% sneller. Gezien het toch ruime prijsverschil maakt dat de RX Vega 56 toch al snel de meest interessante van de twee. Het gemiddelde prestatieniveau van de RX Vega 56 komt uit boven dat van z'n grote rivaal, de GeForce GTX 1070. Bij deze kaart kan AMD dus wel overtuigend zeggen dat men én sneller én goedkoper is.

Testresultaten: Stroomverbruik

Voor het stroomverbruik gebruiken we nieuwe hardware, waardoor we het verbruik geïsoleerd van de rest van het systeem kunnen meten. In tegenstelling tot reviews tot dusver tonen de grafieken in deze test dus enkel het verbruik van de kaarten, niet van het hele systeem. We meten het verbruik zowel idle (gemiddelde van vijf minuten) als onder load. De load test is een gemiddeld verbruik tijdens een minuut in de Rise of the Tomb Raider benchmark in Ultra HD met maximale settings.

Idle zijn de RX Vega kaarten relatief zuinig; we meten 13,2W respectievelijk 14,2W en dat is minder dan de RX 570 en RX 580 en aanzienlijk minder dan de R9 Fury X. Desalniettemin moeten we concluderen dat het idle-verbruik van Nvidia-kaarten nóg lager is. 

Onder load moeten we toch concluderen dat de GPU-architectuur van AMD duidelijk minder efficiënt is dan die van Nvidia. Tijdens de Rise of the Tomb Raider benchmark verbruikt de Radeon RX Vega 64 kaart in totaal ruim 300 watt, ondanks het relatief zuinige HBM-geheugen dat wordt gebruikt. Het prestatieniveau in deze test is vrijwel identiek aan dat van de GTX 1080, maar die kaart heeft er slechts 181 watt voor nodig. Dat is hoe je het ook wendt of keert een extreem groot verschil in het voordeel van Nvidia. 

Bij de RX Vega 56 is dat niet anders; hier meten we een stroomverbruik onder load van 223 watt, terwijl de GeForce GTX 1070 genoegen neemt met 147,4 watt voor bijna hetzelfde prestatieniveau.

In onderstaande grafiek zie je de verdeling van het stroomverbruik onder load; groen = totaal, blauw = PEG-connector 1, paars = PEG-connector 2, rood = stroom vanuit het PCI-Express slot. We zien dat de RX Vega 64 een keurige marge houdt binnen de 150W die officieel uit een PEG-connector gehaald kan worden. De rest van het vermogen komt uit het PCI-Express slot. De oplettende lezer zal opvallen dat in onderstaande grafiek de waardes van de blauwe, paarse en rode balken opgeteld telkens net niet gelijk is aan het totaalverbruik uit de groene balk. Dat komt omdat videokaarten ook nog een heel klein beetje vermogen over de 3,3V lijn via het PCI-Express slot verbruiken. Dat hebben we in het totale vermogen ook meegerekend, maar niet verder uitgesplitst.

Testresultaten: Geluidsproductie

De geluidsproductie meten we in een geluidsdichte box op 10 centimeter afstand. Ook hier doen we een meting bij idle als onder load. Voor de load test laten we de videokaart eerst circa 5 minuten opwarmen in een verlengde 3DMark Fire Strike Extreme test. Daarna meten we de gemiddelde geluidsproductie tijdens 30 seconden. 

Wanneer gemeten op 10 centimeter afstand mag je de geluidsproductie van hardware als volgt interpreteren: alles onder de 30 dB(A) is onhoorbaar stil. Waardes tussen de 30 en 40 dB(A) mag je beschouwen als stil. Tussen de 40 dB(A) en 50 dB(A) zijn producten duidelijk hoorbaar. Waardes boven de 50 dB(A) zijn luidruchtig. 

Onderstaande grafieken bevatten alleen waardes voor kaarten waarvan we een officieel referentiemodel hebben. Voor overige GPU's hebben we op standaard klokfrequenties ingestelde kaarten van een fabrikant als ASUS, Gigabyte of MSI gebruikt. We zien dat de Vega kaart idle in principe onhoorbaar stil is; 28,5 dB(A) is een hele mooie waarde. Onder load geldt echter het tegenovergestelde; 60,4 dB(A) is echt zéér luidruchtig. Alleen al om deze reden zouden we je adviseren dat, als je een RX Vega 64 kaart wilt, om te wachten op een product met custom koeler.

De koeler blijkt getuned om de GPU op een temperatuur van 85 graden Celsius te laten werken. Dat is dan ook de temperatuur die we meten tijdens benchmarks.

Omdat de Radeon RX Vega 56 wat minder stroom verbruikt, hoeft de koeler bij deze kaart minder hard te werken. Bij de 56 meten we onder load een geluidsproductie van 54,3 dB(A), iets meer dan de geluidsproductie van de Nvidia Founder's Edition kaarten.

Testresultaten: AMD Radeon RX Vega voor coin mining

AMD videokaarten zijn de laatste weken en maanden erg in trek bij coin miners. Zeker de Radeon RX 470, 480, 570 en 580 bleken erg efficiënt voor het minen van de populaire Ethereum munt. Dat roept dus direct de vraag op of Vega nóg geschikter is voor coin mining en dus of gamers bang moeten zijn dat miners direct alle beschikbare schaarse voorraad opkopen?

Het korte antwoord lijkt: nee, Radeon RX Vega lijkt vooralsnog niet bepaald ideaal voor coin mining. Hoewel diverse geruchten anders doen vermoeden laten onze eerste test zien dat Vega geen wonderen verricht op dit vlak. We hebben tests uitgevoerd met de benchmarktool van de Nicehashminer, een programma dat meerdere miningprotocollen combineert, en steeds kijkt welke coin je het beste kunt minen.

Een paar zaken vallen op. Allereerst blijkt dat  een (groot) deel van de benchmarks niet gedraaid kan worden, ook al worden er AMD-specifieke clients gebruikt binnen Nicehash. Dat is op zich wel te verklaren; de AMD-specifieke clients die nu beschikbaar zijn, zijn gemaakt voor de GCN-architectuur van bestaande kaarten. Vega maakt natuurlijk gebruik van de nieuwe NCU-architectuur. Als er low-level GCN-code wordt gebruikt, kan dat compatibiliteitsproblemen opleveren.

Op dit moment geldt dat de hashrate op het Dagger Hashimoto algoritme dat voor het populaire Ethereum mining wordt gebruikt, afhankelijk van de gebruikte miner op 25 tot 30 MH/s ligt voor de Vega 64, en 23 tot 29 MH/s voor Vega 56. Na overklok van het geheugen van 945 MHz naar 1100 MHz loopt dat bij Vega 64 op naar 34,1 MH/s. Dat is niet bepaald wereldschokkend te noemen. Ter referentie: een stock GeForce GTX 1070 doet standaard ongeveer 26 MH/s en na overklok afhankelijk van de kaart 30-32 MH/s. De GeForce GTX 1080 Ti doet standaard ongeveer 31,5 MH/s en na overklok 34-36 MH/s afhankelijk van de kaart. Daar komt bij dat Vega tijdens het minen om die 30 MH/s te bereiken, net als tijdens gamen meer dan 300 watt verbruikt. De Nvidia kaarten halen een vergelijkbare hashrate met een veel lager energieverbruik. 

Daar komt bij dat Vega last lijkt te hebben van hetzelfde probleem als de RX 400 en 500 series, namelijk dat de prestaties bij het minen van Ethereum afnemen naar mate de grootte van de DAG epoch toeneemt. Op het moment van schrijven heeft de DAG epoch een grootte van 138, en circa elke vier dagen neemt dat dat met 1 punt toe. Wij testten de RX Vega 64 met DAG groottes van 130 tot 199, en onderstaande grafiek laat zien dat de hashrate daarbij sterk afneemt, in tegenstelling tot de 10 serie van Nvidia.

Eén nuance bij deze resultaten; het is natuurlijk wachten op een versie van de miningsoftware die wél is geoptimaliseerd voor de nieuwe architectuur van de Vega GPU. Hoeveel prestatiewinst dat kan opleveren durven we niet in te schatten. Dit is dus iets waar we op termijn zeker op terug moeten komen.

Daarnaast zien we dat Vega het op andere miningprotollen (relatief) beter dan doet dan de 1070 en 1080 GPU's van Nvidia, maar op het moment van schrijven zijn die protocollen economisch gezien minder interessant om te minen van Ethereum. Als we Nicehash op basis van de huidige prijzen en de gemeten miningsnelheden automatisch het meest winstgevende protocol laten minen, zien we dat de software kiest voor Dagger Hashimoto in combinatie met Pascal, voor een gezamenlijke opbrengt van ongeveer 2,3 euro per dag, voor aftrek van stroomkosten.

Testresultaten: Overklokken

Ten slotte hebben we nog bekeken hoe ver je de Radeon RX Vega 64 kunt overklokken. Hiervoor gebruikten we de referentiekaart met stock koeler, waarbij we ventilator uiteraard wel op vol vermogen lieten blazen. Uiteindelijk kregen we de GPU opgeklokt van maximaal 1630 MHz tot maximaal 1980 MHz, ruim 20% sneller. Het HBM2 geheugen laat zich relatief minder ver overklokken, maar nog altijd beter dan het HBM1 van de Fury X kaarten dat in z'n geheel niet overklokbaar was. Wij kregen de HBM2 stacks stabiel werkend op 1100 MHz in plaats van 945 MHz. 

Het resulteerde in een 3DMark Fire Strike Extreme score van 10.804 punten, zo'n 9% sneller dan het stock-resultaat van 9.911 punten. Overigens blijkt uit onze tests dat de hoge klokfrequentie maar een beperkte tijd vastgehouden kan worden, al na een paar minuten gaat de kaart flink omlaag qua klokfrequentie. Leuk dus voor het neerzetten van 3DMark scores, maar op veel hogere klokfrequenties daadwerkelijk gamen zit er niet in.

Vergeet ook niet; RX Vega 64 heeft een TDP van 295 watt en gaat daar in de praktijk volgens onze metingen al nipt overheen. Dat is echt zo'n beetje het maximale wat je als PCI-Express uitbreidingskaart kunt doen. Er is dus simpelweg bijna geen headroom voor overklokken, de kaart draait al op z'n max.

Het maakt dat we de verwachtingen voor de prestaties van de Vega-varianten van AMD's partners als ASUS, Gigabyte en MSI wat mogen temperen. Deze zullen geheid wat sneller worden dan de referentiekaart, maar meer dan een paar procent zit er vermoedelijk niet in.

 

Conclusie

We hebben er lang op moeten wachten, veel te lang, maar nu is de nieuwe generatie AMD videokaarten met Vega GPU eindelijk beschikbaar. Na het testen van RX Vega 64 en 56 bekruipt ons toch een gevoel van too little, too late. Vermoedelijk heeft AMD er de afgelopen maanden alles aan gedaan om het prestatieniveau van het topmodel in de buurt te krijgen van de Nvidia GeForce GTX 1080. Nvidia's topmodel GTX 1080 Ti verslaan was bij voorbaat een kansloze missie. In de buurt komen van het prestatieniveau van de GTX 1080 is gelukt, maar vraag niet hoe. In onze Rise of the Tomb Raider stroomverbruiktest blijkt de Vega RX 64 120 watt méér nodig te hebben dan een GTX 1080 om hetzelfde niveau te behalen. Uit de geluidsproductietest blijkt wel dat de koeler op maximaal verdraagbare stand moeten draaien om het mogelijk te maken. 

Als je dan ook nog eens bedenkt dat AMD dankzij HBM2 geheugen in principe een voordeeltje heeft - HBM2 heeft lagere latencies dan GDDR5X en is energiezuiniger - dan mogen we wel concluderen dat AMD qua GPU-architectuur echt een ruime achterstand heeft op Nvidia. 

Voor de RX Vega 56 geldt dat deze kaart gemiddeld net wat sneller is dan de GeForce GTX 1070. Puur op basis van dit beperkte prestatieverschil zal de keuze voor voor een RX Vega 56 boven een GTX 1070 of een RX Vega 64 boven een GTX 1080 niet voor de hand liggen, zeker niet gezien het verschil in stroomverbruik. Dat maakt dat AMD uiteindelijk nog maar twee wapens heeft in de strijd om de gunst van de videokaartkoper: FreeSync en de prijs. FreeSync is en blijft een duidelijke pré; FreeSync monitoren zijn niet alleen aanzienlijk goedkoper dan gelijkaardige G-Sync modellen, het begint zelfs inmiddels een standaard feature te worden voor op gamers gerichte monitoren. Adaptive Sync is en blijft een mooie technologie om games vloeiend te kunnen spelen, ook als je videokaart niet altijd 60 fps of meer uitspuugt. Maar goed, of dit kopers over de streep trekt valt nog maar te bezien.

Dan de prijs; AMD zet scherp in. De Radeon RX Vega 64 kaarten $ 499 gaan kosten en RX Vega 56 kaarten $ 399. Voor de Benelux voorspelt onze glazen bol dan prijzen in de richting van € 549 en € 449. En ja, dat is scherper dan een GeForce GTX 1080 en 1070, die zo'n € 100 meer kosten. Qua prijs/prestatieverhouding pakt AMD dus (ruim) de voorsprong. Daarbij moeten we wel de kanttekening maken, dat het in een tijd dat videokaarten vooral worden opgekocht door coin-miners altijd maar de vraag is hoe het prijsverschil van dag tot dag uitpakt. Vooralsnog denken we niet dat Nvidia heel erg zenuwachtig wordt van de lancering van RX Vega. Daarnaast kan het groene kamp altijd nog de prijs verlagen - wat voor de consument alleen maar goed nieuws is.

Van de twee kaarten is de Radeon RX Vega 56 de meest interessante. Het gemiddelde prestatieverschil met z'n grote broer is slechts een dikke 10% terwijl het prijsverschil zal uitkomen op (ruim) € 100. De RX Vega 56 is ook overall net wat sneller dan z'n duurdere rivaal GeForce GTX 1070 - al heeft Nvidia voor hetzelfde prestatieniveau zoals geschreven wel veel minder stroom nodig. Vanwege het (te verwachten) aanzienlijke prijsverschil met de GTX 1070 is de RX Vega 56 als jet het stroomverbruik voor lief neemt een interessante optie. In vrijwel alle games behaalt de kaart in Ultra HD resolutie met maximale settings een minimale framerate boven de 40 fps. Wanneer je een FreeSync monitor hebt, is een soepele gameplay dan prima te realiseren.

AMD biedt dus een betere prijs/prestatie-verhouding met desalniettemin is Radeon RX Vega vermoedelijk niet de lancering waar AMD aan het begin van het ontwikkelproces op had gehoopt en ook zeker niet de lancering waar wij op hadden gehoopt. Het is goed dat AMD weer terug is in het marktsegment boven de 250 euro en het is zeker goed dat het een prijs/prestatieverhouding weet te bieden die beter is dan bij Nvidia. 

Mocht je dankzij de relatief scherpe prijs en ondanks het hoge stroomverbruik gecharmeerd zijn van Vega, dan zouden we je wel aanraden om nog even te wachten op de kaarten met custom koeler van bijvoorbeeld ASUS, Gigabyte, MSI en Sapphire. De geluidsproductie van de referentiekaarten is ons namelijk echt te gortig.


Besproken producten

Vergelijk alle producten

Vergelijk  

Product

Prijs

AMD Radeon RX Vega 56

AMD Radeon RX Vega 56

  • Vega 10
  • 3584 cores
  • 1156 MHz
  • 8192 MB
  • 2048 bit
  • DirectX 12 fl 12_1
  • PCI-Express 3.0 x16
Niet verkrijgbaar
AMD Radeon RX Vega 64

AMD Radeon RX Vega 64

  • Vega 10
  • 4096 cores
  • 1247 MHz
  • 8192 MB
  • 2048 bit
  • DirectX 12 fl 12_1
  • PCI-Express 3.0 x16
Niet verkrijgbaar
AMD Radeon RX Vega 64 Liquid Cooled

AMD Radeon RX Vega 64 Liquid Cooled

  • Vega 10
  • 4096 cores
  • 1406 MHz
  • 8192 MB
  • 2048 bit
  • DirectX 12 fl 12_1
  • PCI-Express 3.0 x16
Niet verkrijgbaar
0
*