Nvidia GeForce RTX 2080 & RTX 2080 Ti review: nieuwe generatie gebenchmarkt

238 reacties
3 besproken producten
Inhoudsopgave
  1. 1. Inleiding
  2. 2. Drie modellen: 2070, 2080 en 2080 Ti
  3. 3. Founders Editions en custom kaarten
  4. 4. Turing-architectuur: nieuwe cores, snellere shaders
  5. 5. Snellere caches, sneller geheugen
  6. 6. Rasterization vs. raytracing
  7. 7. Wat is raytracing?
  8. 8. Real-time raytracing
  9. 9. Tensor-cores: slimme trucs met AI
  10. 10. Nvidia's marketing in de hoogste versnelling: RTX-Ops
  11. 11. RTX-technologie: welke games?
  12. 12. Andere nieuwe rendermogelijkheden
  13. 13. Ondersteuning voor video en monitoren
  14. 14. SLI in het nieuw en overklokken voor dummy's
  15. 15. Testprocedure
  16. 16. Benchmarks: 3DMark Firestrike / Timespy
  17. 17. Benchmarks: Unigine Superposition
  18. 18. Benchmarks: Assassin's Creed Origins (DX11)
  19. 19. Benchmarks: Battlefield 1 (DX12)
  20. 20. Benchmarks: F1 2018 (DX11)
  21. 21. Benchmarks: Far Cry 5 (DX11)
  22. 22. Benchmarks: Forza Motorsport 7 (DX12)
  23. 23. Benchmarks: Ghost Recon: Wildlands (DX11)
  24. 24. Benchmarks: GTA V (DX11)
  25. 25. Benchmarks: Rise of the Tomb Raider (DX12)
  26. 26. Benchmarks: The Witcher 3: Blood & Wine (DX11)
  27. 27. Benchmarks: Total War: Warhammer II (DX12)
  28. 28. Benchmarks: Wolfenstein II: The New Colossus (Vulkan)
  29. 29. HDR
  30. 30. Benchmarks: Hardware.Info GPU Prestatiescore 2018-2
  31. 31. Testresultaten: Stroomverbruik
  32. 32. Testresultaten: Geluidsproductie
  33. 33. Conclusie
  34. 3 besproken producten
  35. 238 reacties

Andere nieuwe rendermogelijkheden

Als we alle raytracing en AI trucs even laten voor wat het is, biedt de Turing-generatie gpu's ook nog verschillende andere nieuwe rendertechnieken. Mesh Shaders zijn een nieuwe manier om scènes met extreem veel objecten te renderen en dankzij Variable Rate Shading kun je binnen één frame met verschillende resoluties c.q. nauwkeurigheden werken.

Mesh Shaders

De afgelopen jaren is het aantal objecten dat op enig moment zichtbaar kan zijn in 3D-games flink toegenomen, maar toch is er op dat vlak nog altijd nog een beperking. Zoals we bij onze uitleg over de rasterization methode al toelichtten, is het traditioneel de taak van de cpu om alle objecten te verzamelen, te positioneren in de virtuele ruimte en door te zetten naar de gpu (dat laatste is een draw call in jargon). Die taak is in de praktijk nog complexer: 3D-objecten kunnen tegenwoordig makkelijk uit duizenden of zelfs tienduizenden driehoeken bestaan. Handig als je een object heel dichtbij ziet en bijna beeldvullend in zicht hebt, maar volstrekt onnodig als datzelfde object zich ergens ver weg bevindt en een paar pixels beslaat.

Om maar weer even het verband met een game te leggen: een boom of huis in een game als Fortnite (of welke game dan ook) kan uit extreem veel driehoeken bestaan voor veel detail, maar om dezelfde boom of hetzelfde huis ook op lange afstand in het klein weer te kunnen geven zonder dat dit teveel impact heeft op de prestaties, heeft de game ook een simpelere uitvoering van het object die bestaat uit minder driehoeken. En zo bestaan in huidige games voor vrijwel alle objecten meerdere versies, verschillend in detail en complexiteit. De processor moet niet alleen alle objecten plaatsen en doorsturen naar de gpu, maar binnen dat proces óók de juiste LOD (Level of Detail) variant uitkiezen.

Aangezien we allemaal graag gamen met (minimaal) 60 beelden per seconde en liefst zelfs met 120 beelden per seconde, mag het compleet berekenen van een frame in de praktijk maximaal 16 respectievelijk 8 milliseconde duren. In de praktijk is het tijdsbudget voor de CPU om objecten klaar te zetten maximaal ruwweg 2 ms. Lukt het de processor niet om alle objecten in deze tijd te verwerken, dan zakken je prestaties in en zul je in de game het detailniveau moeten terugschroeven.

Als in een theoretische scene 200.000 objecten zouden staan, zou de processor per object maximaal 10 ns kunnen besteden. Dat is zelfs voor de snelste CPU's te veel gevraagd.

Hier komt Mesh Shading om de hoek kijken. Bij deze technologie neemt Nvidia de conventionele 3D-rendering pipeline op de schop en verlegt het nog meer werk dan voorheen van de cpu naar de gpu. Wanneer dit gebruikt wordt is de processor nog altijd verantwoordelijk voor het doorsturen van alle objecten (de draw calls), maar neemt de gpu het bepalen van de LOD-varianten van alle objecten op zich. Al die verschillende varianten van de 3D-modellen kunnen dan ook in het geheugen van de videokaart opgeslagen staan, wat natuurlijk veel sneller te benaderen is dan het werkgeheugen van de CPU. De shader cores bouwen vervolgens de objecten verder op en kunnen dan in één keer ook direct tesselation (het geautomatiseerd verhogen van het detail van objecten) meenemen.

Mesh shading is nu nog een theoretisch concept; er is nog geen ondersteuning in bijvoorbeeld DirectX en zodoende zijn er ook zeker nog geen games op komst die het zullen gebruiken. Mocht Nvidia hier api-ontwikkelaars en game-ontwikkelaars voor geënthousiasmeerd krijgen, dan is het in potentie echter een interessante technologie die de cpu-afhankelijkheid van games verder kan verkleinen (en vanuit Nvidia's verkoopafdeling beredeneerd: gamers nog meer kan dwingen om meer te investeren in een zware gpu dan in een zware cpu).

Variable Rate Shading

Een ander nieuwtje is Variable Rate Shading, een technologie die in principe al bestaat (en bij VR-headsets al wordt toegepast), maar waar nu hardwarematige support voor komt. Wat VRS doet is dat het ene gedeelte van een frame minder nauwkeurig (lees: op een lagere resolutie) wordt gerenderd dan een ander deel. Waarom zou je dat willen? Er zijn voldoende redenen denkbaar.

Stel, je hebt een 4K-scherm, maar je videokaart is in principe niet snel genoeg om de game die je speelt met alle pracht en praal in deze resolutie te renderen. Bij VRS kan de developer aangeven welke gedeeltes van een frame veel detail hebben of in het centrum van de actie (en daarmee in het centrum van je blikveld) zitten. Die gedeeltes kunnen dan op volle resolutie gerenderd worden, terwijl de gedeeltes met minder detail of gedeeltes waar je vermoedelijk toch niet naar kijkt bijvoorbeeld op slechts de helft of een kwart van de resolutie kunnen worden gerenderd.

Een scenario waarin VRS heel goed toegepast kan worden is bij virtual reality headsets. De lenzen daarin vervormen het beeld altijd, waardoor beelden aan de rand een beetje bij elkaar geknepen worden. Aangezien daar uiteindelijk toch veel detail verloren gaat, is het helemaal niet nodig om de randen op volle resolutie te renderen. Nog een voorbeeld: het is een wetenschappelijk feit dat het menselijk oog bij snelle beweging minder scherpte ziet. Bij bijvoorbeeld een race-game is het zodoende eigenlijk onzinnig om de weg die onder je auto doorschiet op volle resolutie te renderen, je ziet het verschil met een lagere resolutie toch niet.

Ook hier geldt weer: er moet ondersteuning zijn in api's voordat game-developers hiervan gebruik willen maken. Vermoedelijk zullen Oculus en Valve snel van hardwarematige ondersteuning voor VRS gebruik gaan maken voor hun low-level VR api's voor hun VR-headsets. Van Microsoft hebben we qua ondersteuning in DirectX nog niets gehoord. Nvidia heeft wel al een eigen uitbreiding gemaakt op Vulkan en op basis daarvan een proof-of-concept ontwikkeld op basis van de Wolfenstein II game. Die demo kregen we tijdens de presentatie van de GeForce RTX kaarten te zien en op basis van de snelle demo moeten we inderdaad voorzichtig concluderen dat VRS een effectief middel kan zijn om de prestaties van een game te verbeteren, zonder zichtbaar op beeldkwaliteit in de boeten. Het is geheel de vraag of, wanneer en in welke mate dit door game-developers opgepakt gaat worden.


3 besproken producten

Vergelijk alle producten

Vergelijk   Product Prijs
Nvidia GeForce RTX 2070 8GB

Nvidia GeForce RTX 2070 8GB

  • TU106
  • 2304 cores
  • 1410 MHz
  • 8192 MB
  • 256 bit
  • DirectX 12 fl 12_1
  • PCI-Express 3.0 x16
Niet verkrijgbaar
Nvidia GeForce RTX 2080 8GB

Nvidia GeForce RTX 2080 8GB

  • TU104
  • 2944 cores
  • 1515 MHz
  • 8192 MB
  • 256 bit
  • DirectX 12 fl 12_1
  • PCI-Express 3.0 x16
Niet verkrijgbaar
Nvidia GeForce RTX 2080 Ti 11GB

Nvidia GeForce RTX 2080 Ti 11GB

  • TU102
  • 4352 cores
  • 1350 MHz
  • 11264 MB
  • 352 bit
  • DirectX 12 fl 12_1
  • PCI-Express 3.0 x16
Niet verkrijgbaar
0
*