Nvidia GeForce RTX 2080 & RTX 2080 Ti review: nieuwe generatie gebenchmarkt

238 reacties
3 besproken producten
Inhoudsopgave
  1. 1. Inleiding
  2. 2. Drie modellen: 2070, 2080 en 2080 Ti
  3. 3. Founders Editions en custom kaarten
  4. 4. Turing-architectuur: nieuwe cores, snellere shaders
  5. 5. Snellere caches, sneller geheugen
  6. 6. Rasterization vs. raytracing
  7. 7. Wat is raytracing?
  8. 8. Real-time raytracing
  9. 9. Tensor-cores: slimme trucs met AI
  10. 10. Nvidia's marketing in de hoogste versnelling: RTX-Ops
  11. 11. RTX-technologie: welke games?
  12. 12. Andere nieuwe rendermogelijkheden
  13. 13. Ondersteuning voor video en monitoren
  14. 14. SLI in het nieuw en overklokken voor dummy's
  15. 15. Testprocedure
  16. 16. Benchmarks: 3DMark Firestrike / Timespy
  17. 17. Benchmarks: Unigine Superposition
  18. 18. Benchmarks: Assassin's Creed Origins (DX11)
  19. 19. Benchmarks: Battlefield 1 (DX12)
  20. 20. Benchmarks: F1 2018 (DX11)
  21. 21. Benchmarks: Far Cry 5 (DX11)
  22. 22. Benchmarks: Forza Motorsport 7 (DX12)
  23. 23. Benchmarks: Ghost Recon: Wildlands (DX11)
  24. 24. Benchmarks: GTA V (DX11)
  25. 25. Benchmarks: Rise of the Tomb Raider (DX12)
  26. 26. Benchmarks: The Witcher 3: Blood & Wine (DX11)
  27. 27. Benchmarks: Total War: Warhammer II (DX12)
  28. 28. Benchmarks: Wolfenstein II: The New Colossus (Vulkan)
  29. 29. HDR
  30. 30. Benchmarks: Hardware.Info GPU Prestatiescore 2018-2
  31. 31. Testresultaten: Stroomverbruik
  32. 32. Testresultaten: Geluidsproductie
  33. 33. Conclusie
  34. 3 besproken producten
  35. 238 reacties

Nvidia's marketing in de hoogste versnelling: RTX-Ops

Inmiddels zal duidelijk zijn dat bij het renderen van een moderne game die gebruik maakt van real-time raytracing alle drie de soorten cores in gebruik zijn. De conventionele shader-cores (Cuda-cores in Nvidia-jargon) doen nog altijd het meeste werk, maar voor de raytracing effecten worden de RT-cores bijgeschakeld en voor het uiteindelijk afmaken van een frame komen ook nog de Tensor-cores om de hoek kijken.

Traditioneel konden Nvidia (en AMD) als simpele maat voor de prestaties van hun kaarten het maximale aantal floating-point operaties dat hun shader cores per seconde kunnen uitvoeren aanhouden, de zogenaamde Teraflops. Maar in een wereld met shader-cores, RT-cores en Tensor-cores is dat natuurlijk niet meer het complete verhaal. Tegelijkertijd is de maximale rekenkracht van de drie verschillende cores bij elkaar optellen ook onzinnig; enerzijds omdat de prestaties van de RT-cores überhaupt niet in Teraflops is uit te drukken, anderzijds omdat er nu binnen de shader-cores ook rekeneenheden zijn die helemaal niet met floating point getallen werken. Bovenal kunnen bij de Turing-chips zoals beschreven de drie chiponderdelen niet alle drie tegelijkertijd op volle kracht werken. De marketing dames en heren willen echter toch graag het niveau van prestaties van de kaarten in één getal vangen. Wat doe je dan? Dan bedenk je zelf maar wat... en dat zijn de zogenaamde RTX-Ops.

Marketing BS

Het hele concept van RTX-Ops is misschien wel de grootste - excusez le mot - marketing bullshit die we sinds tijden van Nvidia hebben gehoord, maar omdat de waardes prominent getoond zullen gaan worden op de dozen van RTX 20-serie kaarten en Nvidia de nieuwe "eenheid" actief wil gaan gebruiken, doen we toch maar even uit de doeken hoe het werkt.

In de "nieuwe wereld" zullen games, zoals op de vorige pagina's besproken, hybride worden gerenderd. Het gros van de scène wordt neergezet via rasterization. Parallel daaraan doen de RT-cores berekeningen voor belichtingseffecten, waarbij er integer én floatingpoint berekeningen van de shader cores nodig zijn om die te verwerken. Ten slotte schieten de Tensor-cores aan voor post-processing, zoals het opschonen van incomplete raytracing-berekingen. Veel zaken kunnen parallel, sommige zaken moeten achter elkaar en hoewel op meerdere momenten twee (of meer) onderdelen van de SM's actief zijn, zijn ze nooit allemaal tegelijkertijd actief.

Nvidia heeft becijferd dat in een "gemiddeld" scenario - waarbij het überhaupt twijfelachtig is hoe gemiddeld dit is, aangezien er simpelweg nog geen RTX-games beschikbaar zijn - de floating point shader cores 80% van de tijd actief zijn, de integer shader cores 28% van de tijd, de RT-cores 40% van de tijd en de Tensor-cores 20% van de tijd. Nvidia's oplossing? Pak de maximale verwerkingssnelheid van alle onderdelen, vermenigvuldig ze met deze percentages, tel het bij elkaar op en je hebt een maat voor de snelheid.

Dat FP32 en INT32 operaties echt wel iets anders zijn, dat van de Tensor-cores FP16-waardes worden meegenomen en dat je de snelheid van de RT-cores überhaupt niet in flops kunt uitdrukken en dat Nvidia daarom maar stelt dat ze 10 Tflops per gigaray doen omdat RT-cores 10x sneller zijn dan shader cores voor deze workload, moeten we volgens de fabrikant maar door de vingers zien. Iedereen met ook maar enige wetenschappelijke achtergrond zal inmiddels jeuk hebben.

Hoe dan ook, voor de RTX 280 Ti kom je zo op 0,80 * 14 + 0,28 * 14 + 0,40 * 100 + 0,20 * 114 = 77,92, afgerond 78. En zo komt met dus voor de RTX 2080 Ti voor 78 tera van de zelf bedacht RTX-Ops, tegen 60T RTX-Ops voor de RTX 2080 en 45T RTX-Ops voor RTX 2070.

Duidelijk? Mooi, dan mag je wat ons betreft deze onzin snel weer vergeten.


3 besproken producten

Vergelijk alle producten

Vergelijk   Product Prijs
Nvidia GeForce RTX 2070 8GB

Nvidia GeForce RTX 2070 8GB

  • TU106
  • 2304 cores
  • 1410 MHz
  • 8192 MB
  • 256 bit
  • DirectX 12 fl 12_1
  • PCI-Express 3.0 x16
Niet verkrijgbaar
Nvidia GeForce RTX 2080 8GB

Nvidia GeForce RTX 2080 8GB

  • TU104
  • 2944 cores
  • 1515 MHz
  • 8192 MB
  • 256 bit
  • DirectX 12 fl 12_1
  • PCI-Express 3.0 x16
Niet verkrijgbaar
Nvidia GeForce RTX 2080 Ti 11GB

Nvidia GeForce RTX 2080 Ti 11GB

  • TU102
  • 4352 cores
  • 1350 MHz
  • 11264 MB
  • 352 bit
  • DirectX 12 fl 12_1
  • PCI-Express 3.0 x16
Niet verkrijgbaar
0
*