20 jaar 3D-chips - Deel 1: de opkomst van de 3D graphics

51 reacties
Inhoudsopgave
  1. 1. Inleiding
  2. 2. Grafische prehistorie
  3. 3. 1995: Eerste 3D-chips
  4. 4. De kaart die alles veranderde
  5. 5. Inhaalslag
  6. 6. En er was meer...
  7. 7. Voodoo2 met SLI
  8. 8. Reacties

Inleiding

Het is amper 20 jaar geleden dat de eerste 3D-videokaarten voor de PC op de markt kwamen. In dat korte tijdsbestek hebben deze zich ontwikkeld tot een punt waar moderne GPU’s bijna niet van echt te onderscheiden 3D-beelden kunnen berekenen. Wat gebeurde er allemaal tussen toen en nu? Hardware.Info duikt in de historie van de GPU.

 

Wie anno 2014 games als Battlefield 4 of Watch Dogs speelt op een state-of-the-art PC, krijgt ongekend mooie 3D-beelden voorgeschoteld. De nieuwste generaties grafische chips (GPU’s) bestaan uit miljarden transistors en kunnen biljoenen berekeningen per seconden uitvoeren. Hoewel de ontwikkelingen bij GPU’s de laatste tijd wat langzamer gaan dan voorheen, is elke generatie nog altijd duidelijk beter dan de voorgaande. Zolang 3D-beelden van de PC nog van echt te onderscheiden zijn en zolang de individuele pixels nog zichtbaar op de schermen zijn, valt er nog genoeg te verbeteren. Dat gezegd hebbende, hebben bedrijven als AMD, Nvidia en de andere 3D graphics-pioniers er de afgelopen jaren een wilde rit op zitten.

In een reeks artikelen bespreken we de belangrijkste 3D-videokaarten die de afgelopen twintig jaar de levenslicht hebben gezien: van het grote aantal uiteenlopende modellen van begin jaren ’90 tot de 3Dfx Voodoo kaart die de hele PC-wereld op z’n kop zette, via de eerste chips die de gehele 3D-pipeline hardwarematig konden versnellen tot de huidige, supersnelle en volledig programmeerbare GPU’s zoals die tegenwoordig in onze PC’s zitten. Eerst gaan we echter even terug naar het begin van de videokaartgeschiedenis, toen 2D al heel wat was...

Grafische prehistorie

IBM maakte in haar eerste Personal Computer, de verre voorloper van de hedendaagse PC uit 1981, gebruik van een videokaart gebaseerd op de Motorola MC6845 chip, die ook dienst deed in de Apple II computer. Op basis van deze chip ontwierp IBM de CGA-standaard, wat staat Color Graphics Adapter. Stel je van dat “color” niet te veel voor: vrijwel alle PC’s uit de begin tijden hadden monochrome beeldschermen. Als je al een super-de-luxe CGA-kleurenscherm had, kreeg je daar welgeteld vier verschillende kleuren uit een palet van 16 op te zien. Dat was namelijk wat de CGA-standaard te bieden had, op een maximale resolutie van 320 bij 200 pixels. Een resolutie van 640x200 pixels was ook mogelijk, maar dan met slechts twee kleuren.

IBM maakte in eerste instantie zelf CGA-videokaarten, maar toen in de tweede helft van de jaren ‘80 de markt voor kloon-PC op stoom kwam, stapten ook andere fabrikanten in die markt. Namen als Tseng Labs en Number Nine Graphics zullen alleen een belletje doen rinkelen bij wie zich al net al zolang als de PC bestaat in de technologie interesseert. Eén van de videokaartmakers uit de begintijd zou echter uitgroeien tot een van de drie grootste spelers: het in 1985 opgerichte Array Technology Inc, beter bekend als ATI, tegenwoordig onderdeel van AMD.

In 1984, vlak voordat de markt voor kloon-PC’s echt zou exploderen, introduceerde IBM de EGA-standaard, ofwel de Enhanced Graphics Adapter. EGA maakte het mogelijk om 320x200 en 640x200 resoluties met 16 kleuren weer te geven. Hiermee konden je eindelijk echte kleuren zien: blauw, groen, rood, geel en zo verder. Helaas voor wie in ons land de voetbalspellen uit die tijd wilde spelen, maakte oranje geen deel uit van het standaard EGA-kleurenpallet, maar dat mocht de pret niet drukken.

In 1987 zag de VGA-standaard het levenslicht, met vele nieuwe mogelijkheden. Een resolutie van 320x200 met 256 kleuren zorgde ervoor dat PC games er voor het eerst écht mooi uit gingen zien. Een tweede novum was de voor die tijd hoge 640x480 resolutie, zij het met slechts 16 kleuren. Het aantal fabrikanten dat eind jaren ‘80 en begin jaren ‘90 VGA-compatible chips ontwikkelde was een stuk groter dan nu. Naast de al genoemde namen waren er producten van onder meer Chips and Technologies, S3, Matrox, Plantronics, Paradise Systems, Cirrus Logic en zo kunnen we nog wel even door gaan. Op de VGA-standaard werd nog jaren doorgeborduurd, met standaarden als SVGA, XGA en ontelbare andere varianten met telkens hogere resoluties en meer kleuren. Wat alle videokaarten tot halverwege de jaren ‘90 echter gemeen hadden, is dat ze puur geschikt waren om 2D-beelden te produceren.

Desondanks werden de chips, die nog zeker niet GPU konden worden bestempeld, steeds slimmer. Met de opkomst van grafische besturingssystemen als Windows ontstond een markt voor 2D accelerators: kaarten die onder meer het verplaatsen van vensters konden versnellen door niet alles opnieuw te berekenen. Dergelijke 2D-kaarten konden vaak ook zelf 2D-objecten tekenen: in plaats van dat de CPU als vanouds alle pixels moet voorkoken, kon je zo’n 2D-versneller taken geven als “teken een lijn van die pixel tot die pixel” of “teken een vierkant met deze afmetingen op die positie”.  Ook kwamen begin jaren ‘90 de eerste kaarten op de markt die videobeelden enigszins konden versnellen. Het was echter wachten tot 1995 totdat de eerste chips met specifieke 3D-functionaliteit op de markt kwamen.


De Tseng Labs ET6000, een van de laatste zeer populaire 2D-videokaarten voordat de 3D-revolutie begint.

Wolfenstein 3D

De 3D-revolutie op de PC begon begin jaren 90 met het verschijnen van de eerste 3D-games. Het bekendste (maar niet eerste) voorbeeld is natuurlijk Wolfenstein 3D, één van de eerste first person shooters. Wat al deze games uit begin jaren ‘90 gemeen hadden, is dat alle 3D-beelden door de CPU berekend werden, waarna ze als 2D-beeld door de videokaart werden weergegeven. De opkomst en populariteit van dergelijke games, maar ook het feit dat PC’s steeds meer voor professionele 3D-toepassingen werd ingezet, zorgde ervoor dat verschillende fabrikanten aan de slag gingen met iets dat een ware revolutie zou blijken.

In 1992 introduceerde SGI versie 1.0 van de OpenGL API, de eerste programmeeromgeving waarmee ontwikkelaars op een gestandaardiseerde manier 3D-beelden konden berekenen. Hoewel oorspronkelijk bedoeld voor professionele 3D-graphics, duurde het niet lang voordat game-ontwikkelaars ook interesse kregen. Wie zeker niet geïnteresseerd was in het ondersteunen van OpenGL was Microsoft, dat begin jaren ‘90 ook door had dat 3D-beelden op de PC nog wel eens heel groot zouden kunnen worden. De gigant uit Redmond begon echter met de ontwikkeling van een eigen API, die juist primair op games was gericht. DirectX / Direct3D zou in 1995 samen met Windows 95 geïntroduceerd worden. In hetzelfde jaar kwamen de eerste videokaarten met specifieke 3D-functies op de markt.


Wolfensteind 3D, één van de eerste 3D-games, maar aangezien 3D-chips er nog niet zijn volledig gerenderd op de CPU

1995: Eerste 3D-chips

Eén van de eerste 3D-kaarten uit dit bijzondere jaar 1995 was tevens de eerste chip van het in 1993 opgerichte Nvidia. De NV1 chip, die in samenwerking met ST Microelectronics werd geproduceerd, vonden we onder meer terug op de Diamond Edge 3D videokaart. Deze kaart ondersteunde PC-ports van diverse Sega games en kon hardwarematig 3D-werelden berekenen, opgebouwd uit vierkanten. Dat laatste is direct de doodsteek voor de chip: een paar maanden na de introductie van de NV1 kwam Microsoft met Windows 95 en DirectX 1.0, dat geheel ontwikkeld was rond het concept van driehoekige polygonen, wat in PC 3D-graphics tot op de dag van vandaag het basisconcept is. Zelfs met allerhande speciale drivers werd de NV1 niet compatible met DirectX en game developers zagen er geen brood in om titels te ontwikkelen specifiek voor deze kaart, die vrijwel niet verkocht werd. De NV1 flopte genadeloos, maar Nvidia liet zich niet uit de weg slaan.


De Diamond Edge 3D met Nvidia NV1 chip (de ST STG2000X).

Wel geschikt voor DirectX is de eveneens in 1995 geïntroduceerde S3 ViRGE en diens opvolgers, wat stond voor Virtual Reality Graphics Engine. Jawel; ruim 20 jaar voor de introductie van de Occulus Rift was VR ook al een marketingterm waarmee fabrikanten graag te koop liepen. De ViRGE liet het gros van de berekeningen voor 3D-beelden nog altijd over aan de CPU, maar kon een klein aantal zaken hardwarematig versnellen, waaronder texturing, het via bilinear en trilinear filtering plakken van afbeeldingen (textures) op de driehoeken waaruit 3D-werelden zijn opgebouwd. De op maximaal 66 MHz werkende ViRGE-chips deden dit echter alles behalve snel: sterker nog, in de meeste gevallen kreeg je betere prestaties wanneer je de CPU al het werk liet doen. In de volksmond werd de ViRGE al snel een 3D-decelerator genoemd. Overigens waren kaarten gebaseerd op de chip wel erg populair vanwege de prima 2D-mogelijkheden en de scherpe prijs.

Ook ATI introduceerde haar eerste 3D-chip, de 3D Rage, in 1995. Deze chip was gebaseerd op de 2D-engine van de al bestaande Mach64 met extra 3D-mogelijkheden. Die waren beperkt: mede dankzij de kleine hoeveelheid geheugen (2 MB van het langzamere EDO RAM type) kon 3D enkel worden weergegeven in 640x480 met 16-bit kleur of 400x300 met 32-bit kleur. De 3D Rage was op papier DirectX compatible, maar aangezien Microsoft diverse last minute aanpassingen deed, was de compatibiliteit in de praktijk om te huilen. In 1996 kwam al snel opvolger Rage 3D II, waarbij de DirectX compatibiliteit werd verbeterd en meer en sneller geheugen was toegepast. Desalniettemin kon de kaart qua 3D nog steeds niet echt overtuigen, al viel hij wel op door de MPEG2-versnelling, dankzij welke de Rage II één van de eerste videokaarten geschikt voor DVD-weergave was.

Een andere GPU  uit deze periode die beslist genoemd moet worden is de Rendition Verite 1000. Rendition was één van de in de jaren ‘90 gestarte bedrijven die als ambitie had om marktleider te worden op het vlak van 3D PC-graphics. Kaarten met deze eerste Rendition 3D-chip werden onder meer verkocht door Canopus. De Verite 1000 was compatible met DirectX 2.0 maar had, zoals gebruikelijk in de beginjaren van versnelde 3D-graphics ook een eigen API. Een slimme zet van Rendition was een samenwerking met John Carmack, waardoor de Verite 1000 de eerste videokaart werd die een 3D-versnelde versie van Quake kon spelen, VQuake. Matige 2D-prestaties en complexe aansturing zorgden er echter voor dat deze kaart uiteindelijk weinig succesvol was.

Een laatste GPU die we uit deze 1995/1996-periode moeten noemen is de originele Kyro chip van Videologic, het latere Imagination Technologies. Deze in samenwerking met NEC geproduceerde chip maakte gebruik van Tiled Rendering, een methode waarbij het beeld eerst in kleine vierkanten (tiles) wordt opgedeeld, die daarna één voor één worden doorgerekend. Ondanks dat de Kyro nog verschillende opvolgers kreeg, is deze technologie in de PC wereld nooit echt van de grond gekomen. Het grootste wapenfeit is vermoedelijk de toepassing in de bijzondere, maar geflopte Dreamcast console van 1998. De prestaties in de PC wereld konden nooit gelijke tred houden bij de concurrerende kaarten. De technologie zelf is echter zeer efficiënt en jaren na dato is Imagination Technologies nog altijd eigenaar van PowerVR, één van de meest succesvolle architecturen voor geïntegreerde GPU’s voor smartphone- en tabletchips, en onder andere hofleverancier van Apple.


De S3 ViRGE, ookwel bekend als de "3D decelerator"

De kaart die alles veranderde

De revolutie op het gebied van 3D-gaming op de PC kwam er uiteindelijk in 1996, dankzij de in november geïntroduceerde Voodoo-chip van nieuwkomer 3Dfx, destijds nog geschreven met een hoofdletter D. De Voodoo-kaarten waren alleen geschikt voor 3D en moesten via een externe kabel doorgelust worden op een bestaande 2D-kaart, die voor het aansturen van de monitor moest zorgen. In 3D was de Voodoo-chip echter heel goed. Geen enkele chip uit die tijd kon in de buurt van de prestaties van de Voodoo komen. Hoewel de chip compatible was met DirectX 3.0, was het voornamelijk de eigen Glide API die de kaart succesvol maakte. In korte tijd verschenen er speciale Voodoo-versies van populaire 3D-games als Quake en Tomb Raider, die er veel beter uitzagen dan wanneer de CPU de weergave van de 3D-wereld geheel zelfstandig moest verzorgen.

Het verschil in beeldkwaliteit en prestaties was zo groot dat Voodoo-kaarten ondanks de fikse prijs van 600 à 700 gulden als warme broodjes over de toonbank gingen. In een computerwinkel hoefde je liefhebbers maar een minuut door Voodoo versnelde 3D-games te laten zien en men was verkocht. Binnen een jaar tijd had 3Dfx ruim 80% van de 3D-markt in handen en hadden bedrijven als S3 het nakijken. 3Dfx verkocht zelf aanvankelijk geen videokaarten, maar liet dat over aan merken als Canopus, Miro en 2TheMax. In Nederland was het voornamelijk Diamond dat onder de naam Monster 3D de kaarten met pallets tegelijkertijd kon wegzetten.

De 3Dfx Voodoo had echter zijn beperkingen: zo kon 3D enkel in full-screen modus versneld worden en was de resolutie beperkt tot 800x600. Maar toch: voor PC-gamers was er in 1997 maar één juiste keuze en dat was deze kaart.


De 3Dfx Voodoo, de kaart die alles veranderde


De eerste Tomb Raider game met software rendering...


... en met een 3Dfx Voodo kaart, een wereld van verschil.


De 3Dfx-versie van de eerste Quake was voor velen een reden om een Voodoo-kaart te kopen.

Inhaalslag

Waar 3Dfx met de Voodoo eind 96 de hele markt wakker schudden, waren 1997 en 1998 de jaren waarin de concurrentie probeerde het succes te evenaren. Het zwakke punt van de Voodoo-kaart was natuurlijk dat deze gecombineerd moest worden met een aparte 2D-videokaart, niet bepaald de meest elegante of voordelige oplossing. Menigeen probeerde zodoende gecombineerde 2D/3D-chips te maken die het prestatieniveau van Voodoo konden evenaren.

Nvidia introduceerde in 1997 de op de NV3-chip gebaseerde Riva 128. Voor wie zich afvraagt wat er met de NV2 chip is gebeurd: de plannen waren er, omdat het NV2 ontwerp op dezelfde vierhoekige polygonen als de NV1 was gebaseerd, zag Nvidia zich genoodzaakt dat project te beëindigen. De NV3 was geheel ontwikkeld rond de DirectX 5 standaard en dat was een gouden greep, aangezien die API snel erg populair bleek. De Riva 128 maakte gebruik van de nieuwe AGP 2X interface, had 4MB geheugen en werkte op een voor die tijd hoge klokfrequentie van 100 MHz. Noch qua 3D-beeldkwaliteit noch qua 3D-prestaties haalde de Riva 128 het bij de Voodoo, maar de prima prijs-prestatieverhouding en uitstekende DirectX compatibiliteit maakten de kaart toch populair en Nvidia tot een partij om rekening mee te houden.


Nvidia’s derde GPU, de NV3 ofwel Riva 128, is de eerste in een lange rij succesvolle producten

ATI introduceerde in hetzelfde jaar de Rage Pro, eveneens een AGP 2x kaart met DirectX 5 en 6 compatibiliteit. De Rage Pro was qua prestaties op z’n minst redelijk en was absoluut succesvol, al was het maar dankzij de vele OEM-deals van ATI. Het was tegelijkertijd één van de originele redenen waarom het stigma van “waardeloze drivers” dat ATI/AMD tot op de dag van vandaag achtervolgt: compatibiliteitsproblemen met games waren er geregeld. Het was ook voor zover wij weten de eerste keer dat het fenomeen “benchmarketing” plaats vond. Een tijd na de introductie van de Rage Pro kwam ATI namelijk met de Rage Pro Turbo op de proppen, gebaseerd op dezelfde chip, maar op het oog sneller dankzij verbeterde drivers. Die versnelling bleek in de praktijk echter alleen aanwezig te zijn bij een klein aantal in die tijd populaire games.

Rendition introduceerde in 1997 de Verite 2000-reeks. Deze kaarten waren DirectX 5 compatible en qua 3D duidelijk sneller en geavanceerder dan hun voorloper, maar behaalden bij lange na niet het niveau van de Voodoo. De 2D-mogelijkheden van Rendition bleven bovendien ook achterlopen. Kort na de introductie van de serie werd het bedrijf overgenomen door Micron, dat de interesse in videokaarten al snel verloor en de Verite-lijn de nek omdraaide.

3Dfx wilde in 1997 ook zelf een antwoord hebben op de gecombineerde 2D/3D kaarten en introduceerde de Voodoo Rush, een AGP / PCI kaart gebaseerd op een 2D-chip van afhankelijk van het type Rush-kaart van Alliance of Macronix, die werd gecombineerd met een 3Dfx Voodoo-kaart op een gekoppelde tweede PCB. De Rush was duidelijk langzamer dan de originele Voodoo, aangezien de 2D- en 3D-chips de toegang tot het aanwezige geheugen moesten delen. Daardoor werkte de 3D-chip ook maar in maximaal 512x384. Bovendien waren de gekozen 2D-chips zelfs voor die tijd al ouderwets. De Rush was dan ook weinig succesvol.

En er was meer...

Een aantal andere GPU’s uit 1998 moeten we toch kort ook even noemen. S3 kwam met de Savage 3D, feitelijk de eerste échte 3D-chip van het merk. Het was de eerste middels het 0,25 µm procedé geproduceerde 3D-chip en puur afgaande op de specs leek de chip zo gek niet. Toch hoeven we er weinig woorden aan vuil te maken: de drivers waren dusdanig slecht, dat je moeite moest doen om een game te vinden die probleemloos speelbaar was. Matrox introduceert de G200 en G220, de eerste voor games geschikte chips van het al sinds begin jaren ‘80 actieve bedrijf. De chips werden geroemd om de 2D- en 3D-beeldkwaliteit en in DirectX modus waren de prestaties niet slecht. De toen nog zo belangrijke OpenGL prestaties waren echter dramatisch en ook bij deze kaart waren er voldoende driverproblemen om het geen echt alternatief voor gamers te maken. Ten slotte introduceerde Intel in 1998 haar eerste en enige losse GPU, de i740. De voornaamste reden om deze kaart te introduceren was het promoten van de nieuwe AGP-standaard. Ondanks de financiële slagkracht van Intel en de op dat moment ook al state-of-the-art productieprocedé’s, viel de i740 op alle vlakken tegen. Zelfs enorme prijsverlagingen konden geen succes maken van de kaart.


De S3 Savage 3D, hier op een MSI videokaart, was S3’s eerste échte 3D-chip, maar faalde mede dankzij slechte drivers


De Matrox G200 werd geroemd om de 2D-beeldkwaliteit, maar konde mede dankzij matige OpenGL prestaties moeilijk doorbreken bij gamers.


De i740 was Intel eerste en enige losse GPU. Hier op een Real3D Starfighter videokaart.

1998 was ook het jaar dat er veel te doen was om de eind 1997 aangekondigde Pyramid3D chip van het Finse BitBoys, dat was ontstaan uit de demo-scene. De Pyramid3D zou volgens de beloftes iedere 3D-chip finaal van de kaart vegen, maar hij is net als z’n aangekondigde opvolgers Glaze3D en Avalanche3D nooit op de markt komen. Het BitBoys team is overigens jaren later – in 2006 om precies te zijn – voor $ 44 miljoen overgenomen door ATI. Een paar maanden later nam AMD op haar beurt ATI weer over en in 2009 werd de mobiele business unit waar de BitBoys mannen werkten verkocht aan Qualcomm. Het is vermoedelijk de domste belissing die het AMD management ooit heeft gemaakt: niet veel later explodeerde de markt voor mobiele GPU’s en werd het voormalige team zeer succesvol met de Qualcomm Adreno GPU’s.



Turok op de 3Dfx Voodoo (boven) en ATI Rage Pro (onder). Het slechte driver imago heeft ATI mede aan deze kaart te danken. Maar… in die tijd waren er maar weinig kaarten buiten 3Dfx die games foutloos konden renderen.

Voodoo2 met SLI

Waar in 1997 en 1998 alle ontwerpers van 3D-chips hun best deden om de prestaties en beeldkwaliteit van de 3Dfx Voodoo te evenaren, deed 3Dfx er vlak voor de zomer van 1998 nog een stapje bovenop met introductie van de Voodoo2. Opnieuw een kaart die gekoppeld moest worden met een bestaande 2D-videokaart en alles behalve goedkoop was, maar de prestaties waren ongekend. De Voodoo2 bestond uit drie chips en bevatte onder meer twee texture units. Veel beperkingen van het eerste model bleven echter bestaan: zo werkten de chips met maximaal 16-bit kleur, was de resolutie nog altijd beperkt tot 800x600 en kon 3D enkel full-screen gerenderd worden. De beeldkwaliteit, prestaties en compatibiliteit waren echter zo goed, dat de 3Dfx Voodoo2 net als zijn voorloper een directe hit werd.

Een belangrijke factor daarbij was een bijzondere nieuwe technologie van 3Dfx: dankzij SLI konden twee Voodoo2-kaarten gecombineerd worden om nóg betere prestaties te krijgen. De originele uitleg van de term SLI, Scan Line Interleave, geeft aan hoe de technologie werkt: de ene kaart berekent de even beeldlijnen, de andere kaart de oneven. Later zou Nvidia de term opnieuw introduceren, maar dan als Scalable Link Interface. Dankzij SLI is een resolutie van 1024x768 mogelijk en nemen de prestaties toe, al liep je in 1998 al snel tegen een CPU-bottleneck aan. Wie er geen problemen in zag om ruim 1000 gulden stuk te slaan, haalde met twee Voodoo2’s een prestatieniveau in huis waar geen enkele andere kaart bij in de buurt kon komen.


Je kon twee 3Dfx Voodoo2 kaarten combineren in een SLI-opstelling voor extra power

To be continued...

De kaarten leken geschud; 3Dfx had alles in zich om dé speler op het gebied van 3D-videokaarten te blijven. Echter, zo snel als het bedrijf opkwam, ging het ook weer neer. In 1999 begon de periode waarin ATI en Nvidia zich zouden ontpoppen tot dé twee spelers in deze markt, die aan de lopende band nieuwe technologieën introduceerden. In het volgende deel, dat je nu al kunt lezen in Hardware.Info Magazine #1/2015, lees je daar meer over en zullen we zien hoe chips als Nvidia’s TNT en de latere Nvidia GeForce en ATI Radeon chips de concurrentie buiten spel zetten.

0
*