Gigabyte 3D1 Dual GeForce 6600 GT Videokaart Quick-Test

19 reacties
Inhoudsopgave
  1. 1. Gigabyte 3D1
  2. 2. Benchmarks
  3. 3. Conclusie
  4. 19 reacties

Gigabyte 3D1

Als er iets is dat het hart van menig hardwareliefhebber de laatste maanden harder heeft doen kloppen dan is het wel de nieuwe SLI-technologie van nVidia. Door de kracht van twee videokaarten te bundelen zijn ongekende 3D-prestaties mogelijk. In Hardware.Info Magazine #6/2004 besteedden we al uitgebreid aandacht aan SLI, in december belandden we in de top 10 van de wereldranglijst 3DMark-scores dankzij SLI en inmiddels hebben we ook de SLI moederborden van ASUS, MSI en Gigabyte uitgebreid besproken. De SLI-technologie heeft de ingenieurs van Gigabyte duidelijk geïnspireerd en aangezet tot het uitdokteren van unieke producten. Het resultaat daarvan is de Gigabyte 3D1, een nieuwe videokaart met daarop een tweetal GeForce 6600 GT chips, samenwerkend volgens het SLI-principe. Met de 3D1 heb je dus in principe SLI op één videokaart. Het ei van Columbus? Helaas niet helemaal zoals zal blijken...

Dual-chip in het verleden

Gigabyte is niet de eerste die twee 3D-chips op één consumenten videokaart plaatst. In het verleden is dit trucje vaker toegepast, al zijn alle gebruikte toepassingen verre van succesvol geweest. In Juli 2000 las je op deze site een test van de 3dfx Voodoo5 5500, een kaart met twee 3dfx VSA-100 3D-chips aan boord. Zelfs met deze dual-chip kaart kon 3dfx zich niet meer verweren tegen de succesvolle single-chip producten van nVidia en niet lang na de introductie van de Voodoo5 stond 3dfx aan de rand van de financiële afgrond en was een vijandige overname door aartsrivaal nVidia het gevolg. De tweede dual-chip videokaart die we de afgelopen jaren op de markt hebben zien verschijnen was de ATI Rage Fury Maxx, een kaart met twee ATI Rage 128 3D-chips. Toen een paar maanden na de introductie van de Fury Maxx het besturingssysteem Windows 2000 uitkwam, bleek echter dat het ATI niet lukte om geschikte drivers af te leveren en zodoende bleef het gebruik van de Fury Maxx beperkt tot Windows 98. Het zal niemand verbazen dat ook deze kaart zodoende weinig succesvol was. De laatste fabrikant die een avontuur aandurfde met een dual-chip videokaart is XGI. De Volari Duo V8 pronkte op de cover van Hardware.Info Magazine #1/2004, maar in onze test moesten we concluderen dat XGI met twee 3D-chips nog niets een in de buurt kwam van de prestaties van ATI- en nVidia-videokaarten van hetzelfde prijsniveau. Uit betrouwbare bron hebben we vernomen dat het totaal aantal verkochte XGI Volari Duo V8 videokaarten dat in Nederland verkocht is op de vingers van twee handen te tellen is...


Gigabyte 3D1 met twee GeForce 6600 GT chips

Gigabyte 3D1

De Gigabyte 3D1 ziet er zonder enige twijfel bijzonder indrukwekkend uit. De kaart is relatief lang en voorzien van een enorme goudkleurige koelconstructie met daarin twee lichtgevende fans. Onder de koeler vinden we twee GeForce 6600 GT 3D-chips en in totaal 256 MB geheugen. Van dit geheugen is echter 128 MB voor de ene chip en 128 MB voor de andere en de SLI-technologie maakt het niet mogelijk dat de ene chip gebruik maakt van het geheugen van de andere chip en dat zodoende alle data in beide geheugengedeeltes geplaatst moet worden. Praktisch gezien heeft de 3D1 dus geen 256 MB geheugen met 256-bit bus zoals op de doos staat, maar 128 MB geheugen met een 128-bit bus. Waar de standaard klokfrequentie voor het geheugen van GeForce 6600 GT 1000 MHz bedraagt, heeft Gigabyte iets sneller geheugen gebruikt dat geklokt is op 1120 MHz. De chips draaien wel op de standaard snelheid, zijnde 500 MHz. De kaart heeft een PCI-Express x16 interface, waarbij iedere chip de beschikking krijgt over acht PCI-Express lanes. Achterop de videokaart vinden we de bekende PCI-Express stroomstekker en voorop de kaart de bekende bezetting van een D-Sub-, DVI- en TV-uitgang.

Gigabyte K8NXP-SLI

Gigabyte bundelt de 3D1 videokaart samen met het eerder geteste K8NXP-SLI moederbord en een WLAN-kaartje voor de adviesprijs van € 570. Hier wordt ook meteen de achilleshiel van de 3D1 duidelijk: de kaart moet immers op een SLI-moederbord geplaatst worden wil de kaart werken. Dit is voornamelijk een driver kwestie: de nVidia drivers controleren immers of een nForce 4 SLI chip in het systeem aanwezig is en pas dan worden de SLI-mogelijkheden van de videokaartdrivers ingeschakeld. De kaart werkt in principe ook in SLI-moederborden van andere fabrikanten, al wordt dat door Gigabyte officieel niet ondersteund. Op de een niet-nForce 4 Ultra moederbord kun je met de 3D1 echter helaas niets aanvangen. En dat is érg jammer, want de 3D1 zou juist leuk zijn om SLI-mogelijkheden te creëren in niet-SLI systemen.

Aangezien je de 3D1 moet gebruiken op een SLI-moederbord is natuurlijk een voor de hand liggende vraag of je ook twee 3D1's in SLI-opstelling kunt gebruiken. Helaas, dat is niet mogelijk en dus zal het tweede videokaart-slot van de gebundelde K8NXP-SLI altijd leeg blijven...


De Gigabyte 3D1 wordt gebundeld met het K8NXP-SLI moederbord.

0
*