Intel Larrabee Preview

36 reacties
Inhoudsopgave
  1. 1. Inleiding
  2. 2. Intel
  3. 3. Pentium on steroids
  4. 4. Architectuur
  5. 5. Larrabee als GPU
  6. 6. Veelbelovend
  7. 36 reacties

Inleiding

Intel is vastbesloten zich eind 2009 of begin 2010 te gaan mengen in de hevige strijd tussen ATI en nVidia. Het geheime wapen is Larrabee, een multi-core processor die ook als videokaart ingezet kan worden. Lange tijd was er buiten de codenaam maar weinig bekend over deze toekomstige chip. Inmiddels heeft Intel een tipje van de sluier opgelicht.

In het afgelopen Hardware.Info Magazine schreven we al hoe ATI en nVidia van plan zijn om de videokaart steeds meer taken van de processor te laten overnemen. Dat alles is te danken aan de evolutie die GPU's de afgelopen jaren hebben doorgemaakt. Tot een paar jaar geleden waren 3D-chips puur in staat een aantal vaste functies uit te voeren die nodig zijn voor het op het scherm toveren van 3D-beelden. Terwijl de chips voor de vaste functionaliteit supersnel waren, was flexibiliteit ver te zoeken. In de tijd van DirectX 8 is daar langzaam verandering in gekomen; de introductie van vertex- en pixel-shading hardware heeft ervoor gezorgd dat ontwikkelaars van 3D-games eigen, unieke effecten konden programmeren. Die flexibiliteit is de laatste jaren flinke toegenomen; kon zo'n pixel shader algoritme in het DirectX 8 tijdperk nog slechts uit een beperkt aantal regels code bestaan met grote beperkingen qua complexiteit, inmiddels is dat wel anders. De honderden shader units in moderne DirectX 10 GPU's zijn zo flexibel en krachtig dat ze niet langer alleen voor 3D berekeningen ingezet kunnen worden. Alle workloads die gebaat zijn bij veel parallel lopende floating point of vector berekeningen op grote stukken data, draaien op de GPU in potentie sneller dan op een CPU. Vergeet immers niet: normale processors zijn zo ontwikkeld dat ze alle soorten programmatuur op een redelijke snelheid kunnen uitvoeren, maar zijn daardoor nergens echt in gespecialiseerd.

ATI en nVidia hebben de potentiële kracht van GPU's inmiddels meermaals gedemonstreerd. Zo kwam ATI een jaar of twee geleden al met een Folding@Home client die op een Radeon-kaarten tientallen keren sneller was dan op een CPU. Nog indrukwekkender is de in het vorige magazine besproken Badaboom video-encoding software, die het maken van een H.264-bestanden op een GeForce GTX tot 9x sneller uitvoert dan op de snelste Intel Core 2 Extreme. Toch zijn er voldoende uitdagingen bij het voor andere doeleinden inzetten van 3D-chips. Allereerst blijven GPU's primair gemaakt voor 3D beelden en zitten er zodoende veel eigenschappen in de chips waar je als ontwikkelaar slim omheen moet programmeren. Belangrijker nog is, dat de architectuur van GPU's compleet anders is dan de x86-architectuur zoals we die kennen van CPU's. Het low-level programmeren van een 3D-chip is zeer complex en vandaar dat er inmiddels verschillende programmeeromgevingen bestaan om een GPU op C/C++ achtige wijze aan te spreken. nVidia's CUDA-technologie is daar een goed voorbeeld van. Blijft staan dat de manier van programmeren anders blijft; je kunt software niet zomaar van CPU naar GPU verplaatsen of vice versa. Althans, nog niet...


De ontwikkelingen van de afgelopen jaren en de komende tijd zorgen ervoor dat de CPU en GPU steeds verder naar elkaar toe groeien.

0
*