Uitgelicht: De geheugendoorbraak: Fully Buffered DIMM

5 reacties
Inhoudsopgave
  1. 1. Uitgelicht
  2. 5 reacties

Uitgelicht

In de rubriek Uitgelicht gaan we dieper in op het actuele hardwarenieuws. Ditmaal een artikel over een nieuwe innovatieve geheugentechnologie van Intel, geschreven door Wilibrord.

The Inquirer heeft een presentatie gezien van de nieuwe geheugen architectuur waar Intel aan werkt. Het gaat om Fully Buffered Dimm's of kortweg FB-Dimms en de mensen van The Inquirer waren zodanig onder de indruk dat ze er drie verhalen aan gewijd hebben.

De nood voor een nieuwe architectuur komt voort uit de problemen met DDR geheugen. Vooral op server gebied schiet DDR tekort. Het is ofwel capaciteit ofwel snelheid maar beide tezamen is niet haalbaar met DDR. De eisen voor een nieuw systeem zijn dan ook niet mals. Servers verlangen grotere capaciteit, een hogere snelheid en 100% betrouwbaarheid, zonder al te hoog in de kosten te gaan.

Het huidige DDR geheugen werkt met een zogenaamde "shared bus" architectuur. Hierdoor wordt een signaal over die bus afgezwakt elke keer het een "afslag" tegenkomt. Hoe sneller het signaal, hoe groter de verstoring. Een oplossing hiervoor is het aantal afslagen (DRAMs) te verminderen waardoor de capaciteit daalt (zie capaciteit of snelheid). Voor desktop computers zijn twee geheugenslots voldoende, maar servers willen meer en daar wringt het schoentje.

Dus bedacht Intel een andere oplossing, namelijk de bus architectuur veranderen. Het enige wat er uitwendig lijkt veranderd te zijn is de vierkante chip op de module, zoals je hieronder goed kan zien.



 
FB-Dimm geheugenmodulen



Dat "vierkantje" zorgt natuurlijk voor de hele ommekeer. FB-Dimms gebruiken geen shared bus meer, maar een point-to-point topologie, zodat de geheugen controller elke buffer rechtstreeks kan aanspreken. De rest blijft ongewijzigd, zodat dit geheugen gebruik kan maken van de wijdverspreide en goedkope DRAM onderdelen.
 

Een schematische weergave van het systeem.


Eén van de voordelen van de point-to-point technologie is dat het aantal pins drastisch kan verminderd worden (240 voor DDR2, 69 voor FB-Dimms). Men kan nu ook channels gebruiken van ongelijke lengte, wat vroeger met de bus-topologie onmogelijk was. De geheugen controller en de buffer schakelen de vertraging op de tragere lijnen gelijk met de snellere korte lijnen.
Als je denkt dat dit alles niet zo indrukwekkend is, bekijk dan even onderstaande foto's.



links DDR2, rechts FB-Dimm
 

Een groot voordeel is dat dual FB-Dimms slechts twee moederbord lagen nodig hebben, tegenover drie lagen voor slechts één DDR2 reepje. Voor een lager aantal pins (420 tegenover 480) krijg je vier keer meer bandbreedte en 48 keer meer capaciteit, gebruik makende van dezelfde DDR2-800 DRAM chips. Bovendien ondersteunt elk FB kanaal tot acht Dimms. Hierdoor kan er wel wat latency optreden, maar daar wordt aan gewerkt volgens Intel.

Een tweede groot voordeel is dat de FB-architectuur gelijktijdige opdrachten kan uitvoeren. Een twee kanaals DDR2 setup kan één opdracht (lees of schrijf bewerking) per keer uitvoeren, tewijl een gelijkaardige FB setup er acht tegelijkertijd kan uitvoeren. In éénzelfde DRAM clock periode kan je bijvoorbeeld drie verschillende opdrachten naar drie verschillende Dimms sturen. Dit betekent natuurlijk een grote snelheidswinst wanneer er veel verkeer is, ideaal dus voor servers, maar minder geschikt voor thuisgebruik. Voor de gewone desktop computer zal DDR2 gelijke tred kunnen houden. Het mooie aan de hele zaak is dat de geheugen controller een constante blijft. Van zodra de markt van DDR2 naar DDR3 overstapt, hoeft enkel de helft aangepast te worden, want de geheugen controller blijft hetzelfde.

Betrouwbaarheid dan. Er is een goed CRC schema ingebouwd dat zowel data als de opdrachten controleert. Tegenwoordig kunnen servers slechte geheugenchips uitschakelen (AMD opterons hebben dit in hun geheugen controller). FB gaat een stapje verder. Intel noemt het "Bit Lane Fail Over Correction", The Inquirer maakt daar "Wire-kill" van. Wanneer er een bitlijn fouten genereert, wordt die uitgeschakeld, zonder prestatie verlies. De geheugen controller vermindert de bandbreedte van de CRC checks zodanig dat er meer overblijft voor data. Dit betekent dus geen snelheidsverlies, maar wel een verminderde controle en dus meer kans op fouten. Dit systeem is eigenlijk bedoeld om een fout op te vangen totdat de systeembeheerder het reepje kan vervangen.

Zijn er dan geen nadelen aan de FB-architectuur verbonden, en wat gaat dit alles kosten? Dankzij het gebruik van de gebruikelijke DRAM onderdelen, wordt de kost niet te hoog opgedreven, maar verwacht wordt dat de prijs toch iets boven de gewone latjes zal liggen. Normaal gezien zal dit echter worden goedgemaakt door de verminderde kost inzake moederborden (minder aantal lagen dan DDR2).
Prestaties kunnen een tweede nadeel zijn. Het hangt er een beetje vanaf over wat soort server het gaat en welke toepassingen er gebruikt worden. Toepassingen die een hoge bandbreedte eisen gaan hun voordeel doen met de FB-Dimms. Toepassingen die een lage latency vragen, daar is het nog koffiedik kijken totdat de eerste systemen zullen verschijnen, begin volgend jaar.

De drie berichten op The Inquirer kun je terugvinden via onderstaande links:
Artikel 1
Artikel 2
Artikel 3

0
*