IBM bouwt 's werelds grootste opslagsysteem van 120 PB

14 reacties

Onderzoekers van IBM werken momenteel aan een opslageenheid die bijna tienmaal zo groot is als vergelijkbare oplossingen die deze voorgingen. Deze 'super harde schijf' bestaat intern uit 200.000 aan elkaar gekoppelde conventionele schijven, die gezamenlijk een totale opslagcapaciteit van maar liefst 120 petabytes bevatten.

Deze capaciteit van 120 miljoen gigabytes zal naar verwachting ruimte gaan bieden aan ongeveer een biljoen bestanden. Denkend in termen van 5 MB grote MP3-bestanden, zouden er ongeveer 24 miljard nummers opgeslagen kunnen worden. Het opslagsysteem gaat onderdeel uitmaken van een supercomputer die naar verluidt ingezet gaat worden voor nauwkeurige simulaties van natuurverschijnselen. Wie IBM precies opdracht heeft gegeven tot de bouw ervan, is echter niet bekend.

Volgens Bruce Hillsberg, directeur van de opslagafdeling van IBM, is 120 PB op dit moment nog een extreem hoge opslagcapaciteit, maar met de trend van clouddiensten zou het in enkele jaren wel eens een stuk gebruikelijker kunnen worden.

Leuke feitjes zijn dat het bijhouden van de bestandseigenschappen als de naam, het type en de datum, alleen al 2 PB van de totale capaciteit verslindt. Een simpel rekensommetje leert verder dan de afzonderlijke harde schijven gemiddeld genomen een opslagruimte van 600 GB bieden. Deze worden zoals gebruikelijk verticaal naast elkaar geplaatst in lange horizontale lades. Om de warmte die gegenereerd wordt af te kunnen voeren, maakt IBM gebruik van waterkoeling.

Inherent aan een dergelijk groot aantal schijven is dat er met enige regelmaat een defect op zal treden. Er wordt dan ook meervoudige dataredundantie toegepast en IBM heeft enkele slimme algoritmes ontwikkeld om het herstellen van de gegevens op een vervangende schijf vrijwel niet ten koste te laten gaan van de algehele prestaties. Tot slot zorgt IBM's eigen General Parallel File System (GPFS) ervoor dat bestanden razendsnel opgezocht kunnen worden.

Bron: Technology Review

« Vorig bericht Volgend bericht »
0
*