Het Chinese Alibaba heeft een geheugenchip ontwikkeld dat in-chip compute-mogelijkheden heeft. Het moet een groot flessenhalseffect oplossen dat we ook wel kennen als de von Neumann-flessenhals. Dit is de snelheidsbeperking die de beperkte grootte van de bus tussen een processor en het geheugen veroorzaakt. Er is nog een hoop onbekend over de chip, maar hij moet ook gebruikmaken van 3D-stacking.
Dat schrijven het Chinese ScienceNet en Pandaily. Om precies te zijn is het een dram-chip met compute-mogelijkheden in de chip zelf. De communicatie tussen de processor en het geheugen vereist ongeveer 200 keer zo veel energie als het verwerken van de data. Bandbreedte is van groot belang voor AI-berekeningen, en Alibaba Cloud heeft berekend dat de chip meer dan tien keer zo snel is door het geheugen en de compute-logica met elkaar te versmelten. De energie-efficiëntie is meer dan 300 keer zo hoog ten opzichte van een regulier systeem die dezelfde taak verricht.
Er is nog een hoop onbekend over de chip, zo hebben we geen cijfers over de rekenkracht en over het verbruik. Het is The Register opgevallen dat negentien co-auteurs op het International Solid-State Circuits Conference in februari een onderzoek hebben gepresenteerd, waarvan er vijftien bij DAMO Academy werken, Alibaba's onderzoeksinstituut. Vermoedelijk is dit de chip waar over gesproken werd. De onderzoekers hadden het toen ook over 3D-stacking via hybrid bonding, dat voor de nu onthulde chip ook is gebruikt. Voor meer specificaties zullen we vermoedelijk moeten wachten tot volgend jaar, ScienceNet meldt dat er meer bevindingen op het ISSCC begin volgend jaar onthuld zullen worden.
Bronnen: ScienceNet, Pandaily