We weten al dankzij patenten dat AMD werkt aan gpu-chiplets, flexibelere gebruiksdoelen en ook over geïntegreerde machine learning-acceleratoren in gpu's. In een nieuw patent wordt beschreven hoe een AI-accelerator (of het meervoud hiervan) bovenop de gpu geplaatst wordt.
Zo zal AMD vermoedelijk willen proberen om de ruimte die de dure interposer vraagt te minimaliseren, maar zoals met alle 3D-stacking-technieken zal het uitdagingen opleveren wat stroomverbruik en koeling betreft. De reguliere chip of chiplet noemt de chipontwerper een 'accelerated processing device', en daarbovenop zit een machine learning-accelerator, samen met geheugen.
Er wordt niets gezegd over prestaties of over gebruikte standaarden in de eerste commerciële versie. In ieder geval moet de aanwezigheid van matrix multiplication arithmetic logic units (alu's). Het geheugen kan zowel in worden gezet als een cache of als dma-geheugen (direct memory access).
Het patent is op 2 december 2020 aangevraagd. Het betekent niet dat AMD er gegarandeerd gebruik van zal maken, laat staan voor gamers. Het zou kunnen dat het uitsluitend voor datacentra gebruikt zal worden.
Bron: US Patent & Trademark Office