Toekomstige AMD-GPU's gaan BFloat16 ondersteunen voor betere AI-prestaties

4 reacties

Op GitHub zijn aanwijzingen gevonden voor de ondersteuning van BFloat16 in toekomstige grafische chips van AMD.

Dit encoding-format moet bij grote berekeningen veel efficiënter zijn dan huidige alternatieven. Google heeft deze standaard in het leven geroepen, omdat het voor toepassingen rond kunstmatige intelligentie (artificial intelligence) en deep learning veel nuttiger zou zijn om aantal significante cijfers wat in te korten. Daardoor berekent bf16 wel minder exact, maar een groter gedeelte van de bits gaat naar de exponent toe. Hierdoor en doordat het een 16-bit-format is, zijn er minder transistors nodig waardoor het oppervlakte van de chip(s) beperkt kan blijven. Bovendien is de behoefte aan bandbreedte minder groot.

Google claimt dat het vanwege deze redenen efficiënter is dan fp16. Intel ziet hetzelfde, waardoor het de standaard wil implementeren in de komende Xeon-chips in de Cooper Lake-SP-lijn, in de Nervana NNP-T en in de Agilex-fpga. ARM heeft ook aangekondigd het vanaf armv8 te gaan ondersteunen. Nu AMD het heeft toegevoegd aan het opensource ROCm-platform voor high power computing, lijkt alleen Nvidia nog niet de stap te hebben gemaakt. De kans is groot dat er gebruik van gemaakt kan worden in AMD's komende Arcturus-chips, die gericht zijn op professionele taken zoals AI.

BFloat16 moet voor deep- en machine learning-applicaties een stuk efficiënter zijn dan andere opties. Afbeelding met dank aan Google.

Bronnen: Tom's Hardware, GitHub

« Vorig bericht Volgend bericht »
0
*