Nvidia maakt deep learningplatform TensorRT opensource

Nvidia heeft zijn eigen software voor deep learning genaamd TensorRT opensource gemaakt, dat meldt de fabrikant via een persbericht. De software is nu te downloaden op Github, en zal werken met Nvidia's grafische kaarten.

De chipontwerper omschrijft TensorRT als een 'high performance deep learning inference optimizer', hierbij houdt 'inference' het gebruiken van bestaande kennis (en dus 'denkpatronen') voor nieuwe data in. Het is geschikt voor zowel grote servers als voor embedded apparaten.

Inmiddels zijn we bij versie 5.1 aanbeland, en in combinatie met een Turing-gpu zou het tot 40 keer zo snel moeten zijn ten opzichte van de vorige iteratie. Het kan onder andere gebruikt worden voor het herkennen van afbeeldingen, video en spraak, voor het vertalen van informatie en voor bijvoorbeeld het voorspellen van gedrag en voorkeuren.

Een schema van Nvidia dat verbeeldt hoe TensorRT ongeveer werkt.

Bron: Nvidia

0