Nvidia bedenkt manier om AI's te trainen met minder grote datasets

28 reacties

Artificial intelligence belooft natuurlijk veel voor de toekomst, maar het nadeel van deze techniek is dat de grootte van de gebruikte datasets voor het trainen van deze modellen erg groot moet zijn. Nvidia schrijf in een blogpost dat het een manier heeft gevonden om deze machine learningmodellen te trainen met minder data.

De onderzoeksafdeling van de chipontwerper heeft hiervoor een beperkt aantal afbeeldingen van het Metropolitan Museum of Art in New York gebruikt, waarna het met deze afbeeldingen nieuwe versies wist te maken. Nvidia zegt dat het hiervoor normaal gesproken zo'n 50.000 tot 100.000 afbeeldingen gebruikt voor het trainen van generative adversarial networks, netwerken die nieuwe data kunnen maken van een andere, vergelijkbare dataset. Nvidia gebruikt dit bijvoorbeeld voor zijn dlss-techniek en in 2018 heeft het gan's gebruikt voor het maken van hyperrealistische portretten. Als je zo'n netwerk te weinig data voert, ontstaan er resultaten die niet vergelijkbaar zijn met de invoerdata en dus onwenselijk zijn.

Nvidia's nieuwe techniek weet dit met een factor 10 tot 20 te verminderen, hoewel het tegelijkertijd verklaart dat het ook moet werken met 'minder dan 1.500 trainingsafbeeldingen', wat betekent dat het voordeel in sommige gevallen nog groter kan zijn. Dit is belangrijk, omdat niet elke dataset even groot is. Veel belangrijke problemen kennen een obscuurdere dataset, zoals regelmatig het geval is voor ernstige, zeldzame ziekten. In dat soort gevallen kan nieuwe data van levensbelang zijn. Uiteraard kan het model niet alleen maar gebruikt worden voor afbeeldingen, ook andere soorten data moet in principe gebruikt kunnen worden. Het onderzoek wordt deze week gepresenteerd op de Conference on Neural Information Processing Systems (NeurIPS)

Bronnen: (Nvidia (blogpost), (onderzoek, PDF)

« Vorig bericht Volgend bericht »
0
*