< Terug naar vorige pagina

Project

Block-gequantiseerde en data-efficiënte DNN's op vectorprocessoren aan de rand

Sommige van de krachtigste algoritmen voor machinaal leren, de zogenaamde deep learning algoritmen of deep neural networks, vergen enorme hoeveelheden rekenwerk en geheugen tijdens de training. Als gevolg hiervan is het trainen van een neuraal netwerk vaak niet efficiënt, omdat het tijd, ruimte en energie vraagt. In dit doctoraat wordt nagegaan hoe bestaande trainingsalgoritmes hardware-efficiënter kunnen worden gemaakt en worden minder conventionele en nieuwe trainingsalgoritmes onderzocht. Specifiek zal ook onderzocht worden hoe het geheugen en de computationele complexiteit van training gereduceerd kunnen worden met behoud van een goede algoritmische nauwkeurigheid. Het uiteindelijke doel zou zijn om on-chip training efficiënt te maken, zelfs aan de rand.

Datum:3 mrt 2021 →  Heden
Trefwoorden:Deep learning, On-chip training, Artificial Intelligence
Disciplines:Machine learning en besluitvorming, Modellering niet elders geclassificeerd, Andere elektrische en elektronische engineering niet elders geclassificeerd
Project type:PhD project