< Terug naar vorige pagina

Project

Kunstmatige intelligentie toepassen op Edge-apparaten met behulp van diep leren met geïntegreerde optimalisaties (AI@EDGE)

In Deep Learning wordt een algoritme ontwikkeld op een grote set data, typisch op een rekenkrachtige server. Vervolgens wordt het getrainde netwerk in een applicatie geladen die met de echte data werkt. Deze stap wordt 'inference' genoemd. Inference hoeft echter niet toegepast te worden op het computersysteem dat voor de training gebruikt werd. Hierdoor wordt het mogelijk om deep learning toe te passen op systemen die minder krachtig, meer energiezuinig en minder afhankelijk van een netwerk zijn. In dit project zal men verschillende Deep Learning applicaties voor low-cost embedded systemen bestuderen, enerzijds op vlak van haalbaarheid voor dergelijke applicaties en anderzijds de toegevoegde waarde van de artificiële intelligentie in embedded systemen, zoals microcontrollers en systeemprocessoren.

Datum:1 mrt 2020 →  28 feb 2022
Trefwoorden:inference, low-cost embedded systems, Deep Learning, Edge -devices
Disciplines:Artificiële intelligentie niet elders geclassificeerd, Machine learning en besluitvorming