< Terug naar vorige pagina

Project

Ontwerpen en Interpreteren: een nieuw kader voor verklaarbare Artificiële Intelligentie

Diepe neurale netwerken hebben recent voor een doorbraak gezorgd in tal van domeinen. Ze hebben echter  één groot nadeel: ze worden vaak beschouwd als een 'black box', gezien hun werking en hun mogelijkheden om te veralgemenen naar nieuwe data nog niet volledig doorgrond zijn.
In dit project willen we dit probleem aanpakken, en wel via twee complementaire onderzoekslijnen. Ten eerste willen we voorkennis over de data in rekening brengen bij het ontwerp van diepe neurale netwerken, zodat ze transparanter worden - m.a.w. we maken de netwerken meer verklaarbaar "by design". Dit zullen we toepassen op een reeks van inverse problemen, zoals superresolutie, ruisonderdrukking en het opvullen van ontbrekende informatie in beelden. Daarnaast willen we ook nieuwe, betrouwbare methodes ontwikkelen om post-hoc een netwerk te interpreteren en een genomen beslissing te verklaren. Deze tweede benadering analyseert dus een netwerk nadat het reeds volledig getraind is. Dit zullen we in eerste instantie demonstreren in de context van beeldclassificatie en voorwerpsdetectie.  We verwachten dat beide strategieën elkaar zullen aanvullen en versterken, en op die manier aanleiding zullen geven tot nieuwe modellen waarvan het gedrag niet alleen beter te verklaren is, maar die ook betere resultaten zullen opleveren ten opzichte van de huidige state-of-the-art.

Datum:1 jan 2020 →  31 dec 2023
Trefwoorden:Deep neural networks (DNNs), AI, image classification, object detection problems
Disciplines:Computer vision, Patroonherkenning en neurale netwerken, Beeld- en taalverwerking