< Terug naar vorige pagina

Project

Fulbright beurs Renata Turkes

Deep learning is de afgelopen tien jaar ongetwijfeld een modewoord geworden, en terecht: het is een uiterst krachtig instrument dat leert van grote hoeveelheden gegevens uit het verleden, en dat de vorige state-of-the-art praktijken in beeldverwerking, taalvertaling, spraak- en objectherkenning, biogeneeskunde, geneesmiddelenontwerp, enz. aanzienlijk heeft overtroffen. Het is inmiddels niet meer weg te denken uit onze dagelijkse werkelijkheid - Google Translate, Google Maps, Alexa, Siri, de gezichts- of vingerafdrukontgrendelingsfunctie van onze telefoon zijn allemaal gebaseerd op deep learning, en het zal van cruciaal belang zijn voor zelfrijdende auto's. Het praktische succes van deep learning gaat echter veel verder dan het theoretisch inzicht. Hoe werken en leren diepe neurale netwerken? Hoe goed zal het netwerk generaliseren naar ongeziene gegevens? Wanneer faalt het, en hoe kan dit worden vermeden? Mijn doel is licht te werpen op de laatste vraag, door te trachten de klassen van problemen te identificeren waarvoor deep learning slecht presteert. In het bijzonder zijn we van plan een aantal problemen te onderzoeken waarvan we verwachten dat topologische data-analyse beter zou presteren dan de resultaten die worden verkregen met diepe neurale netwerken. Topologie bestudeert vorm, en we verwachten dat het beter zal zijn in het detecteren van het aantal verbonden componenten, gaten en leegtes in hogere dimensies, of vormconvexiteit; maar recente resultaten geven aan dat hetzelfde zou kunnen gelden voor het detecteren van vormkromming. We zijn van plan dit experimenteel te onderzoeken, door de resultaten van de twee benaderingen te vergelijken, op een aantal verschillende synthetische datasets en gegevens uit de literatuur. Bovendien wordt verwacht dat deep learning minder goed presteert wanneer er niet veel gegevens beschikbaar zijn, of wanneer de gegevens ruis vertonen - daarom zullen we ook dergelijke scenario's in onze berekeningen opnemen. Topologische kenmerken kunnen dus worden aanbevolen als een alternatief voor deep learning wanneer ze een superieure prestatie beloven, maar de bevindingen zullen ons ook inspiratie geven over hoe we bestaande deep architecturen kunnen verbeteren, met bijvoorbeeld een extra netwerklaag voor topologische kenmerken, of topologische verliesfuncties voor de voorspellingsfout van het netwerk.
Datum:1 sep 2021 →  31 mei 2022
Trefwoorden:ARTIFICIËLE INTELLLIGENTIE, INTERNET OF THINGS
Disciplines:Draadloze communicatie, Automatisering, feedbackcontrole en robotica