< Terug naar vorige pagina

Project

Continu leren: hoe catastrofaal vergeten voorkomen

De laatste tijd zijn er indrukwekkende verbeteringen geboekt in Machine Intellegence en AI. Het probleem met deze recente modellen is dat ze niet in staat zijn om zich aan te passen of te ontwikkelen. Dit is problematisch wanneer het model een nieuwe categorie of label, een nieuwe actie of gedrag of iets anders moet leren. De enige manier waarop een statisch model zich kan aanpassen en iets nieuws kan leren is door alle voorgaande data en de nieuwe data samen te hertrainen. Dit betekent dat alle data moeten worden opgeslagen en dat er veel tijd wordt besteed aan het hertrainen van een model.  Het opslaan van gegevens vereist geheugen en kan een inbreuk zijn op de privacy, hertrainen van modellen kost tijd en is misschien niet mogelijk op de apparaten waar een model wordt ingezet. Deze systemen gaan er ook van uit dat de gegevens die ze trainen i.d.d. zijn (onafhankelijk en identiek gedistribueerd). Met andere woorden, ze gaan ervan uit dat de trainingsgegevens een perfecte weergave zijn van de echte wereld, en twee opeenvolgende datapunten niet gecorreleerd zijn. Het hebben van een trainingsset die de echte wereld perfect weergeeft is bijna onmogelijk en real-world data is zeer vaak gecorreleerd. Een mogelijke oplossing voor dit alles is het continu leren, dat erop gericht is om nieuwe taken te leren van niet-iid data zonder oude kennis te vergeten. Het vergeten van deze oudere kennis wordt catastrofaal vergeten genoemd en is een van de grootste uitdagingen in de continu-leren-opstelling.

Datum:1 okt 2020 →  Heden
Trefwoorden:Continual Learning, Computer Vision, Machine Learning, Catastrophic Forgetting
Disciplines:Computervisie, Machine learning en besluitvorming
Project type:PhD project