< Terug naar vorige pagina

Project

Efficiënte algoritmen voor grootschalige minimaxproblemen

Dit voorstel betreft efficiënte algoritmen voor niet-convexe minimax-problemen. Dergelijke problemen  verschijnen in een breed scala van hedendaagse toepassingen gerelateerd aan robuuste machine learning en dynamische besluitvorming in onzekere omgevingen. Voorbeelden zijn 'adversarial' training, dat de gevoeligheid van machine learning-modellen reduceert, of distributie-robuuste optimalisatie voor besluitvorming onder onzekerheid. Deze en vele andere toepassingen zijn geformuleerd als een minimax-probleem. Tot voor kort hadden algoritmen voor het oplossen van dergelijke potentieel niet-convexe minimax-problemen weinig of geen convergentiegaranties en werden ze vaak alleen benaderd door middel van heuristieken. Om dergelijke problemen op te lossen, gebruiken we technieken van niet-differentieerbare, niet-convexe analyse en ontwikkelen we efficiënte proximale algoritmen met gecertificeerde convergentiegaranties. Blokcoördinaat- en stochastische varianten worden ontwikkeld om grootschalige problemen het hoofd te bieden. Om rekening te houden met problemen zoals slechte conditionering, worden algoritmen van het Newton-type voorgesteld die niettemin eenvoudige orakels van de eerste orde gebruiken. De ontwikkelde algoritmen worden zowel toegepast op toepassingen in machine learning als op distributie-robuuste model predictive control, wat resulteert in state-of-the-art snelle en robuuste algoritmen. Ten slotte worden open-source softwarepakketten ontwikkeld voor alle algoritmen.

Datum:1 okt 2021 →  Heden
Trefwoorden:Minimax Optimization, Nonsmooth Nonconvex Optimization, Proximal Algorithms
Disciplines:Variatieberekening, optimale controle en optimalisatie, Operations-onderzoek en mathematisch programmeren, Systeemtheorie en -controle, Machine learning en besluitvorming