< Terug naar vorige pagina

Project

Uitleggen van AI modellen om inzichten te bekomen in de modellen en de wereld.

Dit project gaat over het uitleggen van beslissingen van Artificiële Intelligentie (AI) voorspellingsmodellen, en het gebruik ervan voor het bekomen van globale inzichten in de modellen en kennis van de wereld. De vooruitgang van AI onderzoek is voornamelijk gedreven voor zegehete "deep learning" (artificiële neurale netwerken) en de beschikbaarheid van grote hoeveelheden beeld, tekstuele en gedragsdata. Dit heeft geleid tot grote voorspellingsaccuraatheden, met positieve economische en maatschappelijke implicaties, maar ook tot heel complexe modellen. Het uitleggen van de voorspellingen van dergelijke "black box" modellen krijgt steeds meer aandacht binnen AI onderzoek. Het belangrijkste doel van dit voorstel is om de grenzen van het onderzoek te verleggen door de Evidence Counterfactual (EdC) naar voren te schuiven als een paradigma binnen explainable AI. Het project zal onderzoeken hoe de Evidence Counterfactual kan worden gebruikt om verklaringen te genereren die leiden tot nieuwe inzichten in het AI-model en de wereld, en om de nieuwe methodologieën te valideren in een verscheidenheid aan toepassingen, variërend van verzekeringen tot politieke wetenschappen. Proberen uit te leggen hoe dingen werken, is een centrale drijfveer in de wetenschap. In die context is dit project niet alleen een fundamentele maar ook een logische volgende stap in AI-onderzoek.
Datum:1 apr 2021 →  Heden
Trefwoorden:VERKLAARBAAR ARTIFICIËLE INTELLLIGENTIE
Disciplines:Datamining, Kennismanagement, Artificiële intelligentie, Kennisrepresentatie en machine learning