< Terug naar vorige pagina

Project

Privacy beschermende AI

Het doel van ons werk is het probleem aan te pakken van het veilig trainen en exploiteren van AI-modellen tussen verschillende partijen die hun gegevens niet mogen delen, de mogelijkheid bestuderen voor verschillende entiteiten om hun verschillende privégegevensreeksen te combineren om leerprocessen te stimuleren. Meerdere partijen zullen hun gegevens vaak niet delen om economische redenen of privacywetgeving die een behoefte aan privacybehoudende AI creëert. Ons doel is om kennisoverdracht onder privacy tussen deze partijen mogelijk te maken om een beter inzicht te krijgen in de verschillende gegevenssets. Het belang van dergelijke technieken wordt meteen duidelijk in veel AI-toepassingen in beveiligings- of privacygevoelige industrieën. Prominente voorbeelden zijn de gezondheidszorg en de farmaceutische sector. Big data-analyse kan een revolutie teweegbrengen in de gezondheidszorg door gebruik te maken van bestaande grote en gevarieerde klinische en claimgegevenssets verdeeld over veel verschillende eigenaren (zorgverleners, ziekenhuizen, medische verzekeringsmaatschappijen) die hun gegevens niet met externe entiteiten zullen delen. Evenzo zouden verschillende farmaceutische laboratoria hun gezamenlijke expertise op het gebied van geneesmiddelenontdekking kunnen benutten, maar kunnen hun gegevensverzamelingen om intellectuele-eigendomsredenen niet delen.

Datum:22 nov 2019 →  25 sep 2022
Trefwoorden:Artificial intelligence, Deep learning, Matrix factorizarion, Privacy, Secure multiparty computation, Bayesian networks, Federated learning, Multitask learning, Homomorphic encryption, Differential privacy
Disciplines:Artificiële intelligentie niet elders geclassificeerd, Datamining, Statistiek, Statistische en numerieke methoden die niet elders zijn geclassificeerd, Toegepaste wiskunde die niet elders zijn geclassificeerd, Computerwetenschappen, Algemene wiskunde, Cryptografie, privacy en beveiliging
Project type:PhD project