Project
Privacy beschermende AI
Het doel van ons werk is het probleem aan te pakken van het veilig trainen en exploiteren van AI-modellen tussen verschillende partijen die hun gegevens niet mogen delen, de mogelijkheid bestuderen voor verschillende entiteiten om hun verschillende privégegevensreeksen te combineren om leerprocessen te stimuleren. Meerdere partijen zullen hun gegevens vaak niet delen om economische redenen of privacywetgeving die een behoefte aan privacybehoudende AI creëert. Ons doel is om kennisoverdracht onder privacy tussen deze partijen mogelijk te maken om een beter inzicht te krijgen in de verschillende gegevenssets. Het belang van dergelijke technieken wordt meteen duidelijk in veel AI-toepassingen in beveiligings- of privacygevoelige industrieën. Prominente voorbeelden zijn de gezondheidszorg en de farmaceutische sector. Big data-analyse kan een revolutie teweegbrengen in de gezondheidszorg door gebruik te maken van bestaande grote en gevarieerde klinische en claimgegevenssets verdeeld over veel verschillende eigenaren (zorgverleners, ziekenhuizen, medische verzekeringsmaatschappijen) die hun gegevens niet met externe entiteiten zullen delen. Evenzo zouden verschillende farmaceutische laboratoria hun gezamenlijke expertise op het gebied van geneesmiddelenontdekking kunnen benutten, maar kunnen hun gegevensverzamelingen om intellectuele-eigendomsredenen niet delen.