< Terug naar vorige pagina
Project
Versterken van Taalmodellen met Menselijke Sociale Redeneringsvaardigheden voor Sociaal-Bewuste Besluitvorming
Taalmodellen (LM's) missen de complexe menselijke redeneercapaciteiten, met name sociaal redeneren, die nodig zijn om de echte betekenissen in tekst te achterhalen. Het vermogen om de identiteiten en relaties tussen sociale actoren binnen en buiten een tekst kritisch te analyseren om zo genuanceerde, gefundeerde conclusies te trekken, is van vitaal belang voor het creëren van empathische, sociaal gevoelige systemen in een wereld die steeds meer door AI wordt gedreven. Dit project versterkt de sociaal redeneercapaciteiten van LM's via drie hoofdinnovaties. Ten eerste ontwerpen we methoden om sociale grafen uit tekst te voorspellen die de relaties tussen auteurs, lezers en mensen in de tekst in kaart brengen. Ten tweede ontwikkelen we geavanceerde redeneerstrategieën geïnspireerd op menselijke cognitie. Deze sturen het opbouwproces van sociale grafen en dwingen modellen om deze actief te gebruiken voor hun voorspellingen. Ten derde ontwikkelen we context-gestuurde modellen die hun voorspellingen aanpassen aan subtiele verschuivingen in de sociale grafen om zo de nauwkeurigheid van hun voorspellingen te verbeteren. We valideren de overdraagbaarheid van onze methoden in meerdere taken voor het begrijpen van natuurlijke taal, met haatspraakdetectie als belangrijkste toepassing. Dit project zet belangrijke stappen in de richting van sociaal intelligente LM's die de fijne kneepjes van menselijke taal beter kunnen begrijpen en navigeren met empathie en contextueel bewustzijn.
Datum:1 nov 2025 → Heden
Trefwoorden:Mensachtig redeneren, Detectie van haatspraak, Begrip van natuurlijke taal
Disciplines:Machine learning en besluitvorming, Natuurlijke taalverwerking, Kennisrepresentatie en redenering