S07E97 - Hoe meet je vooroordelen in taalmodellen?
Description
Lisa Pouels, afgestudeerd data scientist, onderzocht fairness in GraphRAG-systemen en werd hiervoor genomineerd voor de Responsible Internet Prijs van de Koninklijke Hollandse Maatschappij der Wetenschappen.
Haar onderzoek vergeleek verschillende taalmodellen op hun vermogen om vooroordelen te herkennen en te vermijden bij het beantwoorden van ambigue vragen. De resultaten toonden dat Qwen 2.5 en GPT 4.1 nano het best presteerden in het herkennen van onduidelijke vragen, terwijl DeepSeek uitblonk in fairness.
Lisa ontdekte dat zelfs kleine veranderingen in prompt-formulering grote invloed hebben op de eerlijkheid van antwoorden. Ze benadrukt dat fairness contextafhankelijk is en per toepassing anders gedefinieerd moet worden.
Onderwerpen
- Onderzoek naar fairness in GraphRAG-systemen
- Vergelijking van verschillende taalmodellen op fairness en accuracy
- Impact van prompt-formulering op uitkomsten
- Context-afhankelijkheid van fairness
- Praktische toepassingen van AI-kennis
- Podcast: AIToday Live podcast
- Research: A Comprehensive Empirical Study on Fairness in GraphRAG
- Organisatie: KHMW | Koninklijke Hollandsche Maatschappij der Wetenschappen
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: Koninklijke Hollandse Maatschappij der Wetenschappen - OpenAI - Alibaba - DeepSeek - Mistral - Llama - Falcon
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!























