BETEKENISVOLLE TRANSPARANTIE BIJ DE TOEPASSING VAN AI-SYSTEMEN EEN ANALYSE VAN DE TRANSPARANTIEVERPLICHTINGEN IN DE ALGEMENE VERORDENING GEGEVENSBESCHERMING EN HET VOORSTEL VOOR EEN VERORDENING BETREFFENDE ARTIFICIËLE INTELLIGENTIE

Universiteit Gent
2023
Annelore
Mattart
Deze masterproef analyseert de mate waarin de transparantieverplichtingen in de Algemene Verordening Gegevensbescherming (AVG) en het Voorstel voor een Verordening betreffende Artificiële Intelligentie (Voorstel) samen betekenisvolle transparantie bieden ten aanzien van de aan het AI-systeem onderworpen personen bij de toepassing van artificiële intelligentie (AI). Deze analyse gebeurt aan de hand van een zelf ontwikkeld transparantiekader, gebaseerd op (en in lijn met) de reeds bestaande academische literatuur hieromtrent. Dit kader wordt op beide wetgevende instrumenten toegepast, op grond waarvan de juridische uitdagingen in de AVG en het Voorstel met betrekking tot het bereiken van betekenisvolle transparantie visueel kunnen worden waargenomen. Uit de integratie van beide transparantiekaders, wordt de mate waarin de AVG en het Voorstel betekenisvolle transparantie bieden ten aanzien van de aan het AI-systeem onderworpen personen, visueel geïllustreerd.
Meer lezen

Neural Tree Distillation to explain Deep Reinforcement Learning Policies

Vrije Universiteit Brussel
2021
Senne
Deproost
Hoe kan je binnenkijken in het digitale brein van een AI? Dit werk focust zich op Explainable Artificial Intelligence (XAI) en een techniek om het gedrag van een Deep Reinforcement Learning (DRL) agent over te brengen naar een meer interpreteerbaar model. We verbeteren een recente techniek, dat van neurale bomen in combinatie met knowledge distillation, met een adaptieve vorm die ons kleinere en beter verstaanbare modellen oplevert.
Meer lezen