Distillatie van diepe reinforcement learning modellen
Neurale netwerken hebben een "black box"-karakter, wat betekent dat we moeilijk kunnen interpreteren wat ze precies hebben aangeleerd, of hoe ze "denken". In deze masterthesis omzeilen we dit probleem door de aangeleerde kennis van een neuraal netwerk over te brengen naar een alternatief model dat wel interpreteerbaar is.
Meer lezen