Scriptiebank overzicht

De Vlaamse Scriptiebank is een vrij toegankelijke online databank. Het bevat intussen al meer dan 8.000 artikels en volledige scripties van bachelor- en masterstudenten die sinds 2002 hebben deelgenomen aan de Vlaamse Scriptieprijs.

Multimodal Large Language Models and Computer Vision for Open Discovery in Educational Augmented Reality

Universiteit Gent
2025
Xander
Vanparys
Genomineerde longlist mtech+prijs
Genomineerde shortlist Eosprijs
Tijdens mijn masterproef ontwikkelde ik een slimme assistent die via de smartphonecamera meekijkt met de gebruiker en in 3D aanwijst wat er nodig is. De AI begrijpt zowel tekst als beeld en kan feedback geven wanneer een stap fout loopt. Na succesvolle tests met eenvoudige taken werd het systeem toegepast in twee realistische scenario’s: een medische oefening en het opzetten van een VR-installatie. De resultaten tonen dat zo’n digitale assistent gebruikers effectief kan begeleiden, een eerste stap richting handsfree opleiding via augmented reality.
Meer lezen

Ethiek in het tijdperk van AI: een lessenpakket

Hogeschool VIVES
2025
Jitske
Van Steenlandt
In mijn bachelorproef “Ethiek in het tijdperk van AI: een lessenpakket voor de tweede graad godsdienstonderwijs” onderzocht ik hoe jongeren bewust kunnen leren omgaan met de ethische grenzen van artificiële intelligentie. Uit mijn onderzoek bij leerkrachten en leerlingen bleek dat er grote interesse is in AI-ethiek, maar dat er weinig geschikt lesmateriaal bestaat. Daarom ontwikkelde ik een lessenpakket en ontwierp ik het bordspel Tussen Mens en Machine. Met dit spel denken leerlingen op een speelse manier na over morele dilemma’s, zoals: Mag een zelfrijdende auto kiezen wie overleeft? of Is AI altijd eerlijk? Het project wil jongeren leren kritisch omgaan met technologie en hen laten ontdekken dat AI niet enkel slim, maar ook menselijk doordacht moet zijn.
Meer lezen

Erfgoediseren van digitale cultuur: door musea en andere erfgoedinstellingen

KU Leuven
2025
Floor
Arnauts
Digitale cultuur ontwikkelt zich in een ongekend tempo en wordt gekenmerkt door zowel overvloed als kwetsbaarheid. De vluchtigheid van digitale creaties, van interactieve installaties tot websites, sociale mediaplatformen en andere databestanden, stelt musea en erfgoedinstellingen voor fundamentele vragen. Hoe kan born-digital erfgoed worden geïdentificeerd als cultureel waardevol, duurzaam worden vastgelegd en vervolgens toegankelijk en betekenisvol worden gepresenteerd? Dit onderzoek benadert deze uitdaging vanuit het proces van erfgoedisering, waarbij de vier kernfuncties waarderen, verzamelen, bewaren en presenteren centraal staan. In de digitale context blijken deze functies niet los van elkaar te opereren, maar voortdurend op elkaar in te grijpen. Door middel van beleidsanalyse, theoretische kaders en casestudies van Vlaamse erfgoedinstellingen, waaronder Design Museum Gent, Amsab, de Hendrik Conscience Bibliotheek en KADOC, wordt zichtbaar hoe technische, juridische en beleidsmatige drempels een structurele inbedding van born-digital erfgoed bemoeilijken. Tegelijkertijd tonen innovatieve praktijken aan dat interdisciplinariteit, het gebruik van open standaarden en samenwerking met makers en publiek effectieve strategieën kunnen opleveren. De bevindingen wijzen erop dat een geïntegreerde en structureel verankerde aanpak onontbeerlijk is om digitale cultuur niet alleen te bewaren, maar ook haar betekenis te behouden voor toekomstige generaties.
Meer lezen

Prototyping novel length measurement instruments

Universiteit Hasselt
2025
Stig
Konings
Genomineerde longlist mtech+prijs
Mijn scriptie draagt de titel Prototyping Novel Length Measurement Instruments. Het doel van dit onderzoek was het ontwikkelen van een meetinstrument dat meer gericht is op de mens en gebruiksvriendelijker is, in deze scriptie is StoryStick++ ontstaan.
Meer lezen

Game of Tones A longitudinal analysis of media tone towards political parties in Flemish newspapers (2004-2024)

Universiteit Antwerpen
2025
Janne
Verschraegen
Hoe politieke partijen in de media worden voorgesteld, beïnvloedt hoe burgers hen waarnemen, beoordelen en uiteindelijk ook stemmen. Evaluatieve toon functioneert daarbij als een belangrijke interpretatieve shortcut. Deze studie onderzoekt hoe de toon van nieuwsberichtgeving over Vlaamse politieke partijen geëvolueerd is tussen 2004 en 2024, en in welke mate er structurele verschillen bestaan tussen partijen en tussen kranten.

Met behulp van een RoBERTa-taalmodel wordt op zinsniveau het sentiment gemeten in meer dan 275.000 artikels uit zeven Vlaamse kranten. De analyse toont dat negatieve berichtgeving structureel overheerst, maar dat deze geleidelijk is afgenomen over de tijd. Tegelijkertijd worden systematische verschillen vastgesteld tussen partijen en tussen kranten. Vlaams Belang en N-VA worden over de hele periode het meest negatief voorgesteld, terwijl Groen vaker voorkomt in positieve contexten. Kwaliteitskranten zoals De Morgen, De Standaard en De Tijd zijn in het algemeen kritischer dan populaire kranten zoals Het Laatste Nieuws, Het Nieuwsblad, Gazet van Antwerpen en Het Belang van Limburg. Opvallend is dat die kwaliteitskranten relatief minder negatief zijn over Vlaams Belang dan de populaire kranten.

Hoewel alle partijen een lichte afname in negativiteit vertonen, daalt het negatieve sentiment tegenover Vlaams Belang het sterkst, wat mogelijk wijst op een proces van normalisering. PVDA vormt hierop een uitzondering: de partij is de enige waarvoor het negatieve sentiment (licht) toeneemt over de tijd. Beperkingen van het onderzoek liggen in het feit dat het model niet gefinetuned werd op de Vlaamse politieke context, en dat de analyse geen objectieve maatstaf hanteert voor bias, maar enkel patronen van toon in kaart brengt. Toekomstig onderzoek kan nagaan welke factoren bijdragen aan verschillen in toon, bijvoorbeeld door te controleren voor electorale macht, partijcommunicatie en issue coverage.
Meer lezen

Parameter Estimation with LISA's Correlated Noise

KU Leuven
2025
Karel
Plets
De laatste tien jaar hebben zwaartekrachtsgolven kunnen detecteren, strekkingen in de ruimte en de tijd. Toch willen we golven met lagere frequenties kunnen meten met behulp van toekomstige ruimtetelescopen, met name de LISA-missie onder leiding van ESA. Voordat LISA gelanceerd wordt, moet er nog veel voorbereid worden, met name het kwantificeren van haar onzekerheden en ruis. Voorlopig gebruikt de LISA-gemeenschap een paar vereenvoudigingen wanneer ze de ruis en de signalen proberen modelleren met behulp van enkele mooie symmetrieën.

Mijn thesisonderzoek heeft echter aangetoond dat zelfs voor heel simpele signalen je in de problemen terechtkomt wanneer je sommige symmetrieën niet aanneemt tijdens het afschatten van de onzekerheden.
Meer lezen

INVESTIGATING FAIRNESS IN EPIDEMIC CONTROL

Vrije Universiteit Brussel
2025
Sam
Vanspringel
In dit werk onderzoeken we hoe artificiële intelligentie kan helpen om epidemieën eerlijker en efficiënter aan te pakken. Met behulp van reinforcement learning leert een algoritme verschillende maatregelen uitproberen en afwegen, zodat het zowel de medische impact als de sociale last probeert te beperken. Dit onderzoek breidt eerder onderzoek uit door in de sociale last ook het risico op hospitalisatie in rekening te brengen. We kijken hoe het algoritme de maatregelen op een gebalanceerde manier aanpakt en verdeelt tussen de leeftijdsgroepen. Door middel van simulaties en visualisaties tonen we hoe het gebruik van artificiële intelligentie leidt tot meer gebalanceerde strategieën, zonder dat het de effectiviteit van bestrijding van de epidemie beïnvloed.
Meer lezen

Virtual Reality in de lagere school - De meerwaarde van social virtual Reality in de lagere school

AP Hogeschool Antwerpen
2025
Yoran
Pedros Y Salvador
  • Rianne
    Konings
  • Monica
    Panis
  • Amber
    Damen
  • Arne
    van den Bergh
  • Ella-Victoria
    Feremans
De bachelorproef onderzoekt de meerwaarde van Social Virtual Reality (SVR) in het basisonderwijs. Aan de hand van literatuurstudie en praktijktests met Mozilla Hubs wordt nagegaan hoe virtuele leeromgevingen motivatie, samenwerking en begrip bij leerlingen kunnen bevorderen. De resultaten tonen dat SVR abstracte leerstof concreet maakt en differentiatie ondersteunt, vooral in vakken zoals geschiedenis en wereldoriëntatie. Ondanks technische en didactische uitdagingen (zoals infrastructuur, tijdsinvestering en beperkte ervaring) besluiten wij dat SVR, mits doordachte implementatie, een innovatieve en inclusieve aanvulling vormt op het traditionele onderwijs.
Meer lezen

Creatie van een AI Bill of Materials voor veilige, transparante en conforme modeltraining

Universiteit Gent
2025
Wiebe
Vandendriessche
AI-systemen worden steeds complexer, maar de ontwikkeling van tools om hun transparantie en veiligheid te waarborgen blijft achter. Deze scriptie introduceert de AI Bill of Materials (AIBOM), een uitbreiding op de Software Bill of Materials (SBOM), als een gestandaardiseerd en verifieerbaar overzicht van getrainde AI-modellen en hun omgevingen. Het proof of concept platform AIBoMGen automatiseert het aanmaken van ondertekende AIBOMs door tijdens de training datasets, modelmetadata en omgevingsdetails vast te leggen. Het platform fungeert als neutrale derde partij en garandeert dat elke trainingssessie een verifieerbare AIBOM oplevert. Met cryptografische hashing, digitale handtekeningen en in toto attestation wordt de integriteit beschermd tegen manipulatie. Evaluaties tonen aan dat AIBoMGen ongeautoriseerde wijzigingen betrouwbaar detecteert met minimale prestatie-impact. De resultaten laten zien dat AIBoMGen een belangrijke stap vormt richting veilige en transparante AI-ecosystemen die voldoen aan regelgeving zoals de Europese AI Act.
Meer lezen

Virtual Gravity: Simulating Weight Sensation in Virtual Reality by Rendering Gravity using Haptic Interfaces

KU Leuven
2025
Sindja
Lika
  • Marta
    Rozycka
The growing accessibility and capabilities of Virtual Reality (VR) have made it an increasingly valuable tool for training applications. Enabling multimodality, beyond purely visual feedback, enhances the realism and effectiveness of training. This is especially relevant for astronaut training conducted in environments that differ from those on Earth. Incorporating haptic devices can introduce tactile feedback in VR, but the current research focuses mainly on devices meant for users’ hands. In comparison, this work explores the integration of tactile sensations specifically in the forearm region. The aim is to investigate whether exoskeletons primarily used in the medical field can be implemented to simulate weight sensation for astronaut training in VR. Gravity is rendered through torque control based on the angular position of the forearm. The system is designed with a focus on its portability and accessibility. Initial results indicate that the technical implementation is promising for simulating varying gravitational conditions. By introducing a way to simulate weight sensation, this research contributes to the underexplored
area of multimodal VR experiences, particularly in tactile feedback on the user’s forearm.
Meer lezen

Realtime detectie van tanks op basis van infraroodbeelden

Thomas More Hogeschool
2025
Lukas
Van Den Bosch
Deze scriptie onderzoekt hoe gesimuleerde warmtesignaturen van 3D-modellen uit videogames gebruikt kunnen worden om een AI-systeem te bouwen dat militaire tanks op realtime niveau kan herkennen en classificeren op basis van infraroodbeelden.
Meer lezen

AI en toeristische B2B- en B2C-communicatie

Hogeschool PXL
2025
Maartje
Kerfs
Mijn bachelorproef gaat over AI binnen toeristische B2B- en B2C-communicatie. De communicatiemedewerkers van Visit Limburg - een toeristische organisatie die het toerisme in de provincie Limburg ontwikkelt en promoot - wensen artificiële intelligentie te gebruiken om de communicatie met partners én toeristen te verbeteren. Het resultaat is een praktische handleiding met tips over prompten en uitleg over AI-tools.
Meer lezen

Neural-netwerk gebaseerde audioverwerkingsalgoritmen voor cochleaire implantaten.

Universiteit Gent
2025
Julie
Van Heghe
Deze masterproef ontwikkelt en onderzoekt een nieuw audioverwerkingsalgoritme voor cochleaire implantaten, met als doel de geluidswaarneming dichter bij het normaal gehoor te brengen. Hiervoor werd een gesloten-lusarchitectuur ontworpen waarin een model van een normaalhorend systeem wordt vergeleken met een slechthorend systeem met implantaat. Via deep learning wordt het verschil tussen beide systemen geminimaliseerd, zodat het implantaatmodel geoptimaliseerd kan worden.
Meer lezen

Enhancing Public Cloud Attestation with the SVSM-vTPM and Keylime

Universiteit Gent
2025
Jelle
De Moerloose
Met de groeiende adoptie van cloud computing rijzen vragen over de veiligheid van data en de betrouwbaarheid van cloudproviders. Blind vertrouwen is daarbij riskant, vooral voor gevoelige informatie. Deze scriptie onderzoekt de SVSM-vTPM, een technologie voor onafhankelijke attestatie, en test de toepasbaarheid in publieke clouds zoals AWS, Azure en Google Cloud. Het onderzoek laat zien dat directe inzet nog niet mogelijk is, brengt de beperkingen en fouten van bestaande provideroplossingen in kaart, en ontwikkelt een praktische aanpak voor reproduceerbare attestatie op Azure, zodat organisaties hun data beter kunnen controleren en beschermen.
Meer lezen

Event-Based Neural Network for Embedded Deployment: Representation-Model Co-Design and Event-Data Acquisition System

KU Leuven
2025
Enmin
Lin
Diepgaand leren heeft het visueel waarnemingsvermogen bij autonoom rijden aanzienlijk verbeterd, maar conventionele camera's blijven beperkt door bewegingsonscherpte, een beperkt dynamisch bereik en hoge latentie. Gebeurteniscamera's, geïnspireerd door biologische visie, overwinnen deze beperkingen door asynchroon veranderingen in pixelhelderheid te detecteren. Dit mechanisme levert datastromen die schaars, temporeel nauwkeurig en zeer efficiënt zijn voor embedded toepassingen. De inherente schaarste en het gebrek aan intensiteitsinformatie in gebeurtenisgegevens bemoeilijken echter het extraheren van onderscheidende kenmerken en vormen uitdagingen voor de training van neurale netwerken. Daarnaast lijden gangbare datasets zoals CIFAR10-DVS aan een niet-uniforme verdeling van gebeurtenissen door het gebruik van lineaire of polygonaal gevormde bewegingstrajecten tijdens de opname, wat leidt tot periodieke artefacten.
Om deze beperkingen te overwinnen, evalueert dit proefschrift systematisch gebeurtenisrepresentaties—waaronder gestapelde afbeeldingen, voxelrasters en tijdoppervlakken—met standaard CNNs om optimale architecturen voor embedded implementatie te identificeren. Door gebruik te maken van transfer learning met vooraf getrainde ImageNet-modellen wordt de nauwkeurigheid onder beperkte dataomstandigheden aanzienlijk verbeterd. Experimentele resultaten tonen aan dat volledige fine-tuning van het hele netwerk noodzakelijk is om zich aan te passen aan de unieke eigenschappen van gebeurtenisgebaseerde gegevens. Het voorgestelde model integreert dropout, L2-regularisatie en een meerfasig leersnelheidsschema om de trainingsstabiliteit en generalisatie te bevorderen. Met deze co-designbenadering behaalt EfficientNetB0 een nauwkeurigheid van 81,05% op CIFAR10-DVS bij verwerking van gebeurtenissen binnen één temporeel venster.
Voor implementatie identificeert inspectie met het Xilinx Vitis Al-platform TensorFlow's MobileNetV2 als de optimale keuze dankzij volledige compatibiliteit met DPU-hardwareversnellers. Hoewel post-training pruning op basis van globale kanaalrangschikking is onderzocht, is de effectiviteit beperkt door het inherent gebrek aan redundantie in het model. Daarentegen compenseert quantization-aware training (QAT) succesvol het nauwkeurigheidsverlies tijdens INT8-kwantisatie, waarmee real-time prestaties (2,8 ms/frame) bij een ultralaag energieverbruik (1,77 mW) worden bereikt op het KV260 embedded platform.
Gemotiveerd door de beperkingen van bestaande datasets wordt een nieuw acquisitieplatform voorgesteld, waarbij gebruik wordt gemaakt van een Dobot-robotarm voor continue cirkelvormige beweging geïnspireerd op biologische oogbewegingen. Deze methode genereert uniforme gebeurtenisverdelingen en elimineert periodieke artefacten die aanwezig waren in eerdere datasets, wat robuustere training en evaluatie van neurale netwerken op gebeurtenisgegevens ondersteunt.
Meer lezen

AI-Driven Food Monitoring for Waste Reduction and Malnutrition Prevention

Universiteit Gent
2025
Axelle
Penninger
In woonzorgcentra gaan ondervoeding en voedselverspilling vaak hand in hand. Bewoners krijgen weliswaar uitgebalanceerde maaltijden, maar eten daar vaak slechts een deel van op. Het gevolg: ouderen krijgen te weinig voedingsstoffen binnen en grote hoeveelheden eten verdwijnen in de vuilnisbak. Bestaande opvolgsystemen bieden weinig soelaas: ze zijn arbeidsintensief, houden geen rekening met restjes, of falen bij gemixte en gepureerde maaltijden.

Daarom ontwikkelde ik LeftoVision, een computersysteem dat met behulp van beeldherkenning automatisch berekent hoeveel bewoners eten én hoeveel er wordt verspild. Het systeem vergelijkt foto’s van een maaltijd vóór en na consumptie, herkent de verschillende voedselcomponenten, schat hun gewicht en koppelt dit aan een voedingsdatabank. De resultaten worden bewaard in het Obelisk Core dataplatform en overzichtelijk weergegeven in een dashboard voor zorgverleners.

In tests behaalde LeftoVision een gemiddelde foutmarge van 22 gram per maaltijdonderdeel, voldoende nauwkeurig om kleine verschillen te detecteren. Het systeem vormt zo een belangrijke stap naar datagedreven zorg in woonzorgcentra, met als doel zowel de gezondheid van bewoners te verbeteren als voedselverspilling te beperken.
Meer lezen

Ignoring the Decoy: Tackling Forensic Distractions in Fake Image Detection

Universiteit Gent
2025
Xander
Staelens
Detectiemethoden proberen met slimme AI-technieken te achterhalen of een afbeelding al dan niet bewerkt is. In deze scriptie onderzocht ik hoe het toevoegen van logo's of tekst deze methoden kan afleiden waardoor ze vervalsingen missen. Om dit problem aan te pakken ontwikkelde ik een techniek, namelijk gemaskerde AI, die deze methoden veel robuuster maakt, waardoor afleidingen bijna geen invloed meer hebben.
Meer lezen

AI jury-assistent voor het herkennen van rope skipping skills in videos

HOGENT
2025
Mike
De Decker
Genomineerde longlist Bachelorprijs
Door de evolutie van de sport is het jureren van ropeskipping freestyles op hoog niveau moeilijk geworden. Zowel het aantal skills in de routine, alsook de snelheid waarmee ze worden uitgevoerd neemt toe. Dit is vooral te merken in Double Dutch freestyles. Daarom worden deze routines zowel live (creativiteit, variatie, muziekgebruik) als vertraagd (moeilijkheidsgraad) gejureerd.
Ondanks het feit dat freestyles op halve snelheid worden herbekeken en hierdoor jureerfouten worden vermeden, merkt men dat er nog enig verschil zit op scores toegekend door juryleden. Door de toegenomen toegankelijkheid van kunstmatige intelligentie, voornamelijk neurale netwerken, werd de vraag gesteld of een AI juryassistent ontwikkeld kan worden die helpt een betere en objectievere score zou opleveren.
Dit onderzoek verkent de mogelijkheid tot het bouwen van zo een juryassistent, de benodigde technieken en uitdagingen. De huidige vorm van de juryassistent bestaat uit drie hoofdzakelijke delen. Het eerste deel gaat over het lokaliseren van springers in de opnames. Niet alle videos zoomen in op de springer of zijn net eerder statische opname. Dit deel is noodzakelijk om computationele overhead te beperken, daar springers soms minder dan een vijfde van het beeld in beslag nemen.
De tweede groote stap is het splitsen van volledige routines in elke uitgevoerde skill. Dit wordt gedaan aangezien het onbegonnen werk zou zijn op om dit manueel te doen.
Het derde deel omvat het herkennen van de gesprongen skill. Voor Double Dutch Freestyles betekent dit een combinatie van uitvoering door draaiers en springers.
Door louter presentatieskills of moeilijk zichtbare skills te makeren als 'unknown' (e.g. wanneer een draaier tussen de springer en camera staat), wordt er verwacht dat het model aangeeft wanneer het niet zeker is.
Voor het lokaliseren slaagde YOLOv11 er in om een mAP50 te behalen tussen de 93-95\%, waarbij het succesvol publiek filterde van atleten, mits kleine foutjes. Hierdoor het Multiscale Vision Transformer model skills ingezoomde crops gebruiken om acties van elkaar te onderscheiden. Deze konden vervolgens herkend herkend worden hetzelfde MViT model of een doormiddel van een Swin Transformer. Het gemiddelde f1 macro gemiddelde van deze modellen lagen tussen de 49 en de 53 procent, door de lage representatie van minder vaak voorkomende skills. Immers lag de totale accuraatheid hoger, tussen de 89 en de 94 procent.
Dit zorgde ervoor dat juryscores door het model konden toegewezen, deze lagen -28 tot -20 procent onder de score toegekend door juryleden.
Verdere onderzoek is nodig om de accuraatheid van de architectuur te verhogen.
Meer lezen

Taalonafhankelijke Detectie van Computation–Constraint Inconsistenties in ZKP-Programma’s via Waardeinferentie

Vrije Universiteit Brussel
2025
Arman
Kolozyan
Genomineerde longlist mtech+prijs
Zero-knowledge proof (ZKP) is een cryptografische methode waarmee kan worden bewezen dat een bewering klopt, zonder daarbij extra informatie prijs te geven. Denk bijvoorbeeld aan het aantonen dat iemand ouder is dan achttien zonder geboortedatum of naam te onthullen. Bij ZKP's zijn altijd twee partijen betrokken: de prover, die een bewijs aanlevert, en de verifier, die nagaat of dat bewijs correct is. Het bijzondere is dat de verifier kan vaststellen of een bewering waar is, zonder toegang te krijgen tot de achterliggende gegevens.

Hoewel dit veelbelovende mogelijkheden biedt voor privacy en veiligheid, is het programmeren van zulke systemen bijzonder complex. Ontwikkelaars moeten namelijk precies aangeven welke controles de verifier moet uitvoeren wanneer die een bewijs binnenkrijgt. Als er zelfs maar één controle ontbreekt, kan een vals bewijs toch worden aanvaard en vallen alle privacy-garanties weg.

Deze scriptie introduceert een formeel model om systematisch na te gaan of er nergens een controle ontbreekt. Met behulp van dit model konden zes nieuwe soorten kwetsbaarheden worden beschreven die door bestaande hulpmiddelen niet opgespoord konden worden. Toepassing van het model leidde tot de ontdekking van vijftien tot dan toe onbekende kwetsbaarheden in zes grote ZKP-projecten, waaronder die van Microsoft en TikTok.

Daarnaast werd een prototype ontwikkeld als eerste stap richting de automatisering van dit model. Het onderzoek toont aan dat zo'n aanpak veelbelovend is, maar dat toekomstige implementaties nog preciezer en efficiënter moeten worden om grote ZKP-programma's binnen een redelijke tijd te kunnen analyseren.
Meer lezen

From Static Data to Dynamic Mobility: A Spatio-Temporal Method for Student Mobility Estimation

Universiteit Gent
2025
Quinten
van de Korput
Studenten hebben een enorme impact op steden op het vlak van huisvesting en mobiliteit. Ze zijn echter nog maar beperkt onderzocht. Er worden twee methoden voorgesteld die inzicht bieden in deze unieke populatiegroep. Eerst wordt een inschatting van studentenhuisvestingslocaties gemaakt op basis van afstanden tot stations, campussen en stadscentra. Vervolgens worden deze kotlocaties gecombineerd met lessenroosters om studentenbewegingen te simuleren. Op die manier is het mogelijk om informatie over studenten te verzamelen op een transparante en efficiënte manier die weinig data vereist.
Meer lezen

Turning learning data into meaningful Learning Analytics Dashboards

KU Leuven
2025
Jonas
Van Hove
Genomineerde longlist mtech+prijs
Genomineerde longlist Vlaamse Scriptieprijs
Genomineerde shortlist Klasseprijs
Competentiegericht onderwijs (CBE) wordt steeds vaker toegepast in het Vlaams secundair
onderwijs. Voor leerkrachten brengt dit uitdagingen met zich mee bij het interpreteren
van leerlinggegevens en het nemen van gepaste acties. Deze masterproef onderzoekt
hoe een learning analytics dashboard (LAD) leerkrachten kan ondersteunen tijdens
klassenraden, waar belangrijke beslissingen over leerlingen genomen worden.
Via een participatief ontwerpproces werd CLAIRE ontwikkeld, een proof-of-concept
dashboard. Dit dashboard sluit aan bij het Vlaamse competentiekader en is technisch
ge¨ıntegreerd met Moodle, het leerplatform van de partnerschool. Het ontwerp richtte
zich op gebruiksvriendelijkheid, visuele helderheid en praktische toepasbaarheid in het
dagelijkse lesgebeuren.
Feedback van leerkrachten wees op de nood aan duidelijke inzichten, intu¨ıtieve interfaces
en ondersteuning bij het opvolgen van leertrajecten op verschillende niveaus. Hoewel
artifici¨ele intelligentie werd verkend als mogelijke uitbreiding, ligt de focus in het uiteindelijke
prototype op begrijpelijke en bruikbare visualisaties van leerdata.
Kwalitatieve evaluatie toonde aan dat leerkrachten het visuele overzicht erg nuttig
vonden en de duidelijke structuur van competenties per vakgebied sterk waardeerden. Iteratieve
prototyping bracht het belang aan het licht van minimale manuele input, voortgangsvisualisaties
en flexibele filters die aansluiten bij de dagelijkse praktijk. Tijdens een
feedbacksessie op school werd het ontwerp van CLAIRE positief onthaald; leerkrachten
gaven aan dat het dashboard het analyseren van leerlinggegevens aanzienlijk vereenvoudigt.
Deze thesis levert een bijdrage aan het ontwerpen van gebruiksvriendelijke dashboards
voor leerkrachten en biedt concrete richtlijnen voor datagedreven besluitvorming binnen
CBE-contexten.
Meer lezen

Het gebruik van Chromebooks in de lagere school ter bevordering van leerresultaten en digitale vaardigheden

Odisee Hogeschool
2025
Aya
Abik
Mijn bachelorproef gaat over het gebruik van Chromebooks in de lagere school ter bevordering van leerresultaten en digitale vaardigheden.
Meer lezen

Multi-branch Neural Networks for Drug-target Interaction Prediction and Target-conditioned de novo Drug Design

Universiteit Gent
2025
Robbe
Claeys
Het ontdekken van nieuwe interacties tussen geneesmiddelen en proteïne-doelwitten (DTIs) is cruciaal voor therapeutische innovatie, maar experimentele validatie is kostelijk
en schaalt niet naar de astronomische omvang van chemische mogelijkheden. Heterogene, schaarse bindingsdata en beperkte diversiteit belemmeren robuuste voorspelling en de mogelijkheden voor in silico moleculaire ontwerp. Deze scriptie presenteert een geïntegreerd raamwerk dat data, representaties en modellen opschaalt voor DTI-voorspelling en doelwit-gestuurd de novo geneesmiddelontwerp.

Een gecombineerd DTI-corpus (339k interacties) en twee grote pretrainingsbronnen werden samengesteld om zowel supervised als unsupervised leerdoelen te ondersteunen. Centraal in het raamwerk is een flexibele, modulaire multi-branch architectuur: elke branch van het model (geneesmiddel of doelwit) kan geïnstantieerd worden als een encoder met enkele invoer, of als een multi-invoer-encoder die complementaire representaties fuseert (bijv. graaf, vingerafdruk, aminozuursequentie, DNA-signalen).
De geneesmiddel branch kan ook een variatie-sampling kop en een latent-gestuurde, discrete diffusie gebaseerde moleculaire graaf-generator omvatten. Branches kunnen
gezamenlijk getraind worden voor supervised DTI-voorspelling, of onafhankelijk met unsupervised/self-supervised leerdoelen om biologische voorkennis langs domeinen
heen in te brengen.

Resultaten tonen een regime-afhankelijk beeld: in data-arme regimes zijn foundationmodel embeddings het effectiefst, terwijl moleculaire vingerafdrukken de leiding hebben
wanneer data abundant zijn. Analyses tonen aan dat geneesmiddel-representaties de DTI-voorspellingsnauwkeurigheid sturen, met graaf-gebaseerde representaties als
meest invloedrijk; aminozuur- en DNA-signalen zijn complementair voor proteïnen. Algemeen verduidelijkt deze studie wanneer en hoe leren van meerdere representaties
en transfer learning helpen, biedt het een reproduceerbare basis voor DTI-voorspelling, en toont het de haalbaarheid aan van latent-gestuurde omgekeerde diffusie voor het
genereren van chemisch valide, doelwit-specifieke moleculen waarvan de farmacofore kenmerken consistent zijn met de bredere biochemische literatuur.
Meer lezen

The Sound of the City: Object Recognition of Sound Sources on Historical Photographs

Universiteit Antwerpen
2025
Vastert
Cuykens
This thesis explores how machine learning can be used to detect sound sources in historical photographs, with the aim of developing a model that can be used for historical soundscape reconstruction. While machine learning, and more specifically object detection, is increasingly being used in heritage studies, its application on historical photographs is largely unexplored.
The research is divided into four stages. First, three object detection models, YOLOv8, Faster R-CNN, and RetinaNet, were benchmarked on both modern and historical datasets to assess their baseline performance, without any training. Although all models performed significantly worse on historical photographs, YOLOv8 showed the smallest drop in accuracy. In the second and third parts, YOLOv8 was fine-tuned on two classes of sound-producing objects: an existing COCO class, “train”, and a newly added class, “carriage”. In total, over 1600 photographs were annotated for the various datasets. While the modest dataset size and limited computational resources influenced the performance of the custom models, the research nevertheless offers some interesting insights into the potential and limitations of applying object detection to historical photographs. In the last stage, a custom CycleGAN model was trained to transform modern images into a historical style and vice versa, helping to generate training data and reduce the need for manual annotation. The thesis demonstrates the feasibility of using object detection on historical photographs for historical soundscape research and highlights promising directions for future work on machine learning and heritage studies.
Meer lezen

Taste the Music

Hogeschool VIVES
2025
Henri
Lahousse
Wat als je muziek niet alleen kon horen, maar ook kon proeven? Taste the Music vertaalt liedjes naar volledig nieuwe cocktails met behulp van slimme AI. Tijdens mijn stage in de VS tilde ik dit idee van studentproject naar internationaal platform, met multi-agent AI, stand-alone cocktailrobots en een iOS-app voor thuisgebruik. Het resultaat is een ervaring die persoonlijk, deelbaar én commercieel relevant is voor artiesten en merken. Deze scriptie vertelt hoe technologie, creativiteit en ondernemerschap samenkomen in een innovatie die muziek letterlijk smaak geeft.
Meer lezen

ML-gebaseerde survival analyse met intervalgecensureerde gegevens voor leeftijdsvoorspelling bij honden

Universiteit Gent
2025
Jennifer
Martlé
Puppy’s worden vaak op te jonge leeftijd verhandeld. Dit kan gezondheidsimplicaties voor
zowel de hond, als de menselijke bevolking met zich meebrengen. Hierbij spelen de
minimumleeftijden van acht en vijftien weken een cruciale rol. Deze zijn ingevoerd om te
voorkomen dat te jonge en ongevaccineerde honden verhandeld worden. Deze studie
ontwikkelt daarom met behulp van machinaal leren en survival analyse een techniek om de illegale puppyhandel te bestrijden. Dit gebeurt door middel van modellen die accuraat de leeftijd van een pup kunnen bepalen op basis van zijn gebit.
Meer lezen

De rol van AI bij vroegtijdige ziektevoorspelling in de gezondheidszorg

Thomas More Hogeschool
2025
Kenneth
Punnewaert
Ik onderzocht hoe artificiële intelligentie longontsteking sneller en betrouwbaarder kan opsporen op borstkas-röntgenbeelden, en wat er nodig is om zo een systeem veilig, ethisch en juridisch verantwoord richting een ziekenhuis te ontwikkelen. De vraag kwam vanuit het AZ Sint-Maarten: er is nood aan ondersteuning bij triage van pneumoniedetectie.

Technisch bouwde ik een ResNet152-model en trainde dat op publieke Kaggle-datasets. De reality check volgde met geanonimiseerde pediatrische beelden uit AZ Sint-Maarten: door domain shift miste het eerste model te veel echte longontstekingen . Dat heb ik aangepakt met hertraining op pediatrische data, gericht croppen van het longveld en afstemming van helderheid/contrast. In de tweede evaluatie pikte het model alle echte positieve gevallen op.

Naast de prestaties besteed ik veel aandacht aan ethiek en regelgeving. Alle beelden zijn geanonimiseerd en lokaal verwerkt (GDPR). Met Grad-CAM-heatmaps maak ik beslissingen uitlegbaar. Het systeem ondersteunt artsen zij blijven eindverantwoordelijk. Qua regulering positioneer ik het als potentiële MDR-klasse IIa-software en situeer ik het project rond TRL 3→4: van labprototype naar testen in een relevante klinische omgeving. Ik bouwde ook een lokale Streamlit-interface die beelden uploadt, een voorspelling geeft en de heatmap toont. Conclusie: AI kan echt helpen bij triage en vroege detectie, maar robuuste praktijkinzet vraagt representatieve data, uitlegbaarheid, klinische validatie en moet ethisch verantwoord ontwikkeld worden.
Meer lezen

5G Man-in-the-Middle Research Tool

Universiteit Hasselt
2025
Jelle
Beerts
In deze scriptie onderzoeken we de mogelijkheden rond het ontwikkelen van een tool die onderzoekers moet helpen met het ontwikkelen van nieuwe aanvallen op 5G netwerken. Typisch vereisen aanvallen op dit soort netwerken dat de aanvaller zich tussen twee nietsvermoedende partijen plaatst en deze positie op een of andere manier misbruikt. Dit onderzoek tracht een generiek platform te maken om vanaf deze basis te starten met het ontdekken van nieuwe aanvallen, om zo dit essentiële onderzoek een duw in de rug te geven.
Meer lezen

Optimaal plannen van batterijsystemen op basis van voorspeld verbruik onder dynamische elektriciteitsprijzen en het capaciteitstarief

Universiteit Gent
2025
Cyl
Rouseré
Deze masterproef onderzoekt hoe batterijsystemen optimaal kunnen worden aangestuurd in een context van dynamische elektriciteitsprijzen en het Belgische capaciteitstarief. De focus ligt op industriële verbruikers, waarbij gestreefd wordt naar het minimaliseren van de totale energiekost.
Een nieuw Rolling Horizon Linear Programming (RHLP)-algoritme werd ontwikkeld en
vergeleken met een eenvoudig heuristisch basisalgoritme. Het RHLP-algoritme gebruikt PV-opbrengst, dynamische prijzen en verbruiksvoorspellingen op basis van Extreme Gradient Boosting (XGBoost) om de laad- en ontlaadbeslissingen te optimaliseren over een tijdshorizon van 48 uur. Deze horizon schuift mee met de tijd (rolling
horizon), waarbij de optimalisatie om de 15 minuten wordt herhaald. De PV-opbrengst
werd in de standaardconfiguratie benaderd via werkelijke historische waarden.
De algoritmes werden geëvalueerd aan de hand van uitgebreide simulaties op reële
verbruiksprofielen en historische Belpex-prijsdata. De resultaten tonen aan dat onder
de juiste omstandigheden het RHLP-algoritme tot 20% kostenbesparing kan realiseren
in vergelijking met het basisalgoritme.
Nacht- en weekendverbruik bleek een bepalende factor in de behaalde optimalisatiewinst, wat duidt op een duidelijke invloed van het verbruiksprofiel op het prestatiepotentieel van het algoritme. Daarnaast bleken ook parameters zoals batterijcapaciteit
en prijsschommelingen op de markt van doorslaggevend belang voor de gerealiseerde
resultaten.
Dit onderzoek toont aan dat batterijsturing op basis van verbruiksvoorspellingen via
lineaire optimalisatie kostenbesparingen kan opleveren.

Meer lezen

Enhancing Trustworthiness in Algorithmic Stock Forecasting using Multi-Model Machine Learning and Historical Similarity

Universiteit Hasselt
2025
Xander
Corvers
Deze thesis behandelt het black-box-probleem van machine learning (ML) en het daaruit voortvloeiende gebrek aan gebruikersvertrouwen bij beursvoorspellingen. Er wordt een beslissingsondersteunend systeem geïntroduceerd en geëvalueerd dat de betrouwbaarheid verhoogt. Het systeem combineert hiervoor de voorspellingen van zes uiteenlopende ML-modellen met een transparante, historische analyse. De kerninnovatie is een zoekmachine die historisch vergelijkbare marktperioden identificeert. Vervolgens toont het systeem hoe de modellen in die analoge situaties presteerden: het plaatst hun toenmalige voorspellingen naast de daadwerkelijke marktresultaten.

Een empirisch gebruikersonderzoek vergeleek deze “Multiple Models View” (MMV) met een simplistische interface die slechts één model toonde. De resultaten tonen aan dat de MMV significant betrouwbaarder werd gevonden, het vertrouwen van gebruikers verhoogde en de risico's van voorspellingen effectiever communiceerde. Gebruikers schreven dit toe aan de grotere transparantie, omdat ze meerdere modellen konden vergelijken, en aan de concrete context die de historische prestatie-analyse bood. De thesis concludeert daarom dat de combinatie van meerdere modellen en een historische similariteitsanalyse een krachtige strategie is om weloverwogen gebruikersvertrouwen in complexe, AI-gedreven financiële systemen te creëren.
Meer lezen