Scriptiebank overzicht

De Vlaamse Scriptiebank is een vrij toegankelijke online databank. Het bevat intussen al meer dan 8.000 artikels en volledige scripties van bachelor- en masterstudenten die sinds 2002 hebben deelgenomen aan de Vlaamse Scriptieprijs.

Multimodal Large Language Models and Computer Vision for Open Discovery in Educational Augmented Reality

Universiteit Gent
2025
Xander
Vanparys
Genomineerde longlist mtech+prijs
Genomineerde shortlist Eosprijs
Tijdens mijn masterproef ontwikkelde ik een slimme assistent die via de smartphonecamera meekijkt met de gebruiker en in 3D aanwijst wat er nodig is. De AI begrijpt zowel tekst als beeld en kan feedback geven wanneer een stap fout loopt. Na succesvolle tests met eenvoudige taken werd het systeem toegepast in twee realistische scenario’s: een medische oefening en het opzetten van een VR-installatie. De resultaten tonen dat zo’n digitale assistent gebruikers effectief kan begeleiden, een eerste stap richting handsfree opleiding via augmented reality.
Meer lezen

Ethiek in het tijdperk van AI: een lessenpakket

Hogeschool VIVES
2025
Jitske
Van Steenlandt
In mijn bachelorproef “Ethiek in het tijdperk van AI: een lessenpakket voor de tweede graad godsdienstonderwijs” onderzocht ik hoe jongeren bewust kunnen leren omgaan met de ethische grenzen van artificiële intelligentie. Uit mijn onderzoek bij leerkrachten en leerlingen bleek dat er grote interesse is in AI-ethiek, maar dat er weinig geschikt lesmateriaal bestaat. Daarom ontwikkelde ik een lessenpakket en ontwierp ik het bordspel Tussen Mens en Machine. Met dit spel denken leerlingen op een speelse manier na over morele dilemma’s, zoals: Mag een zelfrijdende auto kiezen wie overleeft? of Is AI altijd eerlijk? Het project wil jongeren leren kritisch omgaan met technologie en hen laten ontdekken dat AI niet enkel slim, maar ook menselijk doordacht moet zijn.
Meer lezen

GenAI, MT en de vertaler van morgen

Vrije Universiteit Brussel
2025
Davina
Ferraris
De opkomst van generatieve artificiële intelligentie (GenAI) en machinevertaling (MT) verandert het beroep van vertaler drastisch, wat leidt tot toenemende onzekerheid over de toekomst van het beroep. Tegelijkertijd staan derdejaarsstudenten Toegepaste Taalkunde aan Vlaamse universiteiten voor belangrijke studie- en carrièrekeuzes, waaronder de keuze om vertaler te worden. Deze masterproef onderzoekt hoe zij het beroep van vertaler percipiëren in tijden van GenAI en MT en in hoeverre deze percepties hun keuze om vertaler te worden beïnvloeden.
Meer lezen

Probabilistic geotechnical calculations of dikes

Universiteit Gent
2025
Thibo
Verstrynge
Traditionele geotechnische ontwerpmethoden in België zijn in hoofdzaak gebaseerd op deterministische of semi-probabilistische benaderingen. Deze leiden vaak tot conservatieve schattingen die de inherente variabiliteit van het bodemgedrag slechts beperkt weerspiegelen. In deze thesis wordt de praktische toepassing van volledig probabilistische geotechnische berekeningen onderzocht, met specifieke aandacht voor het voorspellen van dijkzettingen.

Het onderzoek richt zich op het project voor dijkversterking te Groot Schoor (Bornem), dat deel uitmaakt van het bredere Vlaamse Sigmaplan voor waterveiligheid. Hierbij wordt uitgebreide veld- en laboratoriumdata geïntegreerd met geavanceerde probabilistische methoden.

Een omvattende methodologie wordt ontwikkeld, waarin PLAXIS 2D eindige-elementenmodellering wordt gecombineerd met Python-gebaseerde automatisering en probabilistische berekeningen. Via een sensitiviteitsanalyse worden de belangrijkste bodemparameters geïdentificeerd en gemodelleerd als stochastische variabelen, gebaseerd op kansverdelingen afgeleid uit CPT(u)-gegevens en laboratoriumproeven. Latin hypercube sampling wordt toegepast om representatieve inputsets te genereren, terwijl een response-surface model, getraind op een beperkt aantal PLAXIS-simulaties, een grootschalige probabilistische analyse mogelijk maakt. Bayesian updating, geïmplementeerd via de Markov Chain Monte Carlo-methode, verfijnt de probabilistische voorspellingen door de integratie van werkelijke zettingsmetingen uit de monitorcampagne.

De resultaten tonen aan dat probabilistische methoden niet alleen de variabiliteit en onzekerheid van zettingsgedrag accurater weergeven dan deterministische benaderingen, maar tevens waardevolle inzichten verschaffen in parametersensitiviteit en modelrobuustheid. Deze studie bevestigt de haalbaarheid en de voordelen van het structureel integreren van probabilistische technieken in geotechnisch ontwerp, wat de weg opent naar betrouwbaardere en kostenefficiëntere infrastructuurontwikkeling, evenals data-gestuurde besluitvorming.
Meer lezen

INVESTIGATING FAIRNESS IN EPIDEMIC CONTROL

Vrije Universiteit Brussel
2025
Sam
Vanspringel
In dit werk onderzoeken we hoe artificiële intelligentie kan helpen om epidemieën eerlijker en efficiënter aan te pakken. Met behulp van reinforcement learning leert een algoritme verschillende maatregelen uitproberen en afwegen, zodat het zowel de medische impact als de sociale last probeert te beperken. Dit onderzoek breidt eerder onderzoek uit door in de sociale last ook het risico op hospitalisatie in rekening te brengen. We kijken hoe het algoritme de maatregelen op een gebalanceerde manier aanpakt en verdeelt tussen de leeftijdsgroepen. Door middel van simulaties en visualisaties tonen we hoe het gebruik van artificiële intelligentie leidt tot meer gebalanceerde strategieën, zonder dat het de effectiviteit van bestrijding van de epidemie beïnvloed.
Meer lezen

Objectdetectie in sonardata met behulp van semi- en self-supervised learning

HOGENT
2025
Yoran
Gyselen
Sinds de opkomst van krachtige AI- en deep learning-modellen is data uitgegroeid tot een essentiële en vaak beperkende factor in het ontwikkelingsproces. Waar eenvoudige modellen vaak kunnen volstaan met beperkte en eenvoudige datasets, vereisen complexere modellen – zoals die voor objectdetectie – steeds grotere en rijkere hoeveelheden gelabelde data. Dit vormt een belangrijk probleem in domeinen zoals sonarbeeldvorming, waar dergelijke datasets niet beschikbaar zijn als kant-en-klare bronnen en handmatige annotatie buitengewoon tijdsintensief en kostbaar is. Dit onderzoek richt zich daarom op de centrale vraag: hoe kunnen semi-supervised en self-supervised leermethoden het labelproces bij objectdetectie in sonardata versnellen, zonder significant verlies aan nauwkeurigheid?

Om deze vraag te beantwoorden is een experimenteel kader opgezet waarin drie benaderingen zijn onderzocht: een volledig supervised baseline gebaseerd op Faster R-CNN, een semi-supervised model met FixMatch, en een self-supervised strategie waarbij een BYOL-model wordt gepretraind en vervolgens gebruikt als backbone binnen een Faster R-CNN-architectuur. De experimenten zijn uitgevoerd op een publieke sonardataset bestaande uit 7600 gelabelde sonarbeelden. Voor de supervised baseline is het model getraind op verschillende hoeveelheden gelabelde data: 1%, 5%, 10%, 50% en 100%. De bijbehorende mAP-scores tonen een sterke daling in nauwkeurigheid naarmate de hoeveelheid gelabelde data afneemt, met resultaten variërend van 0.7717 (100%) tot slechts 0.2799 bij gebruik van 1% van de data.

In het semi-supervised scenario is FixMatch toegepast met 5% en 10% gelabelde data, terwijl de resterende data werd gebruikt als ongelabelde input. Deze aanpak resulteerde in mAP-scores van respectievelijk 0.6649 en 0.6828, wat duidelijk betere prestaties zijn dan het supervised model op dezelfde labelniveaus. Voor het self-supervised model werd BYOL gepretraind op de volledige dataset zonder labels. De representaties die dit opleverde zijn vervolgens geïntegreerd in Faster R-CNN, waarbij opnieuw 5% en 10% van de data gelabeld werd gebruikt voor training. Deze benadering leverde de hoogste nauwkeurigheid binnen de lage-labelscenario's, met mAP-scores van respectievelijk 0.6452 en 0.7230.

De resultaten van dit onderzoek tonen aan dat zowel semi-supervised als self-supervised technieken effectief zijn in het verminderen van de afhankelijkheid van handmatig gelabelde data, terwijl de modelprestaties grotendeels behouden blijven. Met name self-supervised pretraining via BYOL blijkt zeer waardevol in situaties met beperkte gelabelde data. Deze bevindingen bieden praktische aanknopingspunten voor het ontwikkelen van efficiëntere workflows in sonarbeeldanalyse, en zijn relevant voor bredere toepassingen in domeinen waar gelabelde data schaars of moeilijk te verkrijgen is. Hoewel de resultaten veelbelovend zijn, is vervolgonderzoek nodig om de generaliseerbaarheid naar andere types sonardata of real-time toepassingen te evalueren.
Meer lezen

AI en toeristische B2B- en B2C-communicatie

Hogeschool PXL
2025
Maartje
Kerfs
Mijn bachelorproef gaat over AI binnen toeristische B2B- en B2C-communicatie. De communicatiemedewerkers van Visit Limburg - een toeristische organisatie die het toerisme in de provincie Limburg ontwikkelt en promoot - wensen artificiële intelligentie te gebruiken om de communicatie met partners én toeristen te verbeteren. Het resultaat is een praktische handleiding met tips over prompten en uitleg over AI-tools.
Meer lezen

Neural-netwerk gebaseerde audioverwerkingsalgoritmen voor cochleaire implantaten.

Universiteit Gent
2025
Julie
Van Heghe
Deze masterproef ontwikkelt en onderzoekt een nieuw audioverwerkingsalgoritme voor cochleaire implantaten, met als doel de geluidswaarneming dichter bij het normaal gehoor te brengen. Hiervoor werd een gesloten-lusarchitectuur ontworpen waarin een model van een normaalhorend systeem wordt vergeleken met een slechthorend systeem met implantaat. Via deep learning wordt het verschil tussen beide systemen geminimaliseerd, zodat het implantaatmodel geoptimaliseerd kan worden.
Meer lezen

Credibility analysis of a multi-constituent microstructurally-informed finite element model of arterial tissue

KU Leuven
2025
Hannes
Wolfs
This thesis evaluates the credibility of a multi-constituent microstructurally-informed finite element model of arterial tissue. Understanding the link between arterial microstructure and mechanical function is essential for defining cardiovascular diseases like atherosclerosis and aneurysms. Representative volume element (RVE) models are increasingly used to explore this link by efficiently connecting microstructure to mechanics. However, many existing RVEs lack experimental calibration using tissue with selectively modified constituents, systematic validation across loading conditions, and biofidelic microstructural networks. Furthermore, there is limited understanding of how uncertainties in input parameters affect model predictions. Therefore, this study aims to assess and improve the credibility of an RVE model by addressing these gaps through detailed characterisation. The model is evaluated against experimental data from both native and enzymatically-treated tissue, and parameter sensitivity analyses are conducted.

To achieve this, uniaxial tensile tests were performed on native porcine aortic samples. Crucially, to isolate the mechanical roles of key constituents, samples were treated with the enzymes collagenase or elastase to deplete collagen or elastin, respectively. The resulting data calibrated and validated the RVE model, focusing on the collagen and elastin networks and the model’s anisotropic predictive capacity. Subsequently, a surrogate model based on an artificial neural network emulated the RVE’s mechanical response, enabling efficient Sobol' sensitivity analysis of six key microstructural, mechanical, and model parameters.

Enzymatic depletion confirmed distinct constituent roles: collagen-deficient tissue exhibited a linearised response with slight stiffening at high strains, whereas elastase-digested samples demonstrated increased compliance but lost structural integrity. RVE model validation emphasised the importance of accurately representing the anisotropic architecture. Furthermore, the sensitivity analysis revealed that uncertainties in six key input parameters substantially influence RVE output variance, with elastin properties predominantly governing low-strain behaviour and collagen-related parameters dictating high-strain responses.

The calibrated and validated microstructurally-informed RVE model can reliably predict aortic mechanics if tissue anisotropy is adequately accounted for. The sensitivity analysis provided crucial insights into which parameters most significantly impact model output variance. This will guide future efforts in model refinement and highlight parameters that require precise experimental characterisation to reduce predictive uncertainty. Furthermore, it will strengthen the RVE's potential as a credible tool in arterial biomechanics research by establishing a more robust, uncertainty-aware modelling framework.
Meer lezen

Onderzoek naar de neurale basis van natuurlijke spraak bij personen met afasie via voxel-wise lesion-symptom mapping

KU Leuven
2025
Sara
Dupont
  • Eline
    Biermans
Ongeveer één op de vier personen met een beroerte krijgt te maken met afasie, een taalstoornis waarbij het begrijpen en/of produceren van taal moeilijk kan verlopen. In deze masterproef zoeken we een link tussen de taalfouten die personen met afasie maken en de exacte locatie van hun hersenletsel. Dit deden we aan de hand van de innovatieve techniek 'voxel-wise lesion-symptom mapping'. Wat ons onderzoek bijzonder maakt, is dat we bij de taaltesten gebruikmaken van natuurlijke spraak. Zo krijgen we een accurater beeld van het dagelijks taalgebruik van de personen met afasie. Deze studie opent nieuwe wegen om te voorspellen welke hersenschade welke taalproblemen veroorzaakt en hoe personen met afasie zullen herstellen.
Meer lezen

Ignoring the Decoy: Tackling Forensic Distractions in Fake Image Detection

Universiteit Gent
2025
Xander
Staelens
Detectiemethoden proberen met slimme AI-technieken te achterhalen of een afbeelding al dan niet bewerkt is. In deze scriptie onderzocht ik hoe het toevoegen van logo's of tekst deze methoden kan afleiden waardoor ze vervalsingen missen. Om dit problem aan te pakken ontwikkelde ik een techniek, namelijk gemaskerde AI, die deze methoden veel robuuster maakt, waardoor afleidingen bijna geen invloed meer hebben.
Meer lezen

Auteursrecht in het post-GenAI-tijdperk: actuele vraagstukken en eerste tendensen in de internationale rechtspraak

HOGENT
2025
Kwinten
Masureel
Deze bachelorproef betreft een rechtsdogmatisch onderzoek in de lacunes die opduiken in het bestaande Belgische auteursrecht wanneer gepoogd wordt om deze toe te passen op generatieve artificiële intelligentie (GenAI).

Generatieve AI is een relatief nieuw fenomeen en het is vaak niet duidelijk hoe juristen het auteursrecht moeten interpreteren in functie hiervan. Twee cruciale aspecten m.b.t. GenAI belicht dit onderzoek dan ook. Enerzijds onderzoekt deze studie of het bestaande juridische kader een antwoord kan bieden op auteursrechtelijke vraagstukken die opduiken bij input-zijde van het AI-model. Anderzijds wordt ook de auteursrechtelijke status van de gegenereerde output geanalyseerd. Telkens vertrekt het onderzoek van de Belgische en Europese wetgeving inzake het auteursrecht, daarna de bestaande internationale rechtspraak, en tenslotte de rechtsleer.

Deze bachelorproef toont aan dat er nog heel wat onduidelijkheid is m.b.t. beide aspecten van GenAI.

Toch zijn er al een aantal duidelijke conclusieste trekken uit de internationale rechtspraak en rechtsleer.

De rechtspraak en rechtsleer werd bijgehouden tot 26 mei 2025
Meer lezen

AI jury-assistent voor het herkennen van rope skipping skills in videos

HOGENT
2025
Mike
De Decker
Genomineerde longlist Bachelorprijs
Door de evolutie van de sport is het jureren van ropeskipping freestyles op hoog niveau moeilijk geworden. Zowel het aantal skills in de routine, alsook de snelheid waarmee ze worden uitgevoerd neemt toe. Dit is vooral te merken in Double Dutch freestyles. Daarom worden deze routines zowel live (creativiteit, variatie, muziekgebruik) als vertraagd (moeilijkheidsgraad) gejureerd.
Ondanks het feit dat freestyles op halve snelheid worden herbekeken en hierdoor jureerfouten worden vermeden, merkt men dat er nog enig verschil zit op scores toegekend door juryleden. Door de toegenomen toegankelijkheid van kunstmatige intelligentie, voornamelijk neurale netwerken, werd de vraag gesteld of een AI juryassistent ontwikkeld kan worden die helpt een betere en objectievere score zou opleveren.
Dit onderzoek verkent de mogelijkheid tot het bouwen van zo een juryassistent, de benodigde technieken en uitdagingen. De huidige vorm van de juryassistent bestaat uit drie hoofdzakelijke delen. Het eerste deel gaat over het lokaliseren van springers in de opnames. Niet alle videos zoomen in op de springer of zijn net eerder statische opname. Dit deel is noodzakelijk om computationele overhead te beperken, daar springers soms minder dan een vijfde van het beeld in beslag nemen.
De tweede groote stap is het splitsen van volledige routines in elke uitgevoerde skill. Dit wordt gedaan aangezien het onbegonnen werk zou zijn op om dit manueel te doen.
Het derde deel omvat het herkennen van de gesprongen skill. Voor Double Dutch Freestyles betekent dit een combinatie van uitvoering door draaiers en springers.
Door louter presentatieskills of moeilijk zichtbare skills te makeren als 'unknown' (e.g. wanneer een draaier tussen de springer en camera staat), wordt er verwacht dat het model aangeeft wanneer het niet zeker is.
Voor het lokaliseren slaagde YOLOv11 er in om een mAP50 te behalen tussen de 93-95\%, waarbij het succesvol publiek filterde van atleten, mits kleine foutjes. Hierdoor het Multiscale Vision Transformer model skills ingezoomde crops gebruiken om acties van elkaar te onderscheiden. Deze konden vervolgens herkend herkend worden hetzelfde MViT model of een doormiddel van een Swin Transformer. Het gemiddelde f1 macro gemiddelde van deze modellen lagen tussen de 49 en de 53 procent, door de lage representatie van minder vaak voorkomende skills. Immers lag de totale accuraatheid hoger, tussen de 89 en de 94 procent.
Dit zorgde ervoor dat juryscores door het model konden toegewezen, deze lagen -28 tot -20 procent onder de score toegekend door juryleden.
Verdere onderzoek is nodig om de accuraatheid van de architectuur te verhogen.
Meer lezen

Using common gen-AI tools to generate reading materials for A2-level ESL learners.

Universiteit Gent
2025
Annelies
Pandelaers
De toenemende beschikbaarheid van generatieve artificiële intelligentie (genAI) biedt taalonderwijzers nieuwe mogelijkheden om leesmateriaal op maat van hun leerlingen te ontwikkelen. Deze masterpraktijkproef onderzoekt of vrij toegankelijke gen-AI-platformen (met name ChatGPT en Google Gemini) in staat zijn om Engelstalige leesteksten te genereren die aansluiten bij het ERK niveau A2. Via een vergelijkende corpusanalyse werden AI-gegenereerde teksten geëvalueerd tegenover teksten uit twee gevestigde bronnen: Vlaamse handboeken en het Key A2 English-examen van Cambridge. De lexicale profilering gebeurde met behulp van AntWordProfiler om de woorddekkingsgraad van elke tekst te analyseren. Uit de resultaten van dit beperkte corpus blijkt dat de AI-gegenereerde teksten een hogere lexicale dekking bereikten dan de handboek- en examenteksten. De AI-teksten benaderden de drempel van 95% dekking die volgens het Coverage Comprehension Model noodzakelijk wordt geacht voor tekstbegrip. De teksten gegenereerd door Google Gemini bleken lexicaal sterker en beter afgestemd op pedagogische richtlijnen dan die van ChatGPT. De bevindingen suggereren dat genAI, mits aangestuurd door zorgvuldig geformuleerde prompts, inderdaad niveau-adequate teksten kan produceren. Dit kan mogelijk de werklast van leerkrachten verlichten en hen in staat stellen om leesteksten af te stemmen op specifieke onderwerpen of onderwijsnoden. Deze studie formuleert praktische richtlijnen voor promptontwikkeling en benadrukt de nood aan verder praktijkgericht onderzoek naar het begrip en de ervaring van AI-gegenereerde teksten door leerlingen.
Meer lezen

Turning learning data into meaningful Learning Analytics Dashboards

KU Leuven
2025
Jonas
Van Hove
Genomineerde longlist mtech+prijs
Genomineerde longlist Vlaamse Scriptieprijs
Genomineerde shortlist Klasseprijs
Competentiegericht onderwijs (CBE) wordt steeds vaker toegepast in het Vlaams secundair
onderwijs. Voor leerkrachten brengt dit uitdagingen met zich mee bij het interpreteren
van leerlinggegevens en het nemen van gepaste acties. Deze masterproef onderzoekt
hoe een learning analytics dashboard (LAD) leerkrachten kan ondersteunen tijdens
klassenraden, waar belangrijke beslissingen over leerlingen genomen worden.
Via een participatief ontwerpproces werd CLAIRE ontwikkeld, een proof-of-concept
dashboard. Dit dashboard sluit aan bij het Vlaamse competentiekader en is technisch
ge¨ıntegreerd met Moodle, het leerplatform van de partnerschool. Het ontwerp richtte
zich op gebruiksvriendelijkheid, visuele helderheid en praktische toepasbaarheid in het
dagelijkse lesgebeuren.
Feedback van leerkrachten wees op de nood aan duidelijke inzichten, intu¨ıtieve interfaces
en ondersteuning bij het opvolgen van leertrajecten op verschillende niveaus. Hoewel
artifici¨ele intelligentie werd verkend als mogelijke uitbreiding, ligt de focus in het uiteindelijke
prototype op begrijpelijke en bruikbare visualisaties van leerdata.
Kwalitatieve evaluatie toonde aan dat leerkrachten het visuele overzicht erg nuttig
vonden en de duidelijke structuur van competenties per vakgebied sterk waardeerden. Iteratieve
prototyping bracht het belang aan het licht van minimale manuele input, voortgangsvisualisaties
en flexibele filters die aansluiten bij de dagelijkse praktijk. Tijdens een
feedbacksessie op school werd het ontwerp van CLAIRE positief onthaald; leerkrachten
gaven aan dat het dashboard het analyseren van leerlinggegevens aanzienlijk vereenvoudigt.
Deze thesis levert een bijdrage aan het ontwerpen van gebruiksvriendelijke dashboards
voor leerkrachten en biedt concrete richtlijnen voor datagedreven besluitvorming binnen
CBE-contexten.
Meer lezen

The impact of artificial intelligence on the cost of radiotherapy in low- and middle-income countries

Universiteit Gent
2025
Thyra
Vermorgen
This master’s thesis explores how artificial intelligence (AI) can help address economic
and operational barriers to radiotherapy in low and middle income countries (LMICs),
where access is limited despite a rising cancer burden. A major obstacle in these regions is the shortage of trained professionals and the high cost of treatment planning
and delivery.
The study evaluates whether the Radiotherapy Planning Assistant (RPA), an AI based
tool, can improve efficiency and reduce costs in LMIC radiotherapy departments. Data
from four centres in the ARCHERY study,covering cervical, head and neck, and prostate
cancers, were analysed using the ESTRO HERO Time Driven Activity Based Costing
(TDABC) model. Simulations modelled planning time reductions of 70 percent, 80 percent, and 90 percent for eligible tumour types.
Baseline results showed equipment as the dominant cost driver, limiting overall cost
reductions. However, time savings from AI integration improved treatment planning
system availability and reduced staff workload. These gains suggest enhanced efficiency and capacity, especially in high volume settings. While AI may not yield large
financial savings alone, it alleviates key bottlenecks and supports workforce optimisation, provided infrastructure and system capacity are strengthened.
Meer lezen

Modelling Glacier Thickness and Evolution with Machine Learning: Evaluating the Instructed Glacier Model (IGM) on the Batysh-Sook Glacier through Inverse and Forward Modelling

KU Leuven
2025
Robbe
Buls
De afvoer van smeltwater uit de gletsjers van het Tien Shan-gebergte in Kirgizië is van cruciaal belang voor de samenleving en economie in de stroomafwaarts gelegen vlaktes. In het droge Centraal-Azië is de landbouw sterk afhankelijk van irrigatie met dit water. De gletsjers functioneren als watertorens: ze herverdelen de schaarse neerslag over de seizoenen, wat grootschalige landbouw mogelijk maakt. Door klimaatverandering trekken de gletsjers zich echter snel terug, waardoor de inwoners van de vlaktes hun belangrijkste inkomensbron dreigen te verliezen.

Het doel van deze thesis is het evalueren van het Instructed Glacier Model (IGM). Dit
model gebruikt een neuraal netwerk als emulator om ijsstroming te beschrijven, wat computationele voordelen oplevert en het mogelijk maakt het model zowel invers (interpoleren van ijsdiktemetingen) als voorwaarts (voorspellen van gletsjerevolutie onder klimaatscenario’s) te gebruiken. De prestaties worden vergeleken met klassieke ruimtelijke interpolatiemethoden, zoals de vloeispanningsmethode, en met een hoger-ordemodel dat de gletsjerevolutie simuleert.

De evaluatie vindt plaats op de Batysh-Sook-gletsjer in de Tien Shan. De resultaten tonen dat het ge¨ınverteerde IGM consistente, nauwkeurige en gladde ijsdiktevelden genereert. Vooral in schaars bemonsterde zones presteert het model beter dan de
conventionele vloeispanningsmethode. Voor de gletsjerevolutie laten zowel IGM als het hoger-ordemodel zien dat de Batysh-Sook-gletsjer gevoeliger is voor opwarming dan veel omliggende gletsjers, waarschijnlijk door haar kleine huidige omvang. IGM volgt de trends van het hoger-ordemodel goed, al simuleert het in de historische periode iets minder smelt, waardoor het gletsjervolume groter blijft.

Deze bevindingen tonen aan dat IGM een veelbelovend instrument is voor zowel ijsdikteinterpolatie als projectie, vooral in gebieden met beperkte veldmetingen. Betere modellering van gletsjers zoals de Batysh-Sook kan leiden tot nauwkeurigere voorspellingen van toekomstige waterbeschikbaarheid, wat van groot belang is voor wetenschappelijk onderzoek en voor duurzaam waterbeheer in Centraal-Azië.
Meer lezen

Human Oversight in EU Data Protection Law: A Study of the GDPR and the AI Act

Vrije Universiteit Brussel
2025
Michaël
Thomas
Deze masterproef onderzoekt de wisselwerking tussen de Algemene Verordening Gegevensbescherming (GDPR) en de nieuwe Europese verordening inzake artificiële intelligentie (AI Act) met bijzondere aandacht voor de rol van menselijk toezicht bij geautomatiseerde besluitvorming. Vertrekkend van de centrale onderzoeksvraag hoe de AI Act het kader van de GDPR voor human oversight versterkt of daarvan afwijkt, wordt een doctrinale juridische methode gevolgd. De analyse omvat primaire rechtsbronnen, waaronder de GDPR en de AI Act met hun voorbereidende documenten en relevante rechtspraak van het Hof van Justitie, evenals beleidsrichtsnoeren en academische literatuur.

De studie toont aan dat artikel 22 GDPR, dat het recht biedt om niet te worden onderworpen aan uitsluitend geautomatiseerde besluiten met rechtsgevolgen of een vergelijkbaar significant effect, in de praktijk op aanzienlijke beperkingen stuit. De criteria “uitsluitend geautomatiseerd” en “significant effect” blijken moeilijk toepasbaar en de vereiste van menselijke tussenkomst blijft inhoudelijk vaag. De AI Act introduceert daarentegen een risicogebaseerd regelgevend kader dat voor hoog-risicosystemen proactieve waarborgen oplegt, waaronder specifieke verplichtingen inzake menselijk toezicht die al in de ontwerpfase moeten worden ingebouwd en gedurende de werking van het systeem behouden.

Hoewel de AI Act zo enkele structurele tekortkomingen van de GDPR corrigeert, blijven fundamentele vragen bestaan over de reikwijdte en de effectiviteit van het opgelegde toezicht. Niet alle maatschappelijk risicovolle toepassingen vallen immers onder de hoog-risicocategorie en de wettelijke vereisten voor daadwerkelijke menselijke controle laten ruimte voor interpretatie en voor louter symbolische naleving. De analyse maakt duidelijk dat het juridisch verankeren van een menselijke factor in processen die per definitie niet-menselijk beslissen een hardnekkige spanning blootlegt: het blijft een onoplosbare paradox om menselijk toezicht als waarborg op te leggen in een domein dat precies gekenmerkt wordt door geautomatiseerde systemen.
Meer lezen

Machine Learning Small Datasets for Cu Nanoparticles: enhancing Experimental and Computational lab-scale data

Universiteit Hasselt
2025
Brent
Motmans
Koper-nanodeeltjes (Cu NP's) hebben een brede toepasbaarheid, maar hun synthese is gevoelig voor kleine veranderingen in reactieparameters. Deze gevoeligheid, in combinatie met het tijdrovende en arbeidsintensieve karakter van experimentele optimalisatie, vormt een grote uitdaging voor reproduceerbare synthese met gecontroleerde deeltjesgrootte. Bovendien is Machine Learning (ML) weliswaar veelbelovend gebleken voor materiaalonderzoek, maar wordt toepassing ervan vaak beperkt door gebrek aan hoogwaardige experimentele datasets. Deze studie onderzoekt ML om de grootte van Cu NP’s gevormd met microgolf geassisteerde polyolsynthese te voorspellen met kleine datasets, gegenereerd uit 25 intern uitgevoerde syntheses. Latin Hypercube Sampling wordt gebruikt om de parameterruimte van precursorconcentratie, temperatuur en reactietijd efficiënt te samplen. Ensemble-regressiemodellen, gebouwd met het AMADEUS-framework, voorspellen met hoge nauwkeurigheid de deeltjesgrootte en presteren daarmee beter dan klassieke statistische benaderingen. Featureselectie vermindert complexiteit van het model en verbetert generaliseerbaarheid. Daarnaast worden classificatiemodellen, gebaseerd op zowel traditionele random forests als Large Language Modellen (LLM’s), geëvalueerd om onderscheid te maken tussen grote en kleine deeltjes. Terwijl random forests matig presteren, bieden LLM’s geen duidelijke verbeteringen in omstandigheden met weinig gegevens. Over het algemeen toont dit onderzoek dat zorgvuldig samengestelde kleine datasets, in combinatie met robuuste klassieke ML, synthese van Cu NP's effectief kan voorspellen en dat voor laboratoriumonderzoek complexe LLM's geen voordelen bieden.
Meer lezen

The Sound of the City: Object Recognition of Sound Sources on Historical Photographs

Universiteit Antwerpen
2025
Vastert
Cuykens
This thesis explores how machine learning can be used to detect sound sources in historical photographs, with the aim of developing a model that can be used for historical soundscape reconstruction. While machine learning, and more specifically object detection, is increasingly being used in heritage studies, its application on historical photographs is largely unexplored.
The research is divided into four stages. First, three object detection models, YOLOv8, Faster R-CNN, and RetinaNet, were benchmarked on both modern and historical datasets to assess their baseline performance, without any training. Although all models performed significantly worse on historical photographs, YOLOv8 showed the smallest drop in accuracy. In the second and third parts, YOLOv8 was fine-tuned on two classes of sound-producing objects: an existing COCO class, “train”, and a newly added class, “carriage”. In total, over 1600 photographs were annotated for the various datasets. While the modest dataset size and limited computational resources influenced the performance of the custom models, the research nevertheless offers some interesting insights into the potential and limitations of applying object detection to historical photographs. In the last stage, a custom CycleGAN model was trained to transform modern images into a historical style and vice versa, helping to generate training data and reduce the need for manual annotation. The thesis demonstrates the feasibility of using object detection on historical photographs for historical soundscape research and highlights promising directions for future work on machine learning and heritage studies.
Meer lezen

ML-gebaseerde survival analyse met intervalgecensureerde gegevens voor leeftijdsvoorspelling bij honden

Universiteit Gent
2025
Jennifer
Martlé
Puppy’s worden vaak op te jonge leeftijd verhandeld. Dit kan gezondheidsimplicaties voor
zowel de hond, als de menselijke bevolking met zich meebrengen. Hierbij spelen de
minimumleeftijden van acht en vijftien weken een cruciale rol. Deze zijn ingevoerd om te
voorkomen dat te jonge en ongevaccineerde honden verhandeld worden. Deze studie
ontwikkelt daarom met behulp van machinaal leren en survival analyse een techniek om de illegale puppyhandel te bestrijden. Dit gebeurt door middel van modellen die accuraat de leeftijd van een pup kunnen bepalen op basis van zijn gebit.
Meer lezen

De rol van AI bij vroegtijdige ziektevoorspelling in de gezondheidszorg

Thomas More Hogeschool
2025
Kenneth
Punnewaert
Ik onderzocht hoe artificiële intelligentie longontsteking sneller en betrouwbaarder kan opsporen op borstkas-röntgenbeelden, en wat er nodig is om zo een systeem veilig, ethisch en juridisch verantwoord richting een ziekenhuis te ontwikkelen. De vraag kwam vanuit het AZ Sint-Maarten: er is nood aan ondersteuning bij triage van pneumoniedetectie.

Technisch bouwde ik een ResNet152-model en trainde dat op publieke Kaggle-datasets. De reality check volgde met geanonimiseerde pediatrische beelden uit AZ Sint-Maarten: door domain shift miste het eerste model te veel echte longontstekingen . Dat heb ik aangepakt met hertraining op pediatrische data, gericht croppen van het longveld en afstemming van helderheid/contrast. In de tweede evaluatie pikte het model alle echte positieve gevallen op.

Naast de prestaties besteed ik veel aandacht aan ethiek en regelgeving. Alle beelden zijn geanonimiseerd en lokaal verwerkt (GDPR). Met Grad-CAM-heatmaps maak ik beslissingen uitlegbaar. Het systeem ondersteunt artsen zij blijven eindverantwoordelijk. Qua regulering positioneer ik het als potentiële MDR-klasse IIa-software en situeer ik het project rond TRL 3→4: van labprototype naar testen in een relevante klinische omgeving. Ik bouwde ook een lokale Streamlit-interface die beelden uploadt, een voorspelling geeft en de heatmap toont. Conclusie: AI kan echt helpen bij triage en vroege detectie, maar robuuste praktijkinzet vraagt representatieve data, uitlegbaarheid, klinische validatie en moet ethisch verantwoord ontwikkeld worden.
Meer lezen

ChatGPT in de les Nederlands

Thomas More Hogeschool
2025
Sarah
Van Mol
Deze bachelorproef onderzoekt de inzet van ChatGPT in het secundair
onderwijs, specifiek binnen de lessen Nederlands. Artificiële intelligentie
(AI) speelt een steeds grotere rol in onze samenleving en biedt diverse
mogelijkheden voor gepersonaliseerd leren en ondersteuning bij
taalvaardigheid. In deze bachelorproef wordt AI gedefinieerd (zie 1.1) en
de impact ervan op de samenleving geanalyseerd (zie 1.2). AI wordt
breed toegepast in verschillende sectoren, waaronder gezondheidszorg en
onderwijs. Dit biedt kansen en uitdagingen, zoals ethische vraagstukken
en de invloed op werkgelegenheid.
In de literatuurstudie wordt dieper ingegaan op ChatGPT als specifieke AItoepassing (zie 2.1), de rol ervan in de samenleving (zie 2.2) en de
toepassing binnen het onderwijs, met een bijzondere focus op het vak
Nederlands (zie 2.3). ChatGPT ondersteunt leerkrachten bij
lesvoorbereiding, het geven van gerichte feedback en het differentiëren
van instructie. Voor leerlingen biedt ChatGPT voordelen bij
schrijfopdrachten, tekstanalyses en gepersonaliseerde leerroutes. Toch
zijn er risico’s, zoals het gevaar van plagiaat en afhankelijkheid. Het
gebruik van ChatGPT vereist een bewuste en kritische inzet van alle
gebruikers, dus zowel leerlingen als leerkrachten.
De literatuurstudie behandelt verder effectieve strategieën voor de
implementatie van ChatGPT in het onderwijs (zie 2.3), zoals het gebruik
van schrijfkaders en effectieve promptconstructie (zie 2.3.4). Daarnaast
wordt het belang van digitale geletterdheid en ethiek bij het gebruik van
AI benadrukt (zie 2.3.5). Leerkrachten moeten worden ondersteund bij
het kritisch evalueren en begeleiden van leerlingen in het gebruik van
ChatGPT, om zo de kwaliteit van het onderwijs te waarborgen.
Tot slot werd een praktijkgerichte handleiding ontwikkeld op basis van de
literatuur, stage-ervaringen (zie 4.1) en feedback van leerkrachten uit het
werkveld (zie 4.2). Deze handleiding bundelt concrete toepassingen,
prompts en lesideeën waarmee leerkrachten in de eerste graad secundair
onderwijs doelgericht met ChatGPT aan de slag kunnen. De positieve
reacties uit het werkveld tonen aan dat ChatGPT een meerwaarde kan
betekenen in de klas, op voorwaarde dat het gebruik ervan kritisch
begeleid wordt en goed ingebed is in de didactische aanpak.
Meer lezen

Van pen naar prompt: eindwerken in een AI-era

Vrije Universiteit Brussel
2025
Lennerd
Kevelaerts
De opkomst van generatieve artificiële intelligentie (Gen-AI) stelt het hoger onderwijs
voor nieuwe uitdagingen op vlak van onderwijskwaliteit en evaluatie-aanpak. AI-tools zoals ChatGPT bieden opportuniteiten op vlak van efficiëntie en personalisatie, maar wanneer studenten de tools ongecontroleerd inzetten, kan dit de pedagogische waarde en geloofwaardigheid van opleidingen en hun evaluaties ondermijnen. Gen-AI maakt het mogelijk dat studenten met minimale input uitgebreide, grammaticaal correcte teksten genereren, die al snel de indruk wekken dat ze de materie beheersen.
Vooral bij eindwerken heerst momenteel een spanning tussen technologische
ondersteuning en valide evaluaties van studentenwerk. Waar het eindwerk vroeger volstond om na te gaan of eindcompetenties bereikt werden, blijkt uit dit onderzoek dat Gen-AI deze evaluatie sterk kan vertekenen. Wanneer studenten AI inzetten zonder kritisch inzicht of inhoudelijk begrip, komt de waarde van diploma’s onder druk te staan. Beleidsmatige sturing vanuit de Vlaamse overheid blijft beperkt, waardoor instellingen zelf richting moeten geven aan hun AI-beleid, vaak zonder overkoepelend kader.
Deze masterproef onderzoekt hoe evaluatiemethoden van eindwerken hertekend
kunnen worden om kerncompetenties te blijven borgen in een AI-tijdperk. Via een holistische single-case study binnen het domein Economie en Management werden expertinterviews en documentanalyses gecombineerd. De resultaten tonen aan dat competenties zoals domeinkennis, onderzoeksvaardigheden en kritisch denken essentieel blijven. Klassieke eindwerkvormen, zoals de academische paper, schieten echter tekort in het valide toetsen van deze vaardigheden. Tegelijkertijd wint AI-geletterdheid aan belang als nieuwe en onmisbare competentie.
Vier paradoxen (expertise, innovatie, equity en transparantie) illustreren de spanningsvelden die Gen-AI met zich meebrengt. Opvallend is vooral de vierde, nieuwe
paradox die tijdens de interviews naar voren kwam: de Transparantie Paradox. Deze tot dan toe onbenoemde paradox onderstreept hoe het streven naar transparantie, de controle op authenticiteit kan ondermijnen. Respondenten pleiten voor een verschuiving van productgerichte naar procesgerichte evaluatie, met nadruk op eigenaarschap, transparantie en contextgerichtheid. Beleidsmakers en instellingen worden uitgedaagd om voorbij het klassieke spanningsveld tussen controle en loslaten te denken, richting betekenisvolle vernieuwing van procesevaluatie.
Meer lezen

Optimalisatie en automatisatie van het gebruik van puntenwolken in de bouwsector: vergelijkingssoftware, objectherkenning en volumeberekeningen voor BIM-processen

Hogeschool PXL
2025
Jordi
Thys
In mijn bachelorproef onderzocht ik hoe puntenwolken efficiënter kunnen worden ingezet in de bouwsector. Deze technologie levert uiterst nauwkeurige gegevens op, maar de bestanden zijn groot en zonder gespecialiseerde software moeilijk te gebruiken.

Het onderzoek bestond uit drie pijlers. Ten eerste werd nagegaan hoe puntenwolken automatisch kunnen worden vergeleken met digitale bouwmodellen om afwijkingen vroegtijdig te detecteren. Ten tweede onderzocht ik hoe objecten zoals muren, vloeren en leidingen automatisch herkend en verwerkt kunnen worden. Ten derde werkte ik een methode uit om betrouwbare volumeberekeningen te maken op basis van puntenwolkdata.

Na een grondige vergelijking van twaalf softwarepakketten bleek Leica Cyclone 3DR het meest geschikt om deze drie toepassingen te combineren. Ik automatiseerde de workflow met een zelfgeschreven script en maakte instructievideo’s zodat collega’s de software zelfstandig konden aanleren.
Meer lezen

Blended Intensive Program: Set-up of Smart Steam Engine Systems

Hogeschool PXL
2025
Kynan
Snijkers
  • Karel
    De Bruyckere
Een internationaal programma waarin technische onderwerpen aan bod komen, vereist zorgvuldige aandacht. Het is belangrijk om studenten te betrekken bij verschillende onderwerpen op het gebied van technologie. Daarnaast is een grondige voorbereiding noodzakelijk om ervoor te zorgen dat studenten volledig voorbereid zijn op het programma.

Tijdens de voorbereidingsfase moet het technische doel van het programma, dat een week duurt, duidelijk worden gecommuniceerd. Het technische doel van dit programma is het verbeteren van de Overall Equipment Effectiveness (OEE) van een stoommachine. Het proces begint met het verzenden van gegevens via een Programmable Logic Controller (PLC) via MQTT-communicatie naar een broker. Met behulp van NodeRED kunnen deze gegevens worden gevisualiseerd en met een Python-script kunnen ze worden vastgelegd in een dataset. Met deze dataset kan een AI-model worden geselecteerd en getraind. Het model moet vervolgens de trend van de gekozen output zo nauwkeurig mogelijk voorspellen. Het programma duurt een week, waarin alle stappen worden uitgevoerd om het AI-model te optimaliseren en de OEE te maximaliseren.
Meer lezen

Met oog voor de toekomst: een vignettenonderzoek naar de bereidheid van leerkrachten om eye-tracking in te zetten bij begrijpend lezen

Universiteit Antwerpen
2025
Jolijn
Verbergt
Het leesniveau van leerlingen is al jaren een groeiende bekommernis binnen het Vlaamse onderwijs. Begrijpend lezen is immers een vaardigheid die bepalend is voor schoolsucces én voor een volwaardige integratie in de samenleving. Tegelijk ervaren leerkrachten moeilijkheden om zicht te krijgen op het leesproces van hun leerlingen, wat effectieve begeleiding bemoeilijkt. Innovatieve technologieën, zoals eye-tracking en artificiële intelligentie (AI), bieden nieuwe mogelijkheden om dit leesproces zichtbaar te maken en ondersteuning op maat te bieden. Hoewel deze technologie beschikbaar is, wordt ze vandaag nog niet toegepast in het Vlaamse onderwijs.

Deze masterproef speelt in op die leemte door te onderzoeken in welke mate leerkrachten in het lager en secundair onderwijs bereid zijn om AI-technologie die gebruikmaakt van eye-tracking toe te passen bij begrijpend lezen. Daarbij wordt gekeken naar drie aspecten: de factoren die bereidheid beïnvloeden, de kennis die leerkrachten hierbij noodzakelijk achten en het type samenwerking tussen mens en technologie dat zij verkiezen.

Via een kwalitatieve vignettenstudie werden twintig leerkrachten geïnterviewd over deze bereidheid. Leerkrachten zien vooral meerwaarde in technologie die hun didactische rol ondersteunt, maar niet overneemt. De bruikbaarheid van deze technologie werd vooral gekoppeld aan het zichtbaar maken van het leesproces, de mogelijkheden tot differentiatie en zelfreflectie. Gebruiksgemak hing af van een eenvoudig dashboard, makkelijk gebruik in de klas en snel te leren technologie. Daarnaast geven leerkrachten aan nood te hebben aan technologische, didactisch-technologische, technologisch-vakinhoudelijke en ethische kennis. Vertrouwen in AI en transparantie over de werking en besluitvorming zijn essentieel voor leerkrachten om de technologie te aanvaarden. Tot slot benoemden respondenten aandachtspunten zoals verminderde sociale interactie, bezorgdheden rond schermlezen en het belang van menselijke betrokkenheid in het leerproces.

Deze bevindingen tonen aan hoe belangrijk het is om eye-tracking en op eye-tracking gebaseerde AI-technologie in het onderwijs op een manier te gebruiken die de leerkracht ondersteunt en niet vervangt. De technologie moet gebruiksvriendelijk en transparant zijn, maar vooral de professionele autonomie en didactische rol van de leerkracht versterken.
Meer lezen

Het gebruik van AI voor contentcreatie binnen eventmarketing

Odisee Hogeschool
2025
Sinem
Ardiçlar
  • Yinthe
    De Paepe
De evolutie van artificiële intelligentie (AI) biedt nieuwe mogelijkheden voor de marketing- en evenementensector, met name binnen contentcreatie. Deze bachelorproef onderzoekt hoe AI-tools op een efficiënte en effectieve manier kunnen bijdragen aan het verbeteren van contentcreatie binnen de evenementensector, met House of Entertainment als opdrachtgever.
Aan de hand van een literatuurstudie, interviews met experts, het uittesten van AI-tools en een enquête bij 386 respondenten (op een vooropgestelde steekproef van 385, met een betrouwbaarheid van 95%) werd vastgesteld dat AI vooral meerwaarde biedt in de voorbereidende fasen van contentcreatie. Denk hierbij aan het brainstormen over ideeën, het genereren van basiscontent zoals teksten of visuals en het structureren van content. Tools zoals ChatGPT, Midjourney en Adobe Firefly blijken zowel in de praktijk als in dit onderzoek vaak gebruikt te worden, wat hun relevantie en toegankelijkheid onderstreept. Ook Ubersuggest bleek een waardevolle aanvulling, vooral bij het optimaliseren van content op basis van zoekwoorden en SEO.
AI kan helpen om repetitieve taken en het creëren van content te versnellen, maar vervangt menselijke creativiteit niet. Kritische tussenkomst door mensen blijft essentieel voor het waarborgen van kwaliteit, nuance en merkbeleving. Vooral bij emotioneel geladen of merkgevoelige communicatie is menselijke controle en verfijning cruciaal. AI is dus vooral geschikt als ondersteunend hulpmiddel bij functionele of informatieve content.
Deze bachelorproef biedt House of Entertainment en de rest van de evenementensector een helder overzicht van enkele bruikbare AI-tools en concrete aanbevelingen voor een verantwoorde implementatie. De resultaten tonen dat AI het potentieel heeft om de efficiëntie van contentcreatie te verhogen, mits de tools strategisch worden ingezet en medewerkers voldoende worden opgeleid.
Deze studie levert niet alleen academische inzichten op, maar biedt ook praktische richtlijnen voor de evenementensector om AI op een doordachte en toekomstgerichte manier te implementeren in hun takenpakket.
Meer lezen

Enhancing Trustworthiness in Algorithmic Stock Forecasting using Multi-Model Machine Learning and Historical Similarity

Universiteit Hasselt
2025
Xander
Corvers
Deze thesis behandelt het black-box-probleem van machine learning (ML) en het daaruit voortvloeiende gebrek aan gebruikersvertrouwen bij beursvoorspellingen. Er wordt een beslissingsondersteunend systeem geïntroduceerd en geëvalueerd dat de betrouwbaarheid verhoogt. Het systeem combineert hiervoor de voorspellingen van zes uiteenlopende ML-modellen met een transparante, historische analyse. De kerninnovatie is een zoekmachine die historisch vergelijkbare marktperioden identificeert. Vervolgens toont het systeem hoe de modellen in die analoge situaties presteerden: het plaatst hun toenmalige voorspellingen naast de daadwerkelijke marktresultaten.

Een empirisch gebruikersonderzoek vergeleek deze “Multiple Models View” (MMV) met een simplistische interface die slechts één model toonde. De resultaten tonen aan dat de MMV significant betrouwbaarder werd gevonden, het vertrouwen van gebruikers verhoogde en de risico's van voorspellingen effectiever communiceerde. Gebruikers schreven dit toe aan de grotere transparantie, omdat ze meerdere modellen konden vergelijken, en aan de concrete context die de historische prestatie-analyse bood. De thesis concludeert daarom dat de combinatie van meerdere modellen en een historische similariteitsanalyse een krachtige strategie is om weloverwogen gebruikersvertrouwen in complexe, AI-gedreven financiële systemen te creëren.
Meer lezen

Hoe kunnen chatbots, gebruik makend van RAG en NLP, bijsluiters begrijpbaar maken?

Hogeschool West-Vlaanderen
2025
Lien
De Jong
De centrale onderzoeksvraag van deze bachelorproef luidt: Hoe kunnen chatbots, gebruikmakend van RAG en NLP-technologieën, bijsluiters begrijpbaarder maken? Het doel van het onderzoek was om na te gaan hoe artificiële intelligentie ingezet kan worden om medische informatie toegankelijker te maken voor een breed publiek, waaronder jongeren, ouderen en mensen met beperkte gezondheidsvaardigheden.

Het project bestond uit een literatuurstudie naar bestaande NLP-technieken, gevolgd door de ontwikkeling van een werkende demo van een AI-chatbot. Deze chatbot maakt gebruik van Retrieval-Augmented Generation (RAG), Azure AI Search en GPT-technologie om informatie uit medische bijsluiters te extraheren, te vereenvoudigen en aan te bieden via een gebruiksvriendelijke interface.

Tot slot werd de oplossing kritisch geëvalueerd aan de hand van feedback van experten uit het werkveld, zoals VITO, het FAGG, en softwareontwikkelaars en marketing directors uit de medische sector.

Positieve elementen in de evaluatie waren de technische haalbaarheid, de intuïtieve gebruikerservaring en de schaalbaarheid van het systeem. Negatieve of kritische aandachtspunten betroffen vooral de juridische en ethische grenzen, het risico op misinterpretatie, en de nood aan duidelijke afbakening van wat het systeem wel
en niet mag doen.

De belangrijkste elementen in het advies zijn dan ook het vermijden van persoonlijke data, het beperken van de reikwijdte van de chatbot tot informatieve antwoorden, en het voorzien van een heldere juridische en echnische structuur. De conclusie van het project luidt dat AI-chatbots een waardevolle bijdrage kunnen leveren aan begrijpelijke gezondheidsinformatie, op voorwaarde dat ze zorgvuldig ontworpen, beperkt ingezet en
voortdurend gemonitord worden.
Meer lezen