Scriptiebank overzicht

De Vlaamse Scriptiebank is een vrij toegankelijke online databank. Het bevat intussen al meer dan 8.000 artikels en volledige scripties van bachelor- en masterstudenten die sinds 2002 hebben deelgenomen aan de Vlaamse Scriptieprijs.

Het besparingspotentieel van een Energie Management Systeem (EMS)

AP Hogeschool Antwerpen
2025
Walter
D'Amico
‘Het besparingspotentieel van een Energie Management Systeem (EMS)’
Student: Walter D’Amico – AP Hogeschool Antwerpen
Stageplaats: VEKA – Vlaams Energie- en Klimaatagentschap
Opleiding: Professionele bachelor Energiemanagement (2024-2025)
In een energiemarkt gekenmerkt door prijsschommelingen, capaciteitsheffingen en digitalisering, worden huishoudens en KMO’s uitgedaagd om hun verbruik slimmer te beheren. Energie Management Systemen (EMS’en) vormen hierbij een sleuteltechnologie: ze sturen het verbruik automatisch op basis van realtime prijs- en netdata. Toch blijft de rendabiliteit ervan voor veel gebruikers onduidelijk. Deze bachelorproef brengt daar verandering in.
Ik ontwikkelde een interactieve rekenmodule die op basis van gebruikersinput – zoals woningtype, toestellen, gedrag en contractvorm – de Total Cost of Ownership (TCO) en de Terugverdientijd (TVT) van een EMS berekent. Via Google Sheets en Apps Script wordt automatisch een gepersonaliseerd rapport gegenereerd, inclusief scenariovergelijking, besparingsgrafieken en benchmarkanalyse.
De tool werd ontworpen met reproduceerbare logica, gevoeligheids- en correctiefactoren, en werd getest op meer dan 550 realistische scenario’s. De resultaten tonen dat voor gebruikers met meerdere regelbare toestellen en een dynamisch of een contract bij een Flexibility Service Provider of aggregator, de jaarlijkse besparing kan oplopen tot honderden euro’s, met een gemiddelde terugverdientijd van net boven de 5 jaar. Daartegenover staan profielen waar de investering minder loont – wat de nood aan maatwerk aantoont.
Het project is technisch en beleidsmatig relevant. VEKA gaat deze rekenmodule zeker verder bespreken om te integreren in de website www.maakjemeterslim.be en zal dan worden ingezet in campagnes van VEKA als extra stimulans om potentiële gebruikers te overtuigen. Daarnaast is het inzetbaar als simulatie-instrument bij energieloketten, netbeheerders of leveranciers die contractoptimalisatie en flexibiliteitsdiensten willen ondersteunen. De methodiek is uitbreidbaar naar andere technologieën (zoals warmtepompen of batterijen) en types aansluitingen (zoals AMR).
Deze bachelorproef koppelt praktijkervaring, innovatie en systeeminzicht met een breed maatschappelijk nut. Het biedt gebruikers helderheid, en beleidsmakers een onderbouwde basis om het potentieel van EMS’en gericht te stimuleren in het kader van de energietransitie.
Meer lezen

Reframing Security in the Age of CLIMATE REfugees, A Comparative Study of Syria and Bangladesh Through Security Perspectives

Universiteit Gent
2025
ilkay
kesebir
This thesis examines how climate change reshapes security and mobility by comparing two distinct pathways of climate-related displacement: rapid-onset drought and agricultural collapse in Syria, and slow-onset sea-level rise and salinization in Bangladesh. Building on Environmental Security, Human Security, and Securitization Theory, the study argues that these frameworks illuminate important mechanisms—such as climate change as a “threat multiplier” and the political construction of (in)security—but remain limited by state- and anthropocentric assumptions. To address these limits, the thesis advances a Green Theory–informed perspective that centers ecological integrity and climate justice as core security referents. Methodologically, the research employs a comparative case design with process-tracing and pattern-matching across secondary data (peer-reviewed studies, attribution science, displacement statistics, and policy reports). The Syria case links multi-year drought, rural–urban migration, and governance failures to heightened social unrest and onward displacement. The Bangladesh case shows how chronic inundation, salinity intrusion, and livelihood erosion generate primarily internal, incremental mobility with long-term human security risks. Cross-case synthesis demonstrates convergent vulnerabilities (exposure, adaptive capacity, and institutional response) alongside divergent temporal dynamics and policy needs. The thesis contributes in two ways: empirically, by integrating visual and quantitative evidence on climate impacts and mobility patterns across contrasting contexts; and normatively, by proposing elements of a sui generis protection regime for climatedisplaced persons (eligibility criteria for planned relocation, responsibility-sharing formula, and dedicated financing and monitoring). Overall, it reframes security in the Anthropocene toward ecocentric and justice-oriented protection that better aligns with the lived realities of climate-affected populations.
Meer lezen

De generatie'breuk': Een vergelijkend onderzoek naar het strategiegebruik bij het schatten van breuken op een getallenlijn in het zesde leerjaar en vijfde middelbaar

KU Leuven
2025
Ine
Meers
Breuken vormen een fundamenteel onderdeel van het curriculum in het basis- en secundair onderwijs. Toch blijkt uit onderzoek dat mensen meer moeilijkheden ervaren met het begrijpen van de numerieke grootte van breuken, in vergelijking met natuurlijke en decimale getallen. Dit heeft geleid tot verder onderzoek naar hoe leerlingen breuken begrijpen en welke strategieën zij daarbij gebruiken. Zo onderzocht Hofmans (2022) het strategiegebruik bij het schatten van breuken op een getallenlijn van leerlingen uit het zesde leerjaar met verschillende wiskundige competenties. Zij maakte daarbij gebruik van de Number Line Estimation (NLE)-taak, waarbij leerlingen verschillende breuken op een getallenlijn van 0 tot 1 moesten plaatsen. Daarnaast ontwikkelde ze een codeerschema waarmee ze het strategiegebruik systematisch kon coderen en analyseren in relatie tot item- en leerlingkenmerken. In dit driedelig codeerschema werd elke trial eerst globaal beoordeeld als ‘correct’, ‘inaccuraat’ of ‘rest’. Het schatten van de breuk werd vervolgens opgesplitst in drie stappen, namelijk ‘encoderen’, ‘positioneren’ en ‘finaliseren’.
Hoewel Hofmans (2022) aantoonde dat de strategiekeuze en adaptief strategiegebruik samenhingen met de schattingsnauwkeurigheid, beperkte haar studie zich enkel tot leerlingen uit het zesde leerjaar. Hierdoor werd niet duidelijk in hoeverre onderwijsniveau of expertise een invloed uitoefende op het strategiegebruik en de schattingsfouten.
Het huidig onderzoek vergeleek daarom leerlingen uit het zesde leerjaar en vijfde middelbaar. Er werd via een gelijkaardig onderzoeksopzet nagegaan hoe deze onderwijsniveaus verschilden in hun strategiegebruik en adaptiviteit en welk effect dit had op hun schattingsfouten. Hierbij werd er gebruikgemaakt van hetzelfde codeerschema, mits enkele aanpassingen, en de NLE-taak. De nauwkeurigheid van de schattingen van de leerlingen werd berekend door middel van de Percentage of Absolute Error (PAE).
Er werd onderzocht welke strategieën leerlingen hanteerden, hoe accuraat en hoe flexibel deze werden toegepast en in welke mate die samenhingen met leerling- of itemkenmerken. Er werd gekeken naar de algemene schattingsfout bij het positioneren van breuken op een getallenlijn en naar de verschillen in strategiegebruik en nauwkeurigheid tussen leerlingen uit verschillende onderwijsniveaus. Daarnaast werd onderzocht of er verschillen optraden in de nauwkeurigheid van de schattingen op leerling- en itemniveau. Ook de relatie tussen de strategiediversiteit van een leerling en diens onderwijsniveau werd geanalyseerd in relatie tot de schattingsnauwkeurigheid. Tot slot werd nagegaan of bepaalde itemkenmerken specifieke strategieën uitlokten en of dit leidde tot een grotere nauwkeurigheid in de schatting. Zo werd het adaptief strategiegebruik van leerlingen uit verschillende onderwijsniveaus in kaart gebracht worden.
Samenvattend toonden de resultaten aan dat zowel het onderwijsniveau als het strategiegebruik een rol spelen bij het accuraat schatten van breuken op een getallenlijn. Leerlingen uit het vijfde middelbaar schatten over het algemeen nauwkeuriger dan leerlingen uit het zesde leerjaar. Dit verschil leek eerder samen te hangen met het strategiegebruik binnen de stap ‘positioneren’ dan met ‘encoderen’ of ‘finaliseren’. Daarnaast bleek dat itemkenmerken, zoals de noemergrootte en de ligging ten opzichte van referentiepunten, het strategiegebruik en de schattingsnauwkeurigheid sterk beïnvloedden.
Meer lezen

Probabilistic geotechnical calculations of dikes

Universiteit Gent
2025
Thibo
Verstrynge
Traditionele geotechnische ontwerpmethoden in België zijn in hoofdzaak gebaseerd op deterministische of semi-probabilistische benaderingen. Deze leiden vaak tot conservatieve schattingen die de inherente variabiliteit van het bodemgedrag slechts beperkt weerspiegelen. In deze thesis wordt de praktische toepassing van volledig probabilistische geotechnische berekeningen onderzocht, met specifieke aandacht voor het voorspellen van dijkzettingen.

Het onderzoek richt zich op het project voor dijkversterking te Groot Schoor (Bornem), dat deel uitmaakt van het bredere Vlaamse Sigmaplan voor waterveiligheid. Hierbij wordt uitgebreide veld- en laboratoriumdata geïntegreerd met geavanceerde probabilistische methoden.

Een omvattende methodologie wordt ontwikkeld, waarin PLAXIS 2D eindige-elementenmodellering wordt gecombineerd met Python-gebaseerde automatisering en probabilistische berekeningen. Via een sensitiviteitsanalyse worden de belangrijkste bodemparameters geïdentificeerd en gemodelleerd als stochastische variabelen, gebaseerd op kansverdelingen afgeleid uit CPT(u)-gegevens en laboratoriumproeven. Latin hypercube sampling wordt toegepast om representatieve inputsets te genereren, terwijl een response-surface model, getraind op een beperkt aantal PLAXIS-simulaties, een grootschalige probabilistische analyse mogelijk maakt. Bayesian updating, geïmplementeerd via de Markov Chain Monte Carlo-methode, verfijnt de probabilistische voorspellingen door de integratie van werkelijke zettingsmetingen uit de monitorcampagne.

De resultaten tonen aan dat probabilistische methoden niet alleen de variabiliteit en onzekerheid van zettingsgedrag accurater weergeven dan deterministische benaderingen, maar tevens waardevolle inzichten verschaffen in parametersensitiviteit en modelrobuustheid. Deze studie bevestigt de haalbaarheid en de voordelen van het structureel integreren van probabilistische technieken in geotechnisch ontwerp, wat de weg opent naar betrouwbaardere en kostenefficiëntere infrastructuurontwikkeling, evenals data-gestuurde besluitvorming.
Meer lezen

Social acceptance of eVTOL UAM drone: characterization of background noise

Vrije Universiteit Brussel
2025
Evy
Heymans
  • Brent
    Van Ginderdeuren
De opkomst van elektrische Vertical Take-Off and Landing (eVTOL) vliegtuigen roept vragen op over hun akoestische integratie in dichtbevolkte stedelijke omgevingen. Een belangrijke uitdaging is te onderzoeken in hoeverre het karakteristieke tonale geluid van eVTOL’s wegvalt in of juist afsteekt tegen de stedelijke achtergrond. Deze masterproef behandelt deze problematiek aan de hand van de centrale onderzoeksvraag: “Hoe kan een goedkoop en autonoom akoestisch meetsysteem worden ontworpen, gebouwd en gekalibreerd om op betrouwbare wijze stedelijke achtergrondgeluiden vast te leggen en de akoestische impact van eVTOL-vliegtuigen te evalueren?

Om deze vraag te beantwoorden werd een goedkoop, autonoom meetsysteem ontwikkeld en gevalideerd voor langdurige geluidsmonitoring in stedelijke context. Het prototype combineert een MEMS-microfoon, een Raspberry Pi met data-acquisitiesysteem, 4G-connectiviteit en een op zonne-energie gebaseerde energievoorziening in een robuuste configuratie die buitenshuis kan
functioneren met minimale interventie. Kalibratie tegen een referentiemicrofoon beperkte het betrouwbare frequentiebereik tot 500–3000 Hz. Binnen dit bereik registreerde een eerste meting op de VUB-campus stedelijke geluidsdrukniveaus tussen 42 en 57 dB SPL. De metingen tonen zowel geleidelijke variaties als kortstondige pieken, vermoedelijk veroorzaakt door verkeersintensivering en sirenes van hulpdiensten. Daarnaast werden tonale componenten waargenomen, met name rond 1 kHz en 2 kHz. Dit illustreert de capaciteit van het systeem om smalbandige kenmerken in het geluidslandschap te detecteren. Een vergelijking met numerieke voorspellingen van eVTOL-rotorgeluid suggereert dat tonale pieken het stedelijke achtergrondniveau met meer dan 10 dB kunnen overstijgen direct onder het toestel, terwijl waarnemers opzij deels maskering kunnen ervaren. Deze eerste resultaten tonen aan dat het ontwikkelde systeem een veelbelovend en betaalbaar proof-of-concept vormt voor de evaluatie van de akoestische voetafdruk van eVTOL’s in stedelijke context. Verdere metingen zijn echter noodzakelijk om de betrouwbaarheid en robuustheid volledig te onderbouwen.
Meer lezen

Kepler between cosmos and calendar. A socio-historical study of Johannes Kepler (1571-1630) as prognosticator.

Universiteit Gent
2025
Heike
Bekaert
Deze thesis onderzoekt de rol van Johannes Kepler (1571-1630) als prognosticator binnen het bredere netwerk van lutheraanse astrologen, door een vergelijking met zijn tijdsgenoten Johannes Krabbe (1553-1616) en Melchior Schärer (1563-1624). Dit onderzoek wordt geconceptualiseerd als een microstudie van het netwerk van Wittenbergse astrologen beschreven in de literatuur en stelt de prognosticaties centraal binnen het onderzoek naar de vroegmoderne wetenschap van de sterren. Via een studie van de structuur, wiskundige basis en religieuze zingeving van de werken, toont deze thesis een aanzienlijke overeenkomsten tussen de drie astrologen. Elk beschouwen ze de prognosticaties op de eerste plaats als een religieus instrument, bedoeld om de mens dichter bij God te brengen. Via een kritische omgang met en uitwisseling van astrologische gegevens en theorieën proberen de astrologen elk op hun manier Gods wil, zoals die in de natuur geuit wordt, zo goed mogelijk te benaderen. Ondanks deze gedeelde basis komt Kepler naar voren als een radicale hervormer. Waar Krabbe en Schärer slechts stapsgewijze veranderingen doorvoerden, waren Keplers kritiek en structurele hervormingen veel ingrijpender. Hij bevond zich in een spreidstand tussen de verdedigers en critici van de astrologie: hij behield het religieuze kader, maar verwierp veel conventionele praktijken. Door een analyse van Kepler als prognosticator, draagt dit onderzoek bij aan een beter begrip van de wisselwerking tussen theorie en praktijk binnen wetenschappelijke netwerken.
Meer lezen

Multiaxial fatigue-based topology optimisation under non-proportional loading: application to wheel design

KU Leuven
2025
Jerôme
Vandecandelaere
Deze thesis ontwikkelt een computationeel raamwerk voor structurele topologie-optimalisatie dat expliciet rekening houdt met multiaxiale vermoeiing onder niet-proportionele belastingen. Hoewel vermoeiing een veelvoorkomend faalmechanisme is in mechanische componenten, wordt het vaak behandeld als een nabewerkingsstap in plaats van als een integraal onderdeel van het ontwerpproces. Dit werk vult die leemte op door een kritieke-vlak vermoeiingsmodel rechtstreeks in het optimalisatie-algoritme te integreren.

Het raamwerk verwerkt het op rek gebaseerde Brown–Miller vermoeiingscriterium binnen een dichtheidsgebaseerde topologie-optimalisatiebenadering, waardoor vermoeiingslevensduur kan worden voorspeld bij complexe belastingstrajecten. De implementatie omvat een volledige analytische sensitiviteitsanalyse, zowel direct als adjoint, om een nauwkeurige en efficiënte optimalisatie met gradiënt-gebaseerde oplosmethodes te garanderen.

De methodologie wordt eerst gevalideerd op een L-beugel benchmark om de prestaties te demonstreren in vergelijking met doelstellingen gebaseerd op compliance en spanning. Vervolgens wordt ze toegepast op het ontwerp van een autowiel onderworpen aan een roterende buigproef. Dit is een gestandaardiseerde, multiaxiale en niet-proportionele vermoeiingsproef die elk aftermarket wiel moet doorstaan. De vermoeidheidsgeoptimaliseerde ontwerpen tonen een verbeterde verdeling van vermoeiingsschade, verminderde spanningsconcentraties en een verlengde voorspelde levensduur in vergelijking met andere ontwerpbenaderingen.

Door de voorspelling van de vermoeiingslevensduur in de optimalisatielus op te nemen, overbrugt dit onderzoek de kloof tussen structurele efficiëntie en langdurige duurzaamheid. De voorgestelde aanpak biedt een veelbelovend pad naar robuustere ontwerpen in veeleisende technische toepassingen.

----

This thesis develops a computational framework for structural topology optimisation
that explicitly accounts for multiaxial fatigue under non-proportional loading. While
fatigue is a frequently occurring failure mechanism in mechanical components, it is
often treated as a post-processing step rather than being integrated into the design
process. This work addresses that gap by embedding a critical-plane fatigue model
directly into the optimisation algorithm.

The framework incorporates the Brown–Miller strain-based fatigue criterion within a
density-based topology optimisation approach, enabling fatigue life prediction across
complex load paths. The implementation includes a full analytical sensitivity analysis,
both direct and adjoint, to ensure accurate and efficient optimisation with
gradient-based solvers.

The methodology is first validated on a benchmark L-bracket to demonstrate its
performance relative to compliance- and stress-based objectives. It is then applied
to the design of an automotive wheel subjected to a rotating bending test. This is
a standardised, multiaxial and non-proportional fatigue test that every aftermarket
wheel must pass. The fatigue-optimised designs exhibit improved fatigue damage
distribution, reduced stress concentrations and extended predicted fatigue life compared to different design approaches.

By embedding fatigue life prediction into the optimisation loop, this research bridges
the gap between structural efficiency and long-term durability. The proposed approach offers a promising pathway toward more resilient designs in demanding engineering applications.
Meer lezen

Hunting for Exotic Features in Compact Binary Mergers with Gravitational Waves

Universiteit Gent
2025
Robin
Chan
Zwaartekrachtgolven bieden een unieke blik op ons universum en een nieuwe manier om materie te bekijken. We meten echt de dynamiek van massa's wat ons toe zou staan om op vrij natuurlijke wijze de samenstelling van compacte objecten te bepalen. Voor mijn thesis heb ik een techniek ontwikkeld die twee algemene data analyse technieken uit de zwaartekrachtgolffysica combineert om ongemodelleerde fenomenen bovenop gekende theoretische modellen toe te voegen en vervolgens te infereren. Zo'n fenomenen zouden bijvoorbeeld resonanties van neutronensterren kunnen zijn, die nauw samenhangen met de interne structuur van deze objecten, of glitches in zwaartekrachtgolfdetectoren.
Meer lezen

AI-Driven Food Monitoring for Waste Reduction and Malnutrition Prevention

Universiteit Gent
2025
Axelle
Penninger
In woonzorgcentra gaan ondervoeding en voedselverspilling vaak hand in hand. Bewoners krijgen weliswaar uitgebalanceerde maaltijden, maar eten daar vaak slechts een deel van op. Het gevolg: ouderen krijgen te weinig voedingsstoffen binnen en grote hoeveelheden eten verdwijnen in de vuilnisbak. Bestaande opvolgsystemen bieden weinig soelaas: ze zijn arbeidsintensief, houden geen rekening met restjes, of falen bij gemixte en gepureerde maaltijden.

Daarom ontwikkelde ik LeftoVision, een computersysteem dat met behulp van beeldherkenning automatisch berekent hoeveel bewoners eten én hoeveel er wordt verspild. Het systeem vergelijkt foto’s van een maaltijd vóór en na consumptie, herkent de verschillende voedselcomponenten, schat hun gewicht en koppelt dit aan een voedingsdatabank. De resultaten worden bewaard in het Obelisk Core dataplatform en overzichtelijk weergegeven in een dashboard voor zorgverleners.

In tests behaalde LeftoVision een gemiddelde foutmarge van 22 gram per maaltijdonderdeel, voldoende nauwkeurig om kleine verschillen te detecteren. Het systeem vormt zo een belangrijke stap naar datagedreven zorg in woonzorgcentra, met als doel zowel de gezondheid van bewoners te verbeteren als voedselverspilling te beperken.
Meer lezen

Metastable strings in the Early Universe: Stability & gravitational wave signal

Vrije Universiteit Brussel
2025
Maxime
Grandjean
When fundamental symmetries break during early universe phase transitions the resulting scalar field can develop non trivial space dependent configurations of non-vanishing energy density, known as defects; examples of which include domain walls, cosmic strings and monopoles. These defects form a network of extended object, which can play an active role in the dynamics of the early universe, such as generating a gravitational wave background (GWB). Remarkably, Pulsar Timing Array (PTA) experiments have recently reported the first evidence of a GWB, making the study of defects particularly timely and relevant. While the PTA excess is most likely of astrophysical origin, an exciting prospect is a GWB of cosmological origin. In this thesis, a GWB generated by cosmic strings in the early universe is studied. In particular, a model of two subsequent phase transitions is considered in which, under certain conditions, metastable cosmic strings can emerge during the second transition. Specifically, metastable strings have a probability to decay through a quantum tunneling process in which monopoles are nucleated along the strings, effectively reducing their lifetime. Within this model, we will perform a classical stability analysis on the string solutions in order to investigate whether they are long lived enough to have any impactful phenomenology. Finally, we discuss the implications of the determined stability conditions on the predicted gravitational wave spectrum, and how it affects the detectability of this scenario in GW experiments, including PTA.
Meer lezen

Onderzoek naar de neurale basis van natuurlijke spraak bij personen met afasie via voxel-wise lesion-symptom mapping

KU Leuven
2025
Sara
Dupont
  • Eline
    Biermans
Ongeveer één op de vier personen met een beroerte krijgt te maken met afasie, een taalstoornis waarbij het begrijpen en/of produceren van taal moeilijk kan verlopen. In deze masterproef zoeken we een link tussen de taalfouten die personen met afasie maken en de exacte locatie van hun hersenletsel. Dit deden we aan de hand van de innovatieve techniek 'voxel-wise lesion-symptom mapping'. Wat ons onderzoek bijzonder maakt, is dat we bij de taaltesten gebruikmaken van natuurlijke spraak. Zo krijgen we een accurater beeld van het dagelijks taalgebruik van de personen met afasie. Deze studie opent nieuwe wegen om te voorspellen welke hersenschade welke taalproblemen veroorzaakt en hoe personen met afasie zullen herstellen.
Meer lezen

AI jury-assistent voor het herkennen van rope skipping skills in videos

HOGENT
2025
Mike
De Decker
Genomineerde longlist Bachelorprijs
Door de evolutie van de sport is het jureren van ropeskipping freestyles op hoog niveau moeilijk geworden. Zowel het aantal skills in de routine, alsook de snelheid waarmee ze worden uitgevoerd neemt toe. Dit is vooral te merken in Double Dutch freestyles. Daarom worden deze routines zowel live (creativiteit, variatie, muziekgebruik) als vertraagd (moeilijkheidsgraad) gejureerd.
Ondanks het feit dat freestyles op halve snelheid worden herbekeken en hierdoor jureerfouten worden vermeden, merkt men dat er nog enig verschil zit op scores toegekend door juryleden. Door de toegenomen toegankelijkheid van kunstmatige intelligentie, voornamelijk neurale netwerken, werd de vraag gesteld of een AI juryassistent ontwikkeld kan worden die helpt een betere en objectievere score zou opleveren.
Dit onderzoek verkent de mogelijkheid tot het bouwen van zo een juryassistent, de benodigde technieken en uitdagingen. De huidige vorm van de juryassistent bestaat uit drie hoofdzakelijke delen. Het eerste deel gaat over het lokaliseren van springers in de opnames. Niet alle videos zoomen in op de springer of zijn net eerder statische opname. Dit deel is noodzakelijk om computationele overhead te beperken, daar springers soms minder dan een vijfde van het beeld in beslag nemen.
De tweede groote stap is het splitsen van volledige routines in elke uitgevoerde skill. Dit wordt gedaan aangezien het onbegonnen werk zou zijn op om dit manueel te doen.
Het derde deel omvat het herkennen van de gesprongen skill. Voor Double Dutch Freestyles betekent dit een combinatie van uitvoering door draaiers en springers.
Door louter presentatieskills of moeilijk zichtbare skills te makeren als 'unknown' (e.g. wanneer een draaier tussen de springer en camera staat), wordt er verwacht dat het model aangeeft wanneer het niet zeker is.
Voor het lokaliseren slaagde YOLOv11 er in om een mAP50 te behalen tussen de 93-95\%, waarbij het succesvol publiek filterde van atleten, mits kleine foutjes. Hierdoor het Multiscale Vision Transformer model skills ingezoomde crops gebruiken om acties van elkaar te onderscheiden. Deze konden vervolgens herkend herkend worden hetzelfde MViT model of een doormiddel van een Swin Transformer. Het gemiddelde f1 macro gemiddelde van deze modellen lagen tussen de 49 en de 53 procent, door de lage representatie van minder vaak voorkomende skills. Immers lag de totale accuraatheid hoger, tussen de 89 en de 94 procent.
Dit zorgde ervoor dat juryscores door het model konden toegewezen, deze lagen -28 tot -20 procent onder de score toegekend door juryleden.
Verdere onderzoek is nodig om de accuraatheid van de architectuur te verhogen.
Meer lezen

Hunting the internal magnetic field of the β Cep HD 192575

KU Leuven
2025
Jelle
Vandersnickt
Sterren zijn er van alle formaten: van kleine, lichte sterren zoals onze Zon tot sterren tientallen of zelfs honderdtallen keer zwaarder. Zware sterren spelen een belangrijke rol in het universum. Ze produceren namelijk alle elementen van helium tot ijzer. Na hun relatief korte levensduur van ongeveer 10 miljoen jaar sterven ze in een indrukwekkende supernova. Ze laten dan een neutronenster of zwart gat achter: mysterieuze objecten die zwaartekrachtgolven kunnen voortbrengen. Het bestuderen van zware sterren is dus relevant voor vele aspecten van de astrofysica.

Asteroseismologie bestudeert de opbouw van sterren door het meten van sterbevingen. Net zoals aardbevingen een verhaal vertellen over de binnenkant van de Aarde, geven sterbevingen informatie over de structuur van sterren. Ondanks de belangrijke rol die zware sterren spelen, zijn er nog maar enkelen in detail bestudeerd aan de hand van asteroseismologie.

Deze thesis rapporteert over de eerste gedetailleerde asteroseismische studie van een zware ster die rekening houdt met een intern magnetisch veld. De zware ster in kwestie, HD192575, vertoont een patroon in zijn sterbevingen dat nog niet volledig begrepen was. Deze thesis onderzoekt of dit afwijkend patroon een gevolg kan zijn van een intern magnetisch veld in de ster. Vertrekkende van bestaande modellen van HD192575 modelleren we de effecten van rotatie en magnetisme op de sterbevingen en zoeken we de best passende modellen.

We vonden dat het patroon in de sterbevingen best verklaard kan worden door de combinatie van rotatie en een magnetisch veld. Wat opvalt is dat de ster draait rond een andere as dan de magnetische as tussen de noord- en zuidpool van het magnetische veld. De bekomen rotatiesnelheid van de ster sluit nauw aan bij vorige resultaten en de waarden van het magnetische veld zijn in lijn met verwachtingen uit de theorie. Dit werk presenteert de eerste asteroseismische modellering ooit van een zware ster met zowel rotatie als een intern magnetisch veld. De resultaten zijn een eerste stap naar breder onderzoek over magnetische velden in zware sterren. Dit zal tot nieuwe inzichten leiden in de evolutie en rotatie van zware sterren.
Meer lezen

Modelling Glacier Thickness and Evolution with Machine Learning: Evaluating the Instructed Glacier Model (IGM) on the Batysh-Sook Glacier through Inverse and Forward Modelling

KU Leuven
2025
Robbe
Buls
De afvoer van smeltwater uit de gletsjers van het Tien Shan-gebergte in Kirgizië is van cruciaal belang voor de samenleving en economie in de stroomafwaarts gelegen vlaktes. In het droge Centraal-Azië is de landbouw sterk afhankelijk van irrigatie met dit water. De gletsjers functioneren als watertorens: ze herverdelen de schaarse neerslag over de seizoenen, wat grootschalige landbouw mogelijk maakt. Door klimaatverandering trekken de gletsjers zich echter snel terug, waardoor de inwoners van de vlaktes hun belangrijkste inkomensbron dreigen te verliezen.

Het doel van deze thesis is het evalueren van het Instructed Glacier Model (IGM). Dit
model gebruikt een neuraal netwerk als emulator om ijsstroming te beschrijven, wat computationele voordelen oplevert en het mogelijk maakt het model zowel invers (interpoleren van ijsdiktemetingen) als voorwaarts (voorspellen van gletsjerevolutie onder klimaatscenario’s) te gebruiken. De prestaties worden vergeleken met klassieke ruimtelijke interpolatiemethoden, zoals de vloeispanningsmethode, en met een hoger-ordemodel dat de gletsjerevolutie simuleert.

De evaluatie vindt plaats op de Batysh-Sook-gletsjer in de Tien Shan. De resultaten tonen dat het ge¨ınverteerde IGM consistente, nauwkeurige en gladde ijsdiktevelden genereert. Vooral in schaars bemonsterde zones presteert het model beter dan de
conventionele vloeispanningsmethode. Voor de gletsjerevolutie laten zowel IGM als het hoger-ordemodel zien dat de Batysh-Sook-gletsjer gevoeliger is voor opwarming dan veel omliggende gletsjers, waarschijnlijk door haar kleine huidige omvang. IGM volgt de trends van het hoger-ordemodel goed, al simuleert het in de historische periode iets minder smelt, waardoor het gletsjervolume groter blijft.

Deze bevindingen tonen aan dat IGM een veelbelovend instrument is voor zowel ijsdikteinterpolatie als projectie, vooral in gebieden met beperkte veldmetingen. Betere modellering van gletsjers zoals de Batysh-Sook kan leiden tot nauwkeurigere voorspellingen van toekomstige waterbeschikbaarheid, wat van groot belang is voor wetenschappelijk onderzoek en voor duurzaam waterbeheer in Centraal-Azië.
Meer lezen

Door de huid heen: Performancekunst en de radicale esthetiek van pijn op de Duystere Markt

KU Leuven
2025
Lies
Bogaerts
Mijn scriptie/thesis onderzoekt hoe pijn en lichaamsmodificatie binnen performancekunst, en specifiek op de Duystere Markt, bewust worden ingezet als artistiek en ritueel middel. Ik toon hoe het lichaam zo fungeert als medium voor expressie, transformatie en verbondenheid, en hoe dit ons denken over kunst en identiteit verruimt.
Meer lezen

Machine Learning Small Datasets for Cu Nanoparticles: enhancing Experimental and Computational lab-scale data

Universiteit Hasselt
2025
Brent
Motmans
Koper-nanodeeltjes (Cu NP's) hebben een brede toepasbaarheid, maar hun synthese is gevoelig voor kleine veranderingen in reactieparameters. Deze gevoeligheid, in combinatie met het tijdrovende en arbeidsintensieve karakter van experimentele optimalisatie, vormt een grote uitdaging voor reproduceerbare synthese met gecontroleerde deeltjesgrootte. Bovendien is Machine Learning (ML) weliswaar veelbelovend gebleken voor materiaalonderzoek, maar wordt toepassing ervan vaak beperkt door gebrek aan hoogwaardige experimentele datasets. Deze studie onderzoekt ML om de grootte van Cu NP’s gevormd met microgolf geassisteerde polyolsynthese te voorspellen met kleine datasets, gegenereerd uit 25 intern uitgevoerde syntheses. Latin Hypercube Sampling wordt gebruikt om de parameterruimte van precursorconcentratie, temperatuur en reactietijd efficiënt te samplen. Ensemble-regressiemodellen, gebouwd met het AMADEUS-framework, voorspellen met hoge nauwkeurigheid de deeltjesgrootte en presteren daarmee beter dan klassieke statistische benaderingen. Featureselectie vermindert complexiteit van het model en verbetert generaliseerbaarheid. Daarnaast worden classificatiemodellen, gebaseerd op zowel traditionele random forests als Large Language Modellen (LLM’s), geëvalueerd om onderscheid te maken tussen grote en kleine deeltjes. Terwijl random forests matig presteren, bieden LLM’s geen duidelijke verbeteringen in omstandigheden met weinig gegevens. Over het algemeen toont dit onderzoek dat zorgvuldig samengestelde kleine datasets, in combinatie met robuuste klassieke ML, synthese van Cu NP's effectief kan voorspellen en dat voor laboratoriumonderzoek complexe LLM's geen voordelen bieden.
Meer lezen

Multi-branch Neural Networks for Drug-target Interaction Prediction and Target-conditioned de novo Drug Design

Universiteit Gent
2025
Robbe
Claeys
Het ontdekken van nieuwe interacties tussen geneesmiddelen en proteïne-doelwitten (DTIs) is cruciaal voor therapeutische innovatie, maar experimentele validatie is kostelijk
en schaalt niet naar de astronomische omvang van chemische mogelijkheden. Heterogene, schaarse bindingsdata en beperkte diversiteit belemmeren robuuste voorspelling en de mogelijkheden voor in silico moleculaire ontwerp. Deze scriptie presenteert een geïntegreerd raamwerk dat data, representaties en modellen opschaalt voor DTI-voorspelling en doelwit-gestuurd de novo geneesmiddelontwerp.

Een gecombineerd DTI-corpus (339k interacties) en twee grote pretrainingsbronnen werden samengesteld om zowel supervised als unsupervised leerdoelen te ondersteunen. Centraal in het raamwerk is een flexibele, modulaire multi-branch architectuur: elke branch van het model (geneesmiddel of doelwit) kan geïnstantieerd worden als een encoder met enkele invoer, of als een multi-invoer-encoder die complementaire representaties fuseert (bijv. graaf, vingerafdruk, aminozuursequentie, DNA-signalen).
De geneesmiddel branch kan ook een variatie-sampling kop en een latent-gestuurde, discrete diffusie gebaseerde moleculaire graaf-generator omvatten. Branches kunnen
gezamenlijk getraind worden voor supervised DTI-voorspelling, of onafhankelijk met unsupervised/self-supervised leerdoelen om biologische voorkennis langs domeinen
heen in te brengen.

Resultaten tonen een regime-afhankelijk beeld: in data-arme regimes zijn foundationmodel embeddings het effectiefst, terwijl moleculaire vingerafdrukken de leiding hebben
wanneer data abundant zijn. Analyses tonen aan dat geneesmiddel-representaties de DTI-voorspellingsnauwkeurigheid sturen, met graaf-gebaseerde representaties als
meest invloedrijk; aminozuur- en DNA-signalen zijn complementair voor proteïnen. Algemeen verduidelijkt deze studie wanneer en hoe leren van meerdere representaties
en transfer learning helpen, biedt het een reproduceerbare basis voor DTI-voorspelling, en toont het de haalbaarheid aan van latent-gestuurde omgekeerde diffusie voor het
genereren van chemisch valide, doelwit-specifieke moleculen waarvan de farmacofore kenmerken consistent zijn met de bredere biochemische literatuur.
Meer lezen

ML-gebaseerde survival analyse met intervalgecensureerde gegevens voor leeftijdsvoorspelling bij honden

Universiteit Gent
2025
Jennifer
Martlé
Puppy’s worden vaak op te jonge leeftijd verhandeld. Dit kan gezondheidsimplicaties voor
zowel de hond, als de menselijke bevolking met zich meebrengen. Hierbij spelen de
minimumleeftijden van acht en vijftien weken een cruciale rol. Deze zijn ingevoerd om te
voorkomen dat te jonge en ongevaccineerde honden verhandeld worden. Deze studie
ontwikkelt daarom met behulp van machinaal leren en survival analyse een techniek om de illegale puppyhandel te bestrijden. Dit gebeurt door middel van modellen die accuraat de leeftijd van een pup kunnen bepalen op basis van zijn gebit.
Meer lezen

De rol van AI bij vroegtijdige ziektevoorspelling in de gezondheidszorg

Thomas More Hogeschool
2025
Kenneth
Punnewaert
Ik onderzocht hoe artificiële intelligentie longontsteking sneller en betrouwbaarder kan opsporen op borstkas-röntgenbeelden, en wat er nodig is om zo een systeem veilig, ethisch en juridisch verantwoord richting een ziekenhuis te ontwikkelen. De vraag kwam vanuit het AZ Sint-Maarten: er is nood aan ondersteuning bij triage van pneumoniedetectie.

Technisch bouwde ik een ResNet152-model en trainde dat op publieke Kaggle-datasets. De reality check volgde met geanonimiseerde pediatrische beelden uit AZ Sint-Maarten: door domain shift miste het eerste model te veel echte longontstekingen . Dat heb ik aangepakt met hertraining op pediatrische data, gericht croppen van het longveld en afstemming van helderheid/contrast. In de tweede evaluatie pikte het model alle echte positieve gevallen op.

Naast de prestaties besteed ik veel aandacht aan ethiek en regelgeving. Alle beelden zijn geanonimiseerd en lokaal verwerkt (GDPR). Met Grad-CAM-heatmaps maak ik beslissingen uitlegbaar. Het systeem ondersteunt artsen zij blijven eindverantwoordelijk. Qua regulering positioneer ik het als potentiële MDR-klasse IIa-software en situeer ik het project rond TRL 3→4: van labprototype naar testen in een relevante klinische omgeving. Ik bouwde ook een lokale Streamlit-interface die beelden uploadt, een voorspelling geeft en de heatmap toont. Conclusie: AI kan echt helpen bij triage en vroege detectie, maar robuuste praktijkinzet vraagt representatieve data, uitlegbaarheid, klinische validatie en moet ethisch verantwoord ontwikkeld worden.
Meer lezen

Optimaal plannen van batterijsystemen op basis van voorspeld verbruik onder dynamische elektriciteitsprijzen en het capaciteitstarief

Universiteit Gent
2025
Cyl
Rouseré
Deze masterproef onderzoekt hoe batterijsystemen optimaal kunnen worden aangestuurd in een context van dynamische elektriciteitsprijzen en het Belgische capaciteitstarief. De focus ligt op industriële verbruikers, waarbij gestreefd wordt naar het minimaliseren van de totale energiekost.
Een nieuw Rolling Horizon Linear Programming (RHLP)-algoritme werd ontwikkeld en
vergeleken met een eenvoudig heuristisch basisalgoritme. Het RHLP-algoritme gebruikt PV-opbrengst, dynamische prijzen en verbruiksvoorspellingen op basis van Extreme Gradient Boosting (XGBoost) om de laad- en ontlaadbeslissingen te optimaliseren over een tijdshorizon van 48 uur. Deze horizon schuift mee met de tijd (rolling
horizon), waarbij de optimalisatie om de 15 minuten wordt herhaald. De PV-opbrengst
werd in de standaardconfiguratie benaderd via werkelijke historische waarden.
De algoritmes werden geëvalueerd aan de hand van uitgebreide simulaties op reële
verbruiksprofielen en historische Belpex-prijsdata. De resultaten tonen aan dat onder
de juiste omstandigheden het RHLP-algoritme tot 20% kostenbesparing kan realiseren
in vergelijking met het basisalgoritme.
Nacht- en weekendverbruik bleek een bepalende factor in de behaalde optimalisatiewinst, wat duidt op een duidelijke invloed van het verbruiksprofiel op het prestatiepotentieel van het algoritme. Daarnaast bleken ook parameters zoals batterijcapaciteit
en prijsschommelingen op de markt van doorslaggevend belang voor de gerealiseerde
resultaten.
Dit onderzoek toont aan dat batterijsturing op basis van verbruiksvoorspellingen via
lineaire optimalisatie kostenbesparingen kan opleveren.

Meer lezen

Constructing Tales of Future Belgian Heatwaves Using Ensemble-Mining Strategies

Universiteit Gent
2025
Niels
Carlier
Hitte-extremen zijn moeilijk te onderzoeken door hun zeldzaamheid. Hoewel observaties en klimaatsimulaties essentiële inzichten bieden in toekomstige klimaatextremen, resoneren ruwe statistieken alleen vaak niet met het bredere publiek.

Storylines of Tales of Future Weather kunnen de kloof overbruggen tussen abstracte wetenschap en door mensen beleefde extreme weersomstandigheden, waardoor klimaatverandering tastbaar, herkenbaar en concreet wordt. Een storyline is een zelf-consistente beschrijving van een plausibel klimaatextreem - zoals een hittegolf - in een gegeven klimaat, gebaseerd grondige data-analyse, statistiek en impactmodellen. Zulke wetenschappelijk onderbouwde narratieven werpen licht op vragen als: "Hoe erg zouden de 2024 Balkanhittegolven geweest zijn in een warmer klimaat?" of "Waren ze mogelijk in een pre-industrieel klimaat?" Dergelijke informatie kan belangrijk zijn voor stakeholders en onze samenleving, maar het is niet a priori duidelijk wat de karakteristieken zijn van plausibele extremen in een gegeven, toekomstig klimaat. In mijn thesis introduceer ik een efficiënte methodologie om hittegolven te karakteriseren in een toekomstig Belgisch klimaat, die gebruik maakt van zowel geobserveerde temperatuursreeksen als gesimuleerde klimaatprojecties. Deze techniek kreeg de naam Global Warming Scaling of kortweg GWS.

In GWS wordt een observationele temperatuursreeks geschaald naar een toekomstig klimaat, bijvoorbeeld een opwarming van 2°C boven pre-industriële gemiddelden. In deze getransformeerde reeks zoeken we naar de recordwaarden voor bepaalde jaarlijkse klimaatindices die volgens ons jaren van extreme hitte aanduiden. Een voorbeeld hiervan is de jaarlijkse piektemperatuur. Deze geschaalde recordwaarden worden vervolgens gezien als drempelwaarden die in het toekomstige klimaat overschreden moeten worden vooraleer we van een extreem jaar spreken.

Deze GWS drempelwaarden kunnen gebruikt worden in een zogenaamde data-miningprocedure, waar we in een groot ensemble van gesimuleerde klimaatvoorspellingen dergelijke jaren van extreme hitte gaan identificeren. Eens we zo’n event gevonden hebben, beschikken we over een set meteorologische velden die volgens onze methode geloofwaardig zijn voor een bovengemiddeld warm jaar in het bestudeerde toekomstige klimaat.

We kunnen deze meteorologische data met andere woorden gebruiken als input voor impactmodellen. Dit zijn wiskundige modellen die de impact van extreme temperatuur op de samenleving inschatten. Ik modelleerde in mijn thesis onder andere het aantal werkdagen dat verloren zou gaan door een toename in hittestress, stijgingen in riviertemperaturen, bosbrandgevaar onder aanhoudende droogte, potentiële toename van invasieve insectensoorten en meer. De resultaten van soortgelijke impactstudies kunnen gebruikt worden als referentiemateriaal in het construeren van een storyline met betrekking tot extreme hitte. Op die manier kunnen stakeholders aan de hand van zulke verhaallijnen de zwakke plekken in hun respectievelijke sectoren blootleggen, en kunnen beleidsmakers een beeld vormen van waarop ze zich moeten voorbereiden.
Meer lezen

Survival of the fit-agreements: Wat houdt handels- en integratieakkoorden levendig?

Universiteit Gent
2025
Vittorio
Poppe
Mijn masterproef, ‘Survival of the Fit-Agreements’, vertrekt van een actuele vraag: waarom bloeien sommige internationale handelsorganisaties, terwijl vele andere verworden tot ‘zombies’ die enkel op papier bestaan en weinig tot geen resultaten boeken?

De kern van mijn onderzoek is een nieuwe, veel robuustere methode om hun vitaliteit te meten. In plaats van te kijken naar formele criteria of een basisgraviteitsmodel toe te passen, meet ik hun daadwerkelijke handelsprestaties met een state-of-the-art economisch model. De cruciale stap is een counterfactual-analyse: ik vergelijk de reële handel met wat je zou verwachten zónder het akkoord. Dit geeft een veel eerlijker beeld van hun toegevoegde waarde.

Dit leidt tot twee hoofdontdekkingen. Ten eerste is het beeld van een institutioneel kerkhof overdreven: veel minder organisaties zijn disfunctioneel dan gedacht. Ten tweede leg ik een concreet recept bloot voor succes. Het gaat niet om het aantal leden, maar om de interne dynamiek: de aanwezigheid van een grootmacht als ‘anker-staat’, gedeelde democratische waarden, culturele homogeniteit en een evenwichtige machtsbalans zijn cruciaal. Een verrassende bevinding is dat akkoorden tussen hoogontwikkelde landen vaak een ‘plafondeffect’ bereiken en minder extra handel genereren.

In essentie biedt mijn scriptie een empirisch onderbouwde handleiding voor beleidsmakers. Het toont aan dat het succes van internationale samenwerking geen noodlot is, maar het resultaat van doordachte keuzes in het ontwerp en beheer van deze vitale instituties.
Meer lezen

Enhancing Trustworthiness in Algorithmic Stock Forecasting using Multi-Model Machine Learning and Historical Similarity

Universiteit Hasselt
2025
Xander
Corvers
Deze thesis behandelt het black-box-probleem van machine learning (ML) en het daaruit voortvloeiende gebrek aan gebruikersvertrouwen bij beursvoorspellingen. Er wordt een beslissingsondersteunend systeem geïntroduceerd en geëvalueerd dat de betrouwbaarheid verhoogt. Het systeem combineert hiervoor de voorspellingen van zes uiteenlopende ML-modellen met een transparante, historische analyse. De kerninnovatie is een zoekmachine die historisch vergelijkbare marktperioden identificeert. Vervolgens toont het systeem hoe de modellen in die analoge situaties presteerden: het plaatst hun toenmalige voorspellingen naast de daadwerkelijke marktresultaten.

Een empirisch gebruikersonderzoek vergeleek deze “Multiple Models View” (MMV) met een simplistische interface die slechts één model toonde. De resultaten tonen aan dat de MMV significant betrouwbaarder werd gevonden, het vertrouwen van gebruikers verhoogde en de risico's van voorspellingen effectiever communiceerde. Gebruikers schreven dit toe aan de grotere transparantie, omdat ze meerdere modellen konden vergelijken, en aan de concrete context die de historische prestatie-analyse bood. De thesis concludeert daarom dat de combinatie van meerdere modellen en een historische similariteitsanalyse een krachtige strategie is om weloverwogen gebruikersvertrouwen in complexe, AI-gedreven financiële systemen te creëren.
Meer lezen

Automatic Semantic Annotation and Visualization of Machine Learning Pipelines with FnO

Universiteit Gent
2024
Pol
Nachtergaele
Deze paper introduceert een innovatieve tool voor het automatisch semantisch annoteren van machine learning-processen in RDF, met als doel om deze te integreren op het semantische web. Dit bevordert transparantie en helpt bij het naleven van de GDPR-wetgeving. De tool maakt gebruik van de Function Ontology (FnO) om Python-functies, -methoden en -klassen semantisch te beschrijven, en integreert de Provenance Ontology (ProvO) om datatransformaties tijdens het verwerkingsproces vast te leggen. Door het beschrijven van functie-implementaties kunnen gebruikers deze processen nadoen en uitvoeren, terwijl gedetailleerde provenance-informatie wordt vastgelegd. Bovendien worden MLFlow en de MLSchema Ontology gebruikt om machine learning-modellen en hun trainingsprocessen in RDF-formaat te beschrijven. Deze beschrijvingen worden gevisualiseerd met behulp van een stroomdiagram. Dankzij de semantische beschrijving van machine learning-operaties via deze tool kan een individu meer controle behouden over zijn eigen data.
Meer lezen

Decoding Metacognitive Sensitivity from EEG using Deep Learning.

KU Leuven
2024
juul
Vanden Abeele
Metacognition, the ability to think about one's thinking processes, is vital for
professional performance, academic achievement, and mental health. However, its
ambiguous nature and subjective measurement techniques across various fields have
posed significant challenges to research. Cognitive neuroscience offers a unique
solution by providing objective measurements that link metacognition to brain activity,
thereby establishing a ground truth. Recently, the convergence of explainable artificial
intelligence (XAI) and perceptual decision-making, a subsection of metacognition
within cognitive neuroscience, has led to the development of the WaveFusion
framework. This innovative framework holds the potential to contribute to the
unification of the fragmented metacognition research fields.
The aim of this thesis was to enhance the WaveFusion framework, an explainable
deep learning model, to classify metacognitive sensitivity and confidence using EEG
data. The objectives were (1) to achieve a classification accuracy of 95% for
metacognitive sensitivity, (2) to improve the accuracy for metacognitive confidence to
97.5%, and (3) to identify key ambiguities and limitations in metacognition research.
This study utilized an EEG dataset with event-related potentials (ERP) responselocked for type 1 decisions. Data preprocessing addressed dataset imbalances
through augmentation and balanced batch sampling. EEG samples were transformed
into spectrograms and processed using the deep learning architecture comprising a
Lightweight Convolutional Neural Network (LWCNN), a Squeeze and Excitation
Network (SEN), and a classification network. The model was pre-trained using Subject
Aware Contrastive loss (SAC) and trained with binary cross-entropy loss. SEN
facilitated the models explainability by visualizing the created attention weights
through topoplots, providing insights into brain areas used for classification.
The WaveFusion model achieved high classification accuracy, reaching 99.7% for
metacognitive confidence and 99.1% for metacognitive sensitivity. These
improvements were due to a larger selection of electrodes, response-locked ERP
data, and increased dataset size. The WaveFusion model not only demonstrates high
classification accuracy but also offers enhanced explainability. This allows the
framework to contribute to three major ambiguities: (1) the relationship between
metacognition and executive functions, (2) its connection to consciousness, and (3)
the domain generality of metacognition. By leveraging the WaveFusion framework, we
can overcome limitations in cognitive neuroscience research through (1) utilizing
transfer learning to compare relationships, (2) employing automatic classification to
investigate ecological validity, and (3) expanding the framework for multimodality to
integrate insights across various fields.
Future research should focus on increasing data variability, addressing outlier
performances, and improving interpretability through advanced visualization
techniques to enhance the WaveFusion model’s robustness and applicability across
cognitive neuroscience domains.
Meer lezen

Pipe Dreams or true transition? A research by design perspective on the energy transition in Brussels.

Vrije Universiteit Brussel
2024
Jonas
Görgen
Deze thesis onderzoekt de voortdurende inspanningen van steden om hun uitstoot van broeikasgassen te verminderen aan de hand van het voorbeeld van Kuregem, een wijk in Brussel. Het onderzoek kijkt naar de ruimtelijke en sociale dimensies van deze transitie, benadrukt de beperkingen van de huidige technocentrische benaderingen en onderstreept de behoefte aan geïntegreerde ontwerpstrategieën die collectieve actie combineren met klimaatadaptatie. Sommige nadelige effecten van de huidige benaderingen worden besproken, in het bijzonder de 'Performance Gap' met betrekking tot energie-efficiënte gebouwen. De sociale implicaties van grootschalige energie-infrastructuurprojecten worden besproken en geïllustreerd aan de hand van een concrete case in Rotterdam. Door middel van een ontwerpend onderzoek, waaronder historische en morfologische analyse, ruimtelijk ontwerp en fotografisch onderzoek, worden verschillende benaderingen verkend door middel van straatontwerpen, collages, kaarten en scenario's. Als conclusie van het ontwerponderzoek pleit deze dissertatie voor een geïntegreerde benadering van stedelijke energietransities die prioriteit geeft aan lokale veerkracht en betrokkenheid van de gemeenschap. Hiaten in het begrip van hoe sociale factoren de vraag naar energie in wijken beïnvloeden worden geïdentificeerd.
Meer lezen

Uncertainty in Climate Science The Constitutive Elements of Uncertainties in Climate Model Projections

KU Leuven
2024
Ruth
Vanhaecht
Few fields in human life benefit from what we call ‘climate change’. The consequences of climate change become apparent and are obstructing–sometimes taking–our lives. This is reason enough to anticipate them and implement mitigation and adaptation strategies through policymaking. However, climate model outputs are plagued with uncertainty; this fact evokes controversy about how they should be interpreted, communicated, and used in decision-making. What do these models tell us and should we base any policy decisions on their outcomes if these are highly uncertain? To warrant our trust in the model outcomes regarding decision-making, the sources of and reasons for the uncertainty should be well-understood.
In this thesis, I investigate the emergence of uncertainty in climate model projections. More precisely, I examine what elements throughout the modelling process are the reason for the uncertainty in the outcomes and how this should be interpreted. Is trust in the outcomes warranted? I evaluate this question as a philosopher of science, conducting a philosophical analysis of the climate modelling process and the concepts related to it.
I cast light on the question by analysing climate modelling in three main ways: through a conceptual analysis of ‘model’, ‘climate’, and ‘system’, through an analysis of the experience of ‘climate’, and from a technical perspective by examining the construction of single-model components, coupled global earth system models, and model ensembles.
When considering how the climate is experienced, I find that it is not clear how it could be experienced since it is a scientifically constructed concept. On the other hand, knowledge of this scientific concept may influence our interpretation of weather phenomena. Furthermore, there are many phases in the model-building process; each phase introduces errors and therefore uncertainty that is carried along to the subsequent phases. Observational data is used to estimate some free values in the model. Choosing which values to align with the data on the one hand and with the physical theory on the other hand requires expert opinion. It is a matter of debate whether the outcomes are trustworthy when they result from alignment with observational data, at the expense of adequate representation of the physical processes. The choices made form a source of subjective uncertainty, while the technical constraints of the chosen approach introduce errors. The concept of ‘adequacy-for-purpose’ means that a model is never adequate relative to the entire climate system, but more apt to answer some questions and less apt to answer others.
Overall, there are three important elements to remember: first, a climate model is built to gain insight into climate phenomena that are highly uncertain. Although the model includes uncertainty too, it reduces the uncertainty in the climate phenomena per se. Secondly, climate models are never ‘true’, but can be adequate for their intended purpose. Using climate model outcomes for answering questions they were not built for will result in meaningless responses. Lastly, including more models and more plausible scenarios will result in more different outcomes; if these outcomes are, on average, closer to the ‘truth’, this should not be a problem. Converging outcomes does not necessarily mean they are more correct. Obtaining more correct average answers, by evaluating more models and more scenarios, is a good practice.
Meer lezen

A Comparative Study of Geoeffectiveness Prediction Models using Synthetic L1 Data

KU Leuven
2024
Senne
Doumen
De scriptie test de koppeling uit van een CME simulatiemodel met verschillende voorspellingsmodellen voor geomagnetische indices. Voor de resultaten hiervan worden dan verschillende statistische maatstaven berekend om te kwantificeren hoe goed de voorspellingen zijn na deze koppeling.
Meer lezen

Forecast-based Financing: A decade after its introduction - Practices & experiences in the Red Cross Movement

Universiteit Gent
2024
Germine
Abdelmalek
Genomineerde longlist Vlaamse Scriptieprijs
This policy report thesis explores the evolution of Anticipatory Action since its inception, tracing the roots from early pilot projects led by the German Red Cross in 2013 to the current usage across multiple countries. The research delves into the complexities of this approach, examining how it has been implemented, the lessons learned, and the potential for scaling up this initiative to ensure they become integral components of national disaster risk management frameworks.

The research identifies key trends in AA plans, highlighting the shift from small-scale pilot projects to more sustainable and widespread implementations. However, it also uncovers continuous challenges, including funding limitations, coordination issues among stakeholders, and the technical complexities linked with accurate forecasting.
Meer lezen

Deep learning-based scoring of erosive osteoarthritis of the IP finger joints

Universiteit Gent
2024
Zakaria
Oubbi
In deze studie wordt met behulp van convolutionele neurale netwerken (CNN’s) een geautomatiseerd scoresysteem ontwikkeld dat radiologen ondersteunt in het opsporen en opvolgen van erosieve artrose.
Meer lezen