Een bord vol eten dat halfvol terugkomt: het is dagelijkse kost in woonzorgcentra

Axelle
Penninger

In Belgische woonzorgcentra speelt zich dagelijks een dubbel probleem af. Terwijl 63% van de bewoners ondervoed is of het risico loopt, verdwijnt tegelijk een kwart tot de helft van het geserveerde voedsel in de vuilbak. Elk centrum gooit jaarlijks voor zo'n 25 000 euro aan eten weg. Het bizarre: niemand ziet het gebeuren. Tot nu. 

Voor mijn thesis ontwikkelde ik LeftoVision, een computersysteem dat met kunstmatige intelligentie automatisch volgt hoeveel bewoners eten én hoeveel er verspild wordt. Het enige wat nodig is: twee foto's per maaltijd per bewoner, één voor en één na het eten.

Twee foto’s die oma’s gezondheid kunnen redden

Stel je voor: je oma krijgt elke dag zorgvuldig samengestelde maaltijden. Maar ze eet steeds kleinere porties. Niemand merkt het op – het personeel heeft geen tijd om 100 bordjes per dag na te kijken. Pas weken later, wanneer ze merkbaar gewicht verloren heeft, gaat de alarmbel af.

Dit speelt zich dagelijks af in woonzorgcentra. Handmatig bijhouden wat bewoners eten is praktisch onmogelijk. En de bestaande geautomatiseerde systemen? Die kijken alleen naar wat er op het bord komt, niet naar wat er gegeten wordt. Het is alsof je een voetbalwedstrijd analyseert door alleen naar de aftrap te kijken.

Mijn systeem werkt fundamenteel anders. Het vergelijkt systematisch beide foto's en berekent automatisch het verschil. Zo krijgen zorgverleners voor het eerst een compleet beeld van de hele maaltijdcyclus.

Leren zien zoals wij zien

De grootste uitdaging? Een computer leren om voedsel te herkennen op foto's uit woonzorgcentra. Vergeet keurige borden met duidelijk gescheiden aardappelen, groenten en vlees. In de realiteit krijgen veel bewoners gepureerd of gemengd voedsel zonder duidelijke grenzen. Klassieke beeldherkenning faalt hier.

Ik trainde daarom geavanceerde neurale netwerken, computerprogramma's die leren zoals ons brein, op echte maaltijden uit Vlaamse woonzorgcentra. Deze unieke beeldverzameling kwam van het Instituut voor Landbouw-, Visserij- en Voedingsonderzoek (ILVO). Het systeem gebruikt twee slimme modellen die nauw samenwerken, elk met een eigen taak. Waarom twee? Omdat het herkennen van voedsel iets heel anders is dan het wegen ervan.

Het eerste model analyseert elke foto en tekent digitaal lijntjes rond elk voedselonderdeel. Denk aan het inkleuren van verschillende vakjes in een kleurboek, maar dan automatisch en razendsnel. Het herkent verschillende categorieën zoals zetmeel, groenten, vlees of vis en saus. Dit model is getraind om vormen, kleuren en texturen te onderscheiden.

Het tweede model kijkt vervolgens naar die ingekleurde stukjes en schat hun gewicht. Dit is geen simpele berekening van pixels tellen. Het model leert subtiele aanwijzingen herkennen: hoe dik ligt de aardappelpuree? Hoe hoog is de stapel groenten? Welke schaduwen wijzen op diepte? Door deze twee stappen te scheiden, wordt elk model expert in zijn eigen taak.

Van pixels naar voedingswaarden

Zodra het systeem weet wat er op het bord ligt en hoeveel elk onderdeel weegt, gaat het aan de slag met voedingswaarden. Het koppelt de herkende componenten aan het dagmenu van het centrum en raadpleegt vervolgens de USDA voedingsdatabank. Zo berekent het automatisch hoeveel calorieën, eiwitten, vetten en vitamines elke bewoner binnenkreeg.

Alle informatie stroomt naar het Obelisk Core dataplatform en verschijnt in een overzichtelijk dashboard. Zorgverleners zien in één oogopslag drie cruciale dingen: welke bewoners te weinig eten, welke gerechten systematisch blijven liggen, en hoeveel in de vuilbak belandt.

Minder giswerk, meer inzicht

Dat klinkt misschien futuristisch, maar het systeem is verrassend praktisch. In tests bleek LeftoVision maaltijden voor 25 bewoners per minuut te kunnen verwerken. Het systeem haalde een foutenmarge van gemiddeld slechts 22 gram per bordonderdeel. Bovendien ligt 50% van de voorspellingen binnen de 9 gram. Dit is voldoende nauwkeurig om zelfs kleine verschillen op te merken. 

Voor bewoners betekent dit: beter afgestemde maaltijden en een extra bescherming tegen ondervoeding. Voor personeel: tijdswinst en duidelijke inzichten zonder extra administratie. En voor de keuken: bruikbare feedback over wat de bewoners lekker vinden en wat niet. Blijft het stoofpotje telkens liggen? Dan is het tijd om het recept te herzien. Een gerecht dat steevast populair is? Perfect om vaker op het menu te zetten.

Waarom dit ertoe doet

LeftoVision toont dat kunstmatige intelligentie geen toekomstmuziek is, maar vandaag al een verschil maakt. Met twee eenvoudige foto’s krijgt de zorg meer inzicht, bewoners meer bescherming en de keuken minder verspilling. Zo wordt technologie een bondgenoot: niet in de plaats van menselijk contact, maar ernaast. Voor je oma betekent het dat iemand opmerkt wanneer ze minder eet. Voor het woonzorgcentrum betekent het minder eten in de vuilbak. En voor de planeet betekent het bewuster omgaan met voedsel. Een kleine ingreep, met een driedubbele winst.

Bibliografie

[1] S. Jung, H. Heo, S. Park, S.-U. Jung, and K. Lee, “Benchmarking deep learning models for instance segmentation,” Applied Sciences, vol. 12, no. 17, 2022.
[2] R. Prabhu, “Understanding of convolutional neural network (CNN) — deep learning,” Mar 2018. [Online]. Available: https://medium.com/@RaghavPrabhu/understanding-of-convolutional-neural-network-cnn-deep-learning-99760835f148
[3] Wikipedia contributors, “A residual block in a deep residual network. Here, the residual connection skips two layers,” 2025. [Online; accessed 29-March-2025]. Available: https://en.wikipedia.org/wiki/Residual_neural_network
[4] C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich, “Going deeper with convolutions,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015.
[5] Z. Li, H. Yu, J. Xu, J. Liu, and Y. Mo, “Stock market analysis and prediction using LSTM: A case study on technology stocks,” Innovations in Applied Engineering and Technology, 2023.
[6] A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, Ł. Kaiser, and I. Polosukhin, “Attention is all you need,” Advances in Neural Information Processing Systems, vol. 30, 2017.
[7] O. Ronneberger, P. Fischer, and T. Brox, “U-net: Convolutional networks for biomedical image segmentation,” 2015. [Online]. Available: https://arxiv.org/abs/1505.04597
[8] C. Li, Z. Qiu, X. Cao, Z. Chen, H. Gao, and Z. Hua, “Hybrid dilated convolution with multi-scale residual fusion network for hyperspectral image classification,” Micromachines, vol. 12, no. 5, 2021.
[9] V. B. Raju and E. Sazonov, “A systematic review of sensor-based methodologies for food portion size estimation,” IEEE Sensors Journal, vol. 21, no. 11, 2021.
[10] F. P. W. Lo, Y. Sun, J. Qiu, and B. Lo, “Image-based food classification and volume estimation for dietary assessment: A review,” IEEE Journal of Biomedical and Health Informatics, vol. 24, no. 7, 2020.
[11] J. Sultana, B. M. Ahmed, M. M. Masud, A. K. O. Huq, M. E. Ali, and M. Naznin, “A study on food value estimation from images: Taxonomies, datasets, and techniques,” IEEE Access, vol. 11, 2023.
[12] M. F. Vandewoude, J. P. van Wijngaarden, L. De Maesschalck, Y. C. Luiking, and A. Van Gossum, “The prevalence and health burden of malnutrition in Belgian older people in the community or residing in nursing homes: Results of the NutriAction II study,” Aging Clinical and Experimental Research, vol. 31, 2019.
[13] D. Maher and C. Eliadi, “Malnutrition in the elderly: An unrecognized health issue,” Journal of Nursing, 2010.
[14] F. Brugge, “Voedselverlies in de zorgsector: Hoe kan je het voorkomen?” 2017. [Online]. Available: https://foodwin.org/wp-content/uploads/2021/03/20180924_PU_brochureA5VoedselVerliesZorgweb-1-1.pdf
[15] S. E. Gariballa and S. Forster, “Dietary intake of older patients in hospital and at home: The validity of patient-kept food diaries,” The Journal of Nutrition Health and Aging, vol. 12, 2008.
[16] imec, “Fine: Food intake ecosystem,” 2025. [Online]. Available: https://www.imec.be/nl/vlaamse-innovatiemotor/impactdomeinen/smart-health/fine
[17] I. Lawrence and K. Lin, “A concordance correlation coefficient to evaluate reproducibility,” Biometrics, 1989.
[18] Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner, “Gradient-based learning applied to document recognition,” Proceedings of the IEEE, vol. 86, no. 11, 1998.
[19] A. Krizhevsky, I. Sutskever, and G. E. Hinton, “Imagenet classification with deep convolutional neural networks,” Advances in Neural Information Processing Systems, vol. 25, 2012.
[20] K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016.
[21] C. Szegedy, V. Vanhoucke, S. Ioffe, J. Shlens, and Z. Wojna, “Rethinking the inception architecture for computer vision,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016.
[22] G. Huang, Z. Liu, L. Van Der Maaten, and K. Q. Weinberger, “Densely connected convolutional networks,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017.
[23] M. Tan and Q. V. Le, “EfficientNet: Rethinking model scaling for convolutional neural networks,” CoRR, 2019. [Online]. Available: http://arxiv.org/abs/1905.11946
[24] A. G. Howard, “MobileNets: Efficient convolutional neural networks for mobile vision applications,” arXiv preprint arXiv:1704.04861, 2017.
[25] S. Hochreiter and J. Schmidhuber, “Long short-term memory,” Neural Computation, vol. 9, no. 8, 1997.
[26] A. Dosovitskiy et al., “An image is worth 16x16 words: Transformers for image recognition at scale,” arXiv preprint arXiv:2010.11929, 2020.
[27] D. J. MacKay, “A practical Bayesian framework for backpropagation networks,” Neural Computation, vol. 4, no. 3, 1992.
[28] J. Long, E. Shelhamer, and T. Darrell, “Fully convolutional networks for semantic segmentation,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015.
[29] O. Ronneberger, P. Fischer, and T. Brox, “U-net: Convolutional networks for biomedical image segmentation,” in Medical Image Computing and Computer-Assisted Intervention–MICCAI 2015, Springer, 2015.
[30] V. Badrinarayanan, A. Kendall, and R. Cipolla, “SegNet: A deep convolutional encoder-decoder architecture for image segmentation,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 39, no. 12, 2017.
[31] L.-C. Chen, G. Papandreou, I. Kokkinos, K. Murphy, and A. L. Yuille, “DeepLab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 40, no. 4, 2017.
[32] L.-C. Chen, G. Papandreou, F. Schroff, and H. Adam, “Rethinking atrous convolution for semantic image segmentation,” arXiv preprint arXiv:1706.05587, 2017.
[33] L.-C. Chen, Y. Zhu, G. Papandreou, F. Schroff, and H. Adam, “Encoder-decoder with atrous separable convolution for semantic image segmentation,” in Proceedings of the European Conference on Computer Vision (ECCV), 2018.
[34] W. Wang, W. Min, T. Li, X. Dong, H. Li, and S. Jiang, “A review on vision-based analysis for automatic dietary assessment,” Trends in Food Science & Technology, vol. 122, 2022. [Online]. Available: https://www.sciencedirect.com/science/article/pii/S0924224422000656
[35] G. Ciocca, P. Napoletano, and R. Schettini, “Food recognition: A new dataset, experiments, and results,” IEEE Journal of Biomedical and Health Informatics, vol. 21, no. 3, 2017.
[36] X. Wu, X. Fu, Y. Liu, E.-P. Lim, S. C. Hoi, and Q. Sun, “A large-scale benchmark for food image segmentation,” in Proceedings of the 29th ACM International Conference on Multimedia, 2021.
[37] E. Battini Sönmez, S. Memiş, B. Arslan, and O. Z. Batur, “The segmented UEC Food-100 dataset with benchmark experiment on food detection,” Multimedia Systems, vol. 29, no. 4, 2023.
[38] K. Okamoto and K. Yanai, “UEC-FoodPix Complete: A large-scale food image segmentation dataset,” in Pattern Recognition. ICPR International Workshops and Challenges, Springer, 2021.
[39] Y. Matsuda, H. Hoashi, and K. Yanai, “Recognition of multiple-food images by detecting candidate regions,” in 2012 IEEE International Conference on Multimedia and Expo, IEEE, 2012.
[40] AIcrowd, “Food recognition 2022,” 2022. [Online]. Available: https://www.kaggle.com/datasets/awsaf49/food-recognition-2022-dataset
[41] Q. Thames, A. Karpur, W. Norris, F. Xia, L. Panait, T. Weyand, and J. Sim, “Nutrition5K: Towards automatic nutritional understanding of generic food,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2021.
[42] Y. Liang and J. Li, “Computer vision-based food calorie estimation: Dataset, method, and experiment,” CoRR, vol. abs/1705.07632, 2017. [Online]. Available: http://arxiv.org/abs/1705.07632
[43] C. Tai, M. Keller, M. Kerrigan, Y. Chen, S. Nair, P. Xi, and A. Wong, “NutritionVerse-3D: A 3D food model dataset for nutritional intake estimation,” 2023. [Online]. Available: https://arxiv.org/abs/2304.05619
[44] Y. Chen, J. He, G. Vinod, S. Raghavan, C. Czarnecki, J. Ma, T. I. Mahmud, B. Coburn, D. Mao, S. Nair, P. Xi, A. Wong, E. Delp, and F. Zhu, “MetaFood3D: 3D food dataset with nutrition values,” 2024. [Online]. Available: https://arxiv.org/abs/2409.01966
[45] S. Zheng, J. Lu, H. Zhao, X. Zhu, Z. Luo, Y. Wang, Y. Fu, J. Feng, T. Xiang, P. H. Torr, and L. Zhang, “Rethinking semantic segmentation from a sequence-to-sequence perspective with transformers,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2021.
[46] Z. Liu, Y. Lin, Y. Cao, H. Hu, Y. Wei, Z. Zhang, S. Lin, and B. Guo, “Swin Transformer: Hierarchical vision transformer using shifted windows,” in Proceedings of the IEEE/CVF International Conference on Computer Vision, 2021.
[47] X. Lan, J. Lyu, H. Jiang, K. Dong, Z. Niu, Y. Zhang, and J. Xue, “FoodSAM: Any food segmentation,” IEEE Transactions on Multimedia, 2023.
[48] A. Kirillov, E. Mintun, N. Ravi, H. Mao, C. Rolland, L. Gustafson, T. Xiao, S. Whitehead, A. C. Berg, W.-Y. Lo et al., “Segment Anything,” in Proceedings of the IEEE/CVF International Conference on Computer Vision, 2023.
[49] G. Sinha, K. Parmar, H. Azimi, A. Tai, Y. Chen, A. Wong, and P. Xi, “Transferring knowledge for food image segmentation using transformers and convolutions,” 2023. [Online]. Available: https://arxiv.org/abs/2306.09203
[50] L. Chen, B. Wang, and J. Zhang, “IngredSAM: Open-world food ingredient segmentation via a single image prompt,” Journal of Imaging, vol. 10, no. 12, 2024. [Online]. Available: https://www.mdpi.com/2313-433X/10/12/305
[51] U. Sharma, B. Artacho, and A. Savakis, “GourmetNet: Food segmentation using multi-scale waterfall features with spatial and channel attention,” Sensors, vol. 21, no. 22, 2021.
[52] E. Aguilar, B. Nagarajan, B. Remeseiro, and P. Radeva, “Bayesian deep learning for semantic segmentation of food images,” Computers and Electrical Engineering, vol. 103, 2022.
[53] FAO, “FAO/INFOODS Food Composition Databases.” [Online]. Available: https://www.fao.org/infoods/infoods/tables-and-databases/faoinfoods-databases/en/
[54] J. Dehais, M. Anthimopoulos, S. Shevchik, and S. Mougiakakou, “Two-view 3D reconstruction for food volume estimation,” IEEE Transactions on Multimedia, vol. 19, no. 5, 2016.
[55] E. A. H. Akpa, H. Suwa, Y. Arakawa, and K. Yasumoto, “Smartphone-based food weight and calorie estimation method for effective food journaling,” SICE Journal of Control, Measurement, and System Integration, vol. 10, no. 5, 2017.
[56] A. Gao, F. P.-W. Lo, and B. Lo, “Food volume estimation for quantifying dietary intake with a wearable camera,” in 2018 IEEE 15th International Conference on Wearable and Implantable Body Sensor Networks (BSN), 2018.
[57] F. P.-W. Lo, Y. Sun, J. Qiu, and B. Lo, “Food volume estimation based on deep learning view synthesis from a single depth map,” Nutrients, vol. 10, no. 12, 2018.
[58] ——, “A novel vision-based approach for dietary assessment using deep learning view synthesis,” in 2019 IEEE 16th International Conference on Wearable and Implantable Body Sensor Networks (BSN), 2019.
[59] G. Vinod, J. He, Z. Shao, and F. Zhu, “Food portion estimation via 3D object scaling,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2024.
[60] G. Ciocca, P. Napoletano, and R. Schettini, “Food recognition and leftover estimation for daily diet monitoring,” in New Trends in Image Analysis and Processing–ICIAP 2015 Workshops, Springer, 2015.
[61] Y. A. Sari, S. Adinugroho, J. M. Maligan, E. Nadia Candra, F. Utaminingrum, and N. Nur’Aini, “Leftovers food recognition using deep neural network and regression approach for objective visual analysis estimation,” in 2021 4th International Conference of Computer and Informatics Engineering (IC2IE), 2021.
[62] F. S. Konstantakopoulos, E. I. Georga, and D. I. Fotiadis, “A novel approach to estimate the weight of food items based on features extracted from an image using boosting algorithms,” Scientific Reports, vol. 13, no. 1, 2023.
[63] S. Gebhardt, L. Lemar, D. Haytowitz, P. Pehrsson, M. Nickle, B. Showell, R. Thomas, J. Exler, and J. Holden, “USDA National Nutrient Database for Standard Reference, Release 21,” United States Department of Agriculture, 2006.
[64] J. B. Montville, J. K. Ahuja, C. L. Martin, K. Y. Heendeniya, G. Omolewa-Tomobi, L. C. Steinfeldt, J. Anand, M. E. Adler, R. P. LaComb, and A. Moshfegh, “USDA Food and Nutrient Database for Dietary Studies (FNDDS), 5.0,” Procedia Food Science, vol. 2, 2013.
[65] Y. Lu, D. Allegra, M. Anthimopoulos, F. Stanco, G. M. Farinella, and S. Mougiakakou, “A multi-task learning approach for meal assessment,” in Proceedings of the Joint Workshop on Multimedia for Cooking and Eating Activities and Multimedia Assisted Dietary Management, 2018. [Online]. Available: https://doi.org/10.1145/3230519.3230593
[66] S. Fang, Z. Shao, R. Mao, C. Fu, E. J. Delp, F. Zhu, D. A. Kerr, and C. J. Boushey, “Single-view food portion estimation: Learning image-to-energy mappings using generative adversarial networks,” in 2018 25th IEEE International Conference on Image Processing (ICIP), 2018.
[67] T. Ege and K. Yanai, “Multi-task learning of dish detection and calorie estimation,” in Proceedings of the Joint Workshop on Multimedia for Cooking and Eating Activities and Multimedia Assisted Dietary Management, 2018. [Online]. Available: https://doi.org/10.1145/3230519.3230594
[68] R. Ruede, V. Heusser, L. Frank, A. Roitberg, M. Haurilet, and R. Stiefelhagen, “Multi-task learning for calorie prediction on a novel large-scale recipe dataset enriched with nutritional information,” in 2020 25th International Conference on Pattern Recognition (ICPR), 2021.
[69] W. Shao, W. Min, S. Hou, M. Luo, T. Li, Y. Zheng, and S. Jiang, “Vision-based food nutrition estimation via RGB-D fusion network,” Food Chemistry, vol. 424, 2023. [Online]. Available: https://www.sciencedirect.com/science/article/pii/S0308814623009275
[70] Y. Han, Q. Cheng, W. Wu, and Z. Huang, “DPF-Nutrition: Food nutrition estimation via depth prediction and fusion,” Foods, vol. 12, no. 23, 2023.
[71] S. Gull, I. S. Bajwa, W. Anwar, and R. Rashid, “Smart eNose food waste management system,” Journal of Sensors, 2021.
[72] Kitro, “Kitro,” 2025. [Online]. Available: https://www.kitro.ch/
[73] Winnow Solutions, “Winnow Solutions,” 2025. [Online]. Available: https://www.winnowsolutions.com/
[74] Orbisk, “Orbisk,” 2025. [Online]. Available: https://orbisk.com/
[75] Positive Carbon, “Positive Carbon,” 2025. [Online]. Available: https://www.positivecarbon.org/
[76] LeanPath, “LeanPath - Food Waste Prevention Solutions,” 2025. [Online]. Available: https://www.leanpath.com/
[77] Lumitics, “Lumitics - Intelligent solutions to reduce food waste,” 2025. [Online]. Available: https://lumitics.com/
[78] G. Bradski, “The OpenCV library,” Dr. Dobb’s Journal of Software Tools, 2000.
[79] A. Clark and Contributors, “Pillow (PIL Fork),” 2015. [Online]. Available: https://pillow.readthedocs.io/en/stable/
[80] A. Paszke, “PyTorch: An imperative style, high-performance deep learning library,” arXiv preprint arXiv:1912.01703, 2019.
[81] T. maintainers and contributors, “Torchvision: PyTorch’s computer vision library,” 2016. [Online]. Available: https://github.com/pytorch/vision
[82] P. Yakubovskiy, “Segmentation Models PyTorch,” 2019. [Online]. Available: https://github.com/qubvel/segmentation_models.pytorch
[83] C. R. Harris, K. J. Millman, S. J. van der Walt, R. Gommers, P. Virtanen, D. Cournapeau, E. Wieser, J. Taylor, S. Berg, N. J. Smith et al., “Array programming with NumPy,” Nature, vol. 585, no. 7825, 2020.
[84] W. McKinney, “Data structures for statistical computing in Python,” in Proceedings of the 9th Python in Science Conference, 2010.
[85] J. D. Hunter, “Matplotlib: A 2D graphics environment,” Computing in Science & Engineering, vol. 9, no. 3, 2007.
[86] M. L. Waskom, “Seaborn: Statistical data visualization,” Journal of Open Source Software, vol. 6, no. 60, 2021.
[87] P. T. Inc., “Collaborative Data Science,” 2015. [Online]. Available: https://plot.ly
[88] N. Ravi et al., “SAM 2: Segment Anything in Images and Videos,” arXiv preprint arXiv:2408.00714, 2024. [Online]. Available: https://arxiv.org/abs/2408.00714
[89] F. Pedregosa, G. Varoquaux, A. Gramfort, V. Michel, B. Thirion, O. Grisel, M. Blondel, P. Prettenhofer, R. Weiss, V. Dubourg et al., “Scikit-learn: Machine learning in Python,” The Journal of Machine Learning Research, vol. 12, 2011.
[90] imec IDLab, “Obelisk core documentation,” 2025. [Online]. Available: https://obelisk.pages.ilabt.imec.be/obelisk-core/obelisk-core.html
[91] Grafana Labs, “Grafana documentation,” 2025. [Online]. Available: https://grafana.com/docs/
[92] B. Mildenhall, P. P. Srinivasan, M. Tancik, J. T. Barron, R. Ramamoorthi, and R. Ng, “NeRF: Representing scenes as neural radiance fields for view synthesis,” Communications of the ACM, vol. 65, no. 1, 2021.
[93] United Nations General Assembly, “The 17 Goals,” 2025. [Online]. Available: https://sdgs.un.org/2030agenda
[94] OpenAI, “ChatGPT,” 2025. [Online]. Available: https://chat.openai.com/
[95] Anthropic, “Claude language model,” 2025. [Online]. Available: https://www.anthropic.com/claude
[96] GitHub, “GitHub Copilot,” 2021. [Online]. Available: https://copilot.github.com/

Download scriptie (21.13 MB)
Universiteit of Hogeschool
Universiteit Gent
Thesis jaar
2025
Promotor(en)
Bruno Volckaert