Met een simpele camera van enkele tientallen euro’s kan je niet alleen foto’s trekken, je kan er ook verrassend nauwkeurige metingen mee maken. In mijn thesis onderzocht ik of zo’n goedkope oplossing kan concurreren met bestaande industriële sensoren. Met een opstelling van twee kleine camera’s kon ik de rek van materialen meten tot op de dikte van een haar. Dat laat zien dat een eenvoudige technologie kan uitgroeien tot een waardevol alternatief waarmee we een nieuwe kijk krijgen op hoe machines werken.
Iedereen die ooit plasticfolie heeft uitgerold of een blad papier scheef uit een printer heeft gehaald, weet dat dun materiaal zich gemakkelijk uitrekt of vervormt. In de industrie is dat geen klein ongemak, maar een reëel probleem: rollen papier, folie of textiel die net iets te veel vervormen, leiden al snel tot verspilling en extra kosten.
Maar de mogelijke toepassingen reiken verder dan de fabriekshal. In de recyclagesector zou een visuele en flexibele sensor in de toekomst bijvoorbeeld kunnen helpen om beter te begrijpen hoe hergebruikte materialen zich gedragen. Dat zou het makkelijker maken om materialen efficiënter te benutten. Zelfs in de geneeskunde valt er veel te verkennen: misschien kunnen slimme pleisters of verbanden ooit kleine vervormingen aan de huid volgen met een ingebouwd camerasysteem. Zo’n goedkope, visuele aanpak zou dan een extra hulpmiddel kunnen worden om genezingsprocessen op te volgen, zonder dat er ingewikkelde toestellen aan te pas komen.
Het nauwkeuriger meten van rek draagt niet enkel bij tot het beperken van verspilling en het waarborgen van kwaliteit, maar creëert ook mogelijkheden voor toepassingen die relevant zijn in het dagelijks leven.
Bedrijven gebruiken vandaag meestal industriële sensoren die geluidsgolven of andere technieken inzetten om de randen van het materiaal te vinden. In principe werkt dat goed, maar er zijn grenzen. Dunne of half doorzichtige folies zijn lastig te meten, en de signalen bevatten vaak ruis waardoor de resultaten minder stabiel zijn.
Een alternatief zijn grote, dure camerasystemen die veel details vastleggen maar kampen met dezelfde nadelen: hoge kost, beperkte flexibiliteit en geen garantie op de vereiste precisie. Bovendien zijn al deze systemen duur, waardoor meerdere meetpunten voor bedrijven een aanzienlijke investering vormen.
Voor veel bedrijven blijft nauwkeurig meten daardoor een uitdaging.
De centrale vraag in mijn onderzoek was: kunnen zulke precieze rekmetingen ook met goedkope camera’s worden uitgevoerd? Het idee is eenvoudig: plaats aan weerszijden van een rol in de machine een kleine camera. Elke camera volgt de rand van het materiaal en samen leveren ze een breedteschatting.
De kracht van de camerasensor zit in de precisie. Een standaardcamera ziet enkel pixels, en die zijn te grof om competitief te meten. Daarom werd een wiskundige techniek gebruikt die pixels opsplitst in kleinere subpixels. Daardoor ontstaat een veel fijner beeld van waar de rand van het materiaal zich bevindt. Deze methode werd als eerste gebruikt door mijn thesisbegeleider, Yentl Thielemans. Zo konden we de positie van de randen volgen met een nauwkeurigheid die overeenkomt met een fractie van een haar.
Het onderzoek impliceert dat goedkope camera’s in bepaalde omstandigheden verrassend precieze metingen kunnen leveren.
Een nieuwe aanpak is pas interessant als ze de vergelijking met bestaande methodes kan doorstaan. Daarom werd mijn camerasensor naast een commerciële industriële sensor geplaatst om beide in dezelfde omstandigheden te testen. De resultaten waren opvallend. De camera mat de rek drie tot vijf keer nauwkeuriger dan de industriële sensor en leverde een signaal dat bijna drie keer stabieler was, met veel minder ruis. En dat alles aan slechts een vijfde van de prijs.
Er is wel een keerzijde: de berekeningen nemen meer tijd in beslag. Voor toepassingen die razendsnelle feedback vragen, kan dat een beperking zijn. Toch tonen de testen dat er potentieel schuilt in deze aanpak, zeker bij materialen of processen waar klassieke sensoren tekortschieten.
De eerste vergelijkingen tonen aan dat goedkope camera’s in sommige gevallen niet alleen een alternatief, maar zelfs een waardevolle aanvulling kunnen zijn.
Het vernieuwende van deze sensor zit niet alleen in de precisie, maar ook in de betaalbaarheid. Waar bedrijven en onderzoekers voorheen duizenden euro’s moesten investeren in één sensor, kan een vergelijkbare opstelling met goedkope camera’s voor een fractie van die prijs worden gebouwd. Dat maakt de technologie ook haalbaar voor bedrijven met beperkte budgetten en onderzoeksinstellingen.
Daarnaast blijkt de methode flexibel. In de eerste experimenten konden de camera’s met verschillende materialen overweg, ook daar waar klassieke sensoren tekortschieten. Dat opent de deur naar bredere toepassingen, al is verder onderzoek nodig om dit ook in praktijkomgevingen te bevestigen.
Wat dit onderzoek extra interessant maakt, is de link met duurzaamheid. Doordat de sensor werkt met goedkope en makkelijk verkrijgbare onderdelen, is het systeem eenvoudig te repliceren, te herstellen en te upgraden. In plaats van dure, gesloten industriële systemen die vaak volledig vervangen moeten worden, kan een modulair ontwerp langer meegaan en afval beperken.
Daarmee past dit onderzoek in een bredere trend: de zoektocht naar slimme, duurzame en toegankelijke productietechnologie. Minder verspilling, meer controle en oplossingen die ook voor kleinere spelers bereikbaar zijn. Denk aan textielfabrieken die snijverlies willen beperken, verpakkingsbedrijven die dunne folies beter onder controle willen houden, of medische toepassingen waar nauwkeurigheid cruciaal is.
Het onderzoek toont aan dat betaalbare elektronica niet alleen technisch perspectief biedt, maar ook kan bijdragen aan een productie die slimmer, duurzamer en inclusiever is.
Mijn onderzoek laat zien dat je met eenvoudige middelen verrassend ver kan komen. Twee kleine camera’s en slimme software bleken voldoende om metingen te doen die normaal alleen dure apparatuur aankan. Daarmee wordt duidelijk dat betaalbare technologie niet alleen technisch haalbaar is, maar ook kan bijdragen aan productie die slimmer, duurzamer en toegankelijker wordt. Dat opent perspectieven voor de toekomst.
Met twee kleine camera’s en slimme software liet ik zien dat grootse ideeën soms beginnen met de breedte van een haar.
[1] N. Jazdi, “Cyber physical systems in the context of industry 4.0,” in 2014 IEEE International Conference on Automation, Quality and Testing, Robotics. IEEE, 2014, pp. 1–4.
[2] A. Papavasileiou, G. Michalos, and S. Makris, “Quality control in manufacturing – review and challenges on robotic applications,” International Journal of Computer Integrated Manufacturing, vol. 38, no. 1, pp. 79–115, 2025. [Online]. Available: https://doi.org/10.1080/0951192X.2024.2314789
[3] H. Kagermann, W. Wahlster, and J. Helbig, “Securing the future of german manufacturing industry: Recommendations for implementing the strategic initiative industrie 4.0,” acatech – National Academy of Science and Engineering, Frankfurt/Main, Germany, Tech. Rep., April 2013, final report of the Industrie 4.0 Working Group. [Online]. Available: https://www.acatech.de/publikation/securingthe-future-of-german-manufac…;
[4] eFunda, “Strain gage sensitivity,” n.d. [Online]. Available: https://www.efunda. com/designstandards/sensors/strain_gages/strain_gage_sensitivity.cfm
[5] Unknown, “Strain gauge measurement: A tutorial,” n.d. [Online]. Available: https://web.enib.fr/~bourgeot/IPS/Datasheets/AN078-Strain_Gauge_ Measurement-A_Tutorial.pdf
[6] Y. W. Teyeme, B. Malengier, T. Tesfaye, and L. Van Langenhove, “A fabric-based textile stretch sensor for optimized measurement of strain in clothing,” Sensors, vol. 2020, 2020, pug01:8685720. [Online]. Available: http://lib.ugent.be/catalog/pug01:8685720
[7] National Instruments, “Measuring strain with strain gages,” 2025. [Online]. Available: https://www.ni.com/en/shop/data-acquisition/sensor-fundamentals/ measuring-strain-with-strain-gages.html
[8] P. H. Mott and C. M. Roland, “Limits to poisson’s ratio in isotropic materials,” Physical Review B, vol. 80, no. 13, p. 132104, 2009. [Online]. Available: https://link.aps.org/doi/10.1103/PhysRevB.80.132104
[9] H. Xiufeng, W. Jihang, and Z. Zhenhua, “Research on application of digital image correlation method,” in 2020 IEEE International Conference on Artificial Intelligence and Computer Applications (ICAICA), 2020, pp. 838–840.
[10] J. Carr, J. Baqersad, C. Niezrecki, and P. Avitabile, “Predicting dynamic strain on wind turbine blade using digital image correlation techniques in conjunction with analytical expansion methodologies,” Proceedings of the 31st International Modal Analysis Conference (IMAC), 2013. [Online]. Available: https://www.researchgate.net/publication/292783598_Predicting_ Dynamic_Strain_on_Wind_Turbine_Blade_Using_Digital_Image_Correlation_ Techniques_in_Conjunction_with_Analytical_Expansion_Methodologies
[11] R. E, A. A, V. V, G. T, S. S, and S. Prabha R, “Strain measurement using digital image correlation technique,” in 2023 International Conference on Advances in Computing, Communication and Applied Informatics (ACCAI), 2023, pp. 1–8. [12] AIMed Research, “High-speed cameras,” n.d. [Online]. Available: https: //www.aimed-research.com/high-speed-cameras.html
[13] J. Bruggeman, “Operational motion monitoring of web processing machines using low-cost vision for adaptive control,” 2024, master of Science in Electromechanical Engineering. [Online]. Available: http://lib.ugent.be/catalog/rug01:003214547
[14] D. Marr and E. Hildreth, “Theory of edge detection,” Proceedings of the Royal Society of London. Series B, Biological Sciences, vol. 207, pp. 187–217, 1980. [Online]. Available: https://doi.org/10.1098/rspb.1980.0020
[15] L. Ding and A. Goshtasby, “On the canny edge detector,” Pattern Recognition, vol. 34, no. 3, pp. 721–725, 2001. [Online]. Available: https://www.sciencedirect. com/science/article/pii/S0031320300000236 [16] M. S. I. Khan, “Implementation of edge & shape detection techniques and their performance evaluation,” Master’s thesis, Ryerson University, Toronto, Ontario, Canada, 2013, available at Digital Commons @ Ryerson. [Online]. Available: http://digitalcommons.ryerson.ca/dissertations/1043
[17] A. unknown, “A comparison of various edge detection techniques used in image processing,” ResearchGate, 2016. [Online]. Available: https://www.researchgate.net/publication/303142762_A_Comparison_of_ various_Edge_Detection_Techniques_used_in_Image_Processing
[18] Florida State University, “Digital image processing - difference of gaussians,” n.d. [Online]. Available: https://micro.magnet.fsu.edu/primer/java/digitalimaging/ processing/diffgaussians/index.html
[19] G. Verhoeven, W. Karel, S. Štuhec, M. Doneus, I. Trinks, and N. Pfeifer, “Mind your grey tones: Examining the influence of decolourization methods on interest point extraction and matching for architectural image-based modelling,” in Proceedings of the International Conference on Computer Vision and Pattern Recognition in Remote Sensing, D. González-Aguilera, F. Remondino, J. Boehm, T. Kersten, and T. Fuse, Eds. Göttingen, 2015. [Online]. Available: http://lib.ugent.be/catalog/pug01:5857128
[20] International Telecommunication Union, “Recommendation ITU-R BT.601-7: Studio encoding parameters of digital television for standard 4:3 and wide-screen 16:9 aspect ratios,” International Telecommunication Union, Tech. Rep. BT.601-7, 2011. [Online]. Available: https://www.itu.int/dms_pubrec/itu-r/rec/bt/r-rec-bt.601- 7-201103-i!!pdf-e.pdf
[21] Y. Thielemans, N. Kayedpour, A. Coene, G. Crevecoeur, and J. D. M. De Kooning, “Speed and position measurement of rotating machinery with a triangular pattern vision encoder,” IEEE Transactions on Instrumentation and Measurement, vol. 74, pp. 1–13, 2025.
[22] M. Heideman, D. Johnson, and C. Burrus, “Gauss and the history of the fast fourier transform,” IEEE ASSP Magazine, vol. 1, no. 4, pp. 14–21, 1984.
[23] L. Auslander and F. A. Grunbaum, “The fourier transform and the discrete fourier transform,” Inverse Problems, vol. 5, pp. 149–164, 1989. [Online]. Available: https://api.semanticscholar.org/CorpusID:121312591
[24] J. Wolf, “On the classification of hermitian symmetric spaces,” Indiana University Mathematics Journal, vol. 13, pp. 489–495, 1964. [Online]. Available: https://www.iumj.indiana.edu/IUMJ/fulltext.php?artid=13041
[25] S. E. Kelly, “Gibbs phenomenon for wavelets,” Applied and Computational Harmonic Analysis, vol. 3, no. 1, pp. 72–81, 1996. [Online]. Available: https://www.sciencedirect.com/science/article/pii/S1063520396900068 [26] C. R. Taylor, Applications of Dynamic Programming to Agricultural Decision Problems. CRC Press, 2017. [Online]. Available: https://books.google.be/ books?id=71SsDwAAQBAJ
[27] R. Hartley and A. Zisserman, Multiple View Geometry in Computer Vision, 2nd ed. Cambridge University Press, 2004.
[28] A. Bousaid, T. Theodoridis, S. Nefti-Meziani, and S. Davis, “Perspective distortion modeling for image measurements,” IEEE Access, vol. 8, pp. 15 322–15 331, 2020.
[29] J. Watt. (2024) How to fast remove fisheye (lens distortion) from gopro video. [Online]. Available: https://www.winxdvd.com/resource/gopro-fisheye-correctionguide.htm
[30] J. Jedlička and M. Potůčková, “Correction of radial distortion in digital images,” ResearchGate, 2007, accessed: 2025-03-12. [Online]. Available: https://www.researchgate.net/publication/255610429_CORRECTION_OF_ RADIAL_DISTORTION_IN_DIGITAL_IMAGES
[31] Z. Zhang, “A flexible new technique for camera calibration,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 22, no. 11, pp. 1330–1334, 2000.
[32] O. Team, “Camera calibration with opencv,” 2024. [Online]. Available: https: //docs.opencv.org/4.x/dc/dbb/tutorial_py_calibration.html
[33] Python Software Foundation, “multiprocessing — process-based parallelism,” n.d. [Online]. Available: https://docs.python.org/3/library/multiprocessing.html
[34] Real Python, “An intro to threading, multiprocessing, and asyncio in python,” n.d. [Online]. Available: https://realpython.com/python-concurrency/ [35] ARM Developer, “Multicore processing,” n.d. [Online]. Available: https: //developer.arm.com/documentation/102984/0100/Multicore-Processing [36] F. Doglio, Parallel Programming with Python, 2nd ed. Packt Publishing, 2014. [Online]. Available: https://www.packtpub.com/product/parallel-programmingwith-python-978178…;
[37] Commsvr, “Opc unified architecture,” n.d. [Online]. Available: https://commsvr. gitbook.io/ooi/introduction/opcunifiedarchitecture
[38] Python OPC UA, “Python opc ua library documentation,” n.d. [Online]. Available: https://python-opcua.readthedocs.io/en/latest/
[39] GeeksforGeeks, “Tcp/ip model,” n.d. [Online]. Available: https://www. geeksforgeeks.org/tcp-ip-model/
[40] Siemens AG, “Opc ua methods for the simatic s7-1500 opc ua server,” n.d. [Online]. Available: https://support.industry.siemens.com/cs/document/109756885/ opc-ua-methods-for-the-simatic-s7-1500-opc-ua-server-
[41] AutonomyLogic, OpenPLC Runtime Documentation, 2022. [Online]. Available: https://autonomylogic.com/docs-category/openplc-runtime/
[42] Accuracy (trueness and precision) of measurement methods and results — Part 1: General principles and definitions, International Organization for Standardization Std. ISO 5725-1:2023, July 2023. [Online]. Available: https://cdn.standards.iteh. ai/samples/69418/a7c3fb78cdce4a6398bd3f759670d72e/ISO-5725-1-2023.pdf
[43] Raspberry Pi Foundation. (2019) Thermal testing raspberry pi 4. [Online]. Available: https://www.raspberrypi.com/news/thermal-testing-raspberry-pi-4/
[44] J. Geerling. (2020) The raspberry pi 4 has a fan now – the case fan. [Online]. Available: https://www.jeffgeerling.com/blog/2020/raspberry-pi-4-hasfan-now-case-f…;
[45] M. GmbH, “bks+6/fiu ultrasonic web edge sensor,” https://sensorpartners.com/en/ product/microsonic-bks6-fiu/, 2025.
[46] Study.com. (2024) How to calculate the standard deviation of the sum of two random variables. [Online]. Available: https://study.com/skill/learn/how-to-calculatethe-standard-deviation-of…;
[47] Statistics How To. (2024) Correlation coefficient: Simple definition, formula, easy steps. [Online]. Available: https://www.statisticshowto.com/probability-andstatistics/correlation-c…;
[48] Kent State University Libraries. (2024) Spss tutorials: Pearson correlation. [Online]. Available: https://libguides.library.kent.edu/SPSS/PearsonCorr
[49] Schluter Systems, “Schluter®-KERDI: Waterproofing Membrane,” https: //www.schluter.com/schluter-us/en_US/Membranes/Waterproofing-%28KERDI% 29/Schluter%C2%AE-KERDI/p/KERDI, 2025.
[50] (2024) Polyethylene (pe) | properties, structures, uses, & facts. Encyclopædia Britannica. [Online]. Available: https://www.britannica.com/science/polyethylene
[51] (2024) Polypropylene | properties, definition, & uses. Encyclopædia Britannica. [Online]. Available: https://www.britannica.com/science/polypropylene
[52] (2025) Capstan equation - an overview | sciencedirect topics. ScienceDirect. [Online]. Available: https://www.sciencedirect.com/topics/engineering/capstanequation
[53] (2025) Bessel filter - an overview | sciencedirect topics. ScienceDirect. [Online]. Available: https://www.sciencedirect.com/topics/engineering/bessel-filter [54] (2025) Butterworth filter - an overview | sciencedirect topics. ScienceDirect. [Online]. Available: https://www.sciencedirect.com/topics/engineering/butterworthfilter [55] (2025) Chebyshev filter - an overview | sciencedirect topics. ScienceDirect. [Online]. Available: https://www.sciencedirect.com/topics/engineering/chebyshevfilter