"Mag ik dit medicijn wel combineren met dat andere?" Die vraag stelden we ons tijdens een gewone scoutsactiviteit, ergens in een lokaal met EHBO-doos en Google bij de hand. De bijsluiters? Te ingewikkeld. Te traag. Te veel medische termen. Dus namen we het risico. Dat moment – klein maar veelzeggend – bleef hangen. En het werd de aanleiding voor een groter idee: wat als technologie ons hier kon helpen?
Bijsluiters bevatten cruciale informatie over medicatie, maar voor veel mensen zijn ze moeilijk te begrijpen. Jongeren, ouderen, mensen met beperkte gezondheidsvaardigheden of een migratieachtergrond… Voor hen vormen ingewikkelde zinnen, medische termen en kleine lettertjes een echte drempel. Nochtans kan goede informatie het verschil maken tussen veilig medicatiegebruik en een fout die vermeden had kunnen worden.
Ik, Lien De Jong, student Multimedia en Creatieve Technologie aan Howest, besloot om die uitdaging aan te pakken met artificiële intelligentie. Mijn eindproject werd een AI-chatbot die bijsluiters vertaalt naar begrijpelijke antwoorden, op maat van de gebruiker. En dat zonder medische gegevens te verzamelen, zonder wachttijden, en zonder vakjargon.
De chatbot combineert meerdere moderne technologieën:
Een eenvoudige frontend: via een webinterface stelt de gebruiker een vraag, bijvoorbeeld “Wanneer neem ik dit medicijn in?”, en krijgt meteen een begrijpelijk antwoord mét bronvermelding.
Ik ontwikkelde zelf een werkende demo, gebaseerd op publieke bijsluiters uit de officiële Vlaamse geneesmiddelendatabank. Vervolgens schreef ik een script dat PDF-bestanden automatisch downloadt, tekst eruit haalt, opsplitst in stukken (zogenaamde chunks), indexeert én beschikbaar maakt voor vraag-antwoordsessies. Alles draait op een modulaire architectuur die eenvoudig schaalbaar is.
De cijfers liegen er niet om: in België heeft 1 op 3 mensen beperkte gezondheidsvaardigheden. Bij jongeren is er vaak een digitale vaardigheid, maar geen medische geletterdheid. Bij ouderen spelen gehoor-, zicht- en geheugenproblemen. En mensen met een migratieachtergrond botsen vaak op taalbarrières. Toch krijgen we allemaal te maken met medicijnen – en dus ook met bijsluiters.
Door medische informatie toegankelijker te maken, verhoogt niet alleen de therapietrouw (het correct nemen van medicatie), maar daalt ook de druk op huisartsen, apothekers en spoeddiensten. Als patiënten beter begrijpen wat ze nemen en waarom, kunnen ze zelf betere keuzes maken.
Ik sprak voor mijn project met experten van onder andere het FAGG (Federaal Agentschap voor Geneesmiddelen), VITO, InfoFarm, Cloudway en marketingconsultants uit de farmaceutische sector. Hun reacties waren verrassend unaniem: dit systeem is niet alleen technisch sterk, maar ook maatschappelijk relevant.
“Eenvoud is een sterkte,” zegt een UX-ontwikkelaar. “Geen registratie, geen complex menu, je stelt gewoon je vraag.”
Anderen benadrukten de voordelen voor farmaceutische bedrijven, zoals betere patiëntbetrokkenheid, lagere druk op helpdesks en de mogelijkheid om veelgestelde vragen te monitoren. Maar ze waarschuwden ook voor een fundamenteel risico: medische antwoorden geven zonder kennis van de volledige context van de patiënt – zoals leeftijd, gewicht, allergieën of onderliggende aandoeningen – betekent bijna onvermijdelijk dat je fout advies kan geven. Zelfs ogenschijnlijk eenvoudige vragen, zoals “Mag ik dit medicijn met water innemen?”, kunnen in sommige gevallen risicovol zijn.
Het FAGG wees er dan ook op dat AI-chatbots zich momenteel in een juridische grijze zone bevinden. Zodra een systeem ook maar de indruk wekt medische aanbevelingen te geven, gelden er strenge regels rond veiligheid, certificering en CE-markering – net zoals bij medische hulpmiddelen. En precies omdat het vrijwel onmogelijk is om bij elke gebruiker alle medische achtergrondinformatie te kennen, is de kans op foute interpretaties reëel.
Dat maakt veel organisaties huiverig: niet omdat de technologie niet werkt, maar omdat het risico op schade en juridische aansprakelijkheid groot is. Voorlopig zien experts deze tools dan ook vooral als informatief hulpmiddel, met een strikt afgebakende rol, bijvoorbeeld binnen apotheken, ziekenfondsen of gezondheidsapps – en altijd met een duidelijke disclaimer: dit is geen vervanging voor medisch advies.
Wat begon met een persoonlijke frustratie over onbegrijpelijke bijsluiters, groeide uit tot een concreet AI-systeem dat klaar is voor verder onderzoek en implementatie. Met mijn project toonde ik aan hoe technologie niet alleen slimmer, maar ook menselijker kan worden.
We mogen AI niet zomaar loslaten op de gezondheidszorg, maar als we het goed begeleiden, kan het wel levens verbeteren of op z’n minst heel wat verwarring wegnemen.
Die avond bij de scouts hebben we het medicijn gelukkig niet fout genomen. Maar wat als het wel zo was? Dankzij projecten zoals deze komt de dag dichterbij waarop je bijsluiter net zo duidelijk is als een gesprek met een apotheker, alleen dan 24/7 beschikbaar en zonder wachtrij.
[1] 848, ‘Gezondheidsvaardigheden’, Naar een gezond België. Geraadpleegd: 11 februari 2025.
[Online]. Beschikbaar op: https://www.gezondbelgie.be/nl/gezondheidstoestand/determinanten-
van-gezondheid/gezondheidsvaardigheden?utm_source=chatgpt.com
[2] ‘KCE_322A_Gezondheidsgeletterdheid_Synthese.pdf’. Geraadpleegd: 11 februari 2025. [Online].
Beschikbaar op: https://kce.fgov.be/sites/default/files/2021-
11/KCE_322A_Gezondheidsgeletterdheid_Synthese.pdf?utm_source=chatgpt.com
[3] ‘Acht_noodzakelijke_stappen_voor_Ouderenzorg_en_Preventie.pdf’. Geraadpleegd: 11 februari
2025. [Online]. Beschikbaar op: https://repository.uantwerpen.be/docman/irua/591886motoM50
[4] ‘Werken-met-mensen-met-lage-gezondheidsvaardigheden-wat-kan-je-doen-als-professional.pdf’.
Geraadpleegd: 11 februari 2025. [Online]. Beschikbaar op:
https://www.gezondleven.be/files/ongelijkheid/Werken-met-mensen-met-lage-
gezondheidsvaardigheden-wat-kan-je-doen-als-professional.pdf?utm_source=chatgpt.com
[5] D. V. Veen e.a., ‘Adapted Large Language Models Can Outperform Medical Experts in Clinical Text
Summarization’, Nat. Med., vol. 30, nr. 4, pp. 1134-1142, apr. 2024, doi: 10.1038/s41591-024-
02855-5.
[6] M. Geetha, ‘Machine learning & semantic web technologies for cancer care’:, maastricht
university, 2020. doi: 10.26481/dis.20200409gm.
[7] ‘Comment l’IA bouscule le milieu de la santé mentale : « Plutôt que de payer une nouvelle séance
chez le psy, j’allais sur ChatGPT »’, 6 augustus 2024. Geraadpleegd: 12 februari 2025. [Online].
Beschikbaar op: https://www.lemonde.fr/pixels/article/2024/08/06/comment-l-ia-bouscule-…-
milieu-de-la-sante-mentale-plutot-que-de-payer-une-nouvelle-seance-chez-le-psy-j-allais-sur-
chatgpt_6270640_4408996.html
[8] ‘handreiking_gebruik_ai-chatbots_door_zorgverleners.pdf’. Geraadpleegd: 12 februari 2025.
[Online]. Beschikbaar op: https://demedischspecialist.nl/sites/default/files/2024-
12/handreiking_gebruik_ai-chatbots_door_zorgverleners.pdf?utm_source=chatgpt.com
[9] B. Chaix, A. Guillemassé, P. Nectoux, G. Delamon, en B. Brouard, ‘Vik: A Chatbot to Support
Patients with Chronic Diseases’, Health (N. Y.), vol. 12, nr. 7, Art. nr. 7, jul. 2020, doi:
10.4236/health.2020.127058.
[10] ‘AI-chatbots geven vaak onjuiste informatie over medicijnen | ICT&health’. Geraadpleegd: 12
februari 2025. [Online]. Beschikbaar op: https://icthealth.nl/nieuws/ai-chatbots-geven-vaak-
onjuiste-informatie-over-medicijnen
[11] S. Coghlan, K. Leins, S. Sheldrick, M. Cheong, P. Gooding, en S. D’Alfonso, ‘To chat or bot to chat:
Ethical issues with using chatbots in mental health’, Digit. Health, vol. 9, p. 20552076231183542,
jun. 2023, doi: 10.1177/20552076231183542.
[12] ‘Het gebruik van AI-chatbots door zorgaanbieders: hoe datalekken te voorkomen?’ Geraadpleegd:
12 februari 2025. [Online]. Beschikbaar op: https://www.akd.eu/nl/insights/ai-gebruik-door-de-
zorgaanbieder-hoe-datalekken-te-voorkomen-
[13] A. Abd-Alrazaq, Z. Safi, M. Alajlani, J. Warren, M. Househ, en K. Denecke, ‘Technical Metrics Used
to Evaluate Health Care Chatbots: Scoping Review’, J. Med. Internet Res., vol. 22, nr. 6, p. e18301,
jun. 2020, doi: 10.2196/18301.
[14] J. Xue e.a., ‘Evaluation of the Current State of Chatbots for Digital Health: Scoping Review’, J.
Med. Internet Res., vol. 25, p. e47217, dec. 2023, doi: 10.2196/47217.
[15] ‘ARPA-H launches Exploration Topic to improve chatbots for patient-facing applications | ARPA-
H’. Geraadpleegd: 12 februari 2025. [Online]. Beschikbaar op: https://arpa-h.gov/news-and-
events/arpa-h-launches-exploration-topic-improve-chatbots-patient-facing-applications
[16]
[17] ‘De_rol_van_big_data_in_chatbots_de_integratie_van_web_analytics_om_gebruikerservaring_t
e_meten.pdf’. Geraadpleegd: 12 februari 2025. [Online]. Beschikbaar op:
https://libstore.ugent.be/fulltxt/RUG01/003/009/756/RUG01-
003009756_2021_0001_AC.pdf?utm_source=chatgpt.com
Y. Li, Z. Li, K. Zhang, R. Dan, S. Jiang, en Y. Zhang, ‘ChatDoctor: A Medical Chat Model Fine-Tuned
on a Large Language Model Meta-AI (LLaMA) Using Medical Domain Knowledge’, 24 juni 2023,
arXiv: arXiv:2303.14070. doi: 10.48550/arXiv.2303.14070.
38Bachelorproef MCT
[18] dcstwh, ‘Introduction to Azure Data Factory - Azure Data Factory’. Geraadpleegd: 12 februari
2025. [Online]. Beschikbaar op: https://learn.microsoft.com/en-us/azure/data-
factory/introduction
[19] K. Liang, S. Wu, en J. Gu, ‘MKA: A Scalable Medical Knowledge Assisted Mechanism for Generative
Models on Medical Conversation Tasks’, 5 december 2023, arXiv: arXiv:2312.02496. doi:
10.48550/arXiv.2312.02496.
[20] ‘Geneesmiddelen voor menselijk gebruik | Geneesmiddelendatabank’. Geraadpleegd: 11 februari
2025. [Online]. Beschikbaar op: https://geneesmiddelendatabank.be/menselijk-gebruik