Een oor voor innovatie: Hoe artificiële intelligentie gehoorimplantaten kan leren luisteren zoals wij.

Julie
Van Heghe

Horen lijkt vanzelfsprekend, tot je het verliest. Voor meer dan een miljoen mensen wereldwijd bieden gehoorimplantaten een tweede kans om de wereld van geluid opnieuw te ontdekken. Stel je voor dat je na jaren stilte eindelijk weer geluiden kan oppikken. Je hoort stemmen, muziek, het ruisen van de wind. Maar toch… het klinkt anders. Je gehoor is verbeterd, maar niet “normaal”. Een muziekconcert voelt vlak, gesprekken in drukke ruimtes blijven een uitdaging.

Wat als we met behulp van artificiële intelligentie je nieuwe, kunstmatige oor zó kunnen afstemmen dat het hoort zoals wij dat van nature doen?

Een wonder van techniek, maar nog niet perfect

Een gehoorimplantaat, ook wel een cochleair implantaat genoemd, is een van de meest indrukwekkende medische uitvindingen van de voorbije decennia. In tegenstelling tot een klassiek hoorapparaat, dat geluid enkel versterkt, zet een implantaat geluidsgolven om in elektrische signalen die rechtstreeks de gehoorzenuw stimuleren. Zo kunnen mensen met gehoorschade diep in het oor toch opnieuw geluid waarnemen. Voor velen voelt dit als een wonder.

Toch is het verhaal niet helemaal rooskleurig. Tot op zekere hoogte lukt het om met signaalverwerkingstechnieken de onderliggende fysische processen in het oor te modelleren. Zo kan het implantaat die vervangen in een beschadigd oor. Maar net als de rest van ons lichaam is het oor complex. Héél complex. Het resultaat? Geluid dat wel verstaanbaar is, maar vaak vlak en onnatuurlijk klinkt. Ingenieurs hebben al verschillende strategieën ontwikkeld om de prestaties van implantaten te verbeteren. Denk aan algoritmes die achtergrondgeluid onderdrukken of spraak versterken. Die werken vaak goed in gecontroleerde omstandigheden, maar verliezen hun kracht in de chaos van het echte leven.

Technologie die leert luisteren zoals wij

Stel dat we het eens anders aanpakken. In plaats van het natuurlijke proces te proberen nabootsen, kunnen we ook vertrekken van het gewenste resultaat: het zenuwsignaal zoals een gezond oor dat zou doorgeven aan de hersenen. Dat betekent dat we niet alleen het inkomende geluid filteren, maar de elektrische stimulatie zó vormgeven dat de hersenen het ervaren als natuurlijk.

Klinkt ideaal, toch? Maar eenvoudig is het niet. Om dit te realiseren gebruiken we twee wiskundige modellen. Eén model dat beschrijft hoe geluid in een natuurlijk oor wordt omgezet en één model dat hetzelfde doet, maar dan voor een oor met een implantaat. Als je die twee naast elkaar legt, kan je het verschil zien. In een perfecte wereld zou het kunstmatig gecreëerde signaal identiek zijn aan dat van een normaal gehoor. Dat is vandaag nog niet het geval. Maar we weten nu wél wat het gewenste signaal is.

Kunnen we dan niet uit dat gewenste zenuwsignaal afleiden welke elektrische pulsen nodig zijn om het te bereiken? Daar stuiten we op een klassiek probleem: bij complexe wiskundige modellen is het vaak moeilijk om ze “om te draaien”. Je weet wat je wil bereiken, maar niet hoe je daar moet geraken. En hier komt artificiële intelligentie in beeld.

Kan AI het verschil maken?

AI, en meer specifiek convolutionele neurale netwerken, zijn bijzonder goed in het herkennen van patronen. Stel dat we een AI-model duizenden voorbeelden van de klank “oh” en het bijhorende zenuwsignaal geven. Na verloop van tijd leert het model welke klanken en elektrische pulsen nodig zijn om dat specifieke signaal te creëren. Zo kunnen we het model gebruiken in de andere richting: van gewenst hersensignaal naar de juiste elektrische stimulatie. Dat betekent dat we feedback kunnen geven aan het implantaat: “Pas je elektrische pulsen aan, zodat het klinkt zoals een normaal oor het zou horen.”

De toekomst klinkt beter

Het idee is er. Nu de uitvoering nog. Het eerste onderzoek naar dit concept is intussen gestart, en tijdens een masterproef werd het allereerste volledige prototype voor gehoorimplantaten opgesteld. Een eerste versie die het concept tastbaar maakt. Maar hier moeten we toch even teleurstellen: het systeem is nog lang niet gebruiksklaar.

Zoals je intussen wel hebt gemerkt, komen hier heel wat stappen bij kijken. We hebben betrouwbare digitale modellen nodig die het oor en de gehoorzenuw realistisch nabootsen. We hebben AI-systemen nodig die leren van de gehoorsignalen. En we hebben simulaties nodig die het hele principe in de praktijk testen. Toch is de richting duidelijk. De technologie beweegt, de inzichten groeien, en het idee van een implantaat dat beter aansluit bij ons gehoor komt langzaam binnen bereik.

Bibliografie

Abadi, M., Barham, P., Chen, J., Chen, Z., Davis, A., Dean, J., Devin, M., Ghemawat, S., Irving, G., Isard, M., Kudlur, M., Levenberg, J., Monga, R., Moore, S., Murray, D. G., Steiner, B., Tucker, P., Vasudevan, V., Warden, P., … Zheng, X. (2016). TensorFlow: a system for large-scale machine learning. 12th USENIX Symposium on Operating Systems Design and Implementation (OSDI 16), 265–283. https://www.usenix.org/conference/osdi16/technical-sessions/presentatio…

Altoè, A., Pulkki, V., & Verhulst, S. (2018). The effects of the activation of the inner-hair-cell basolateral K + channels on auditory nerve responses. Hearing Research, 364, 68–80. https://doi.org/10.1016/j.heares.2018.03.029

Appler, J. M., & Goodrich, L. v. (2011). Connecting the ear to the brain: Molecular mechanisms of auditory circuit assembly. In Progress in Neurobiology (Vol. 93, Issue 4, pp. 488–508). Elsevier. https://doi.org/10.1016/j.pneurobio.2011.01.004

Baby, D., Broucke, A. van den, & Verhulst, S. (2021). A convolutional neural-network model of human cochlear mechanics and filter tuning for real-time applications. Nature Machine Intelligence, 3(2), 134–143. https://doi.org/10.1038/s42256-020-00286-8

Bionics, A. (2009). A report from Advanced Bionics: HiRes Fidelity 120 Sound Processing. https://www.advancedbionics.com/content/dam/advancedbionics/Documents/R…

Boulet, J., White, M., & Bruce, I. C. (2016). Temporal Considerations for Stimulating Spiral Ganglion Neurons with Cochlear Implants. Journal of the Association for Research in Otolaryngology, 17(1), 1–17. https://doi.org/10.1007/s10162-015-0545-5

Bruce, I. C., White, M. W., Irlicht, L. S., O’Leary, S. J., Dynes, S., Javel, E., & Clark, G. M. (1999). A stochastic model of the electrically stimulated auditory nerve: single-pulse response. IEEE Transactions on Biomedical Engineering, 46(6), 617–629. https://doi.org/10.1109/10.764938

Budak, M., Grosh, K., Sasmal, A., Corfas, G., Zochowski, M., & Booth, V. (2021). Contrasting mechanisms for hidden hearing loss: Synaptopathy vs myelin defects. PLoS Computational Biology, 17(1). https://doi.org/10.1371/journal.pcbi.1008499

Carricondo, F., & Romero-Gómez, B. (2019). The Cochlear Spiral Ganglion Neurons: The Auditory Portion of the VIII Nerve. The Anatomical Record, 302(3), 463–471. https://doi.org/10.1002/ar.23815

Choi, C. T. M., & Lee, Y.-H. (2012). A Review of Stimulating Strategies for Cochlear Implants. In C. Umat (Ed.), Cochlear Implant Research Updates. IntechOpen. https://doi.org/10.5772/47983

Chollet, F. (2018). Keras: The Python Deep Learning library. In Astrophysics Source Code Library, record ascl:1806.022. https://ui.adsabs.harvard.edu/abs/2018ascl.soft06022C

CICS. (2024). What is a cochlear implant? https://www.cicsgroup.org.uk/cochlear-implants/

Donaldson, G. S., Kreft, H. A., & Litvak, L. (2005). Place-pitch discrimination of single- versus dual-electrode stimuli by cochlear implant users. The Journal of the Acoustical Society of America, 118(2), 623–626. https://doi.org/10.1121/1.1937362

Drakopoulos, F., Baby, D., & Verhulst, S. (2021). A convolutional neural-network framework for modelling auditory sensory cells and synapses. Communications Biology, 4(1), 827. https://doi.org/10.1038/s42003-021-02341-5

Drakopoulos, F., & Verhulst, S. (2023). A Neural-Network Framework for the Design of Individualised Hearing-Loss Compensation. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 31, 2395–2409. https://doi.org/10.48550/arXiv.2207.07091

Frank, T., Darina, K., Andreas, N., & Tobias, M. (2009). Mechanisms contributing to synaptic ca2 signals and their heterogeneity in hair cells. Proceedings of the National Academy of Sciences of the United States of America, 106(11), 4483–4488. https://doi.org/10.1073/pnas.0813213106

Gajecki, T., & Nogueira, W. (2022). An End-to-End Deep Learning Speech Coding and Denoising Strategy for Cochlear Implants. ICASSP, IEEE International Conference on Acoustics, Speech and Signal Processing, 2022-May, 3109–3113. https://doi.org/10.1109/ICASSP43922.2022.9746963

Gajecki, T., & Nogueira, W. (2024). A Fused Deep Denoising Sound Coding Strategy for Bilateral Cochlear Implants. IEEE Transactions on Biomedical Engineering, 71(7), 2232–2242. https://doi.org/10.1109/TBME.2024.3367530

Gajecki, T., Zhang, Y., & Nogueira, W. (2023). A Deep Denoising Sound Coding Strategy for Cochlear Implants. IEEE Transactions on Biomedical Engineering, 70(9), 2700–2709. https://doi.org/10.1109/TBME.2023.3262677

Garofolo, J. S., Lamel, L. F., Fisher, W. M., Fiscus, J. G., & Pallett, D. S. (1993). Darpa timit acoustic-phonetic continous speech corpus cd-rom. nist speech disc 1-1.1.

Gernster, W., Kistler, W. M., Naud, R., & Paninski, L. (2014). Neuronal Dynamics. In Neuronal dynamics: From single neurons to networks and models of cognition. . https://neuronaldynamics.epfl.ch/online/Ch2.html

Greenwood, D. D. (1990). A cochlear frequency-position function for several species—29 years later. The Journal of the Acoustical Society of America, 87(6), 2592–2605. https://doi.org/10.1121/1.399052

Hannon, T., & Samuels, H. (2023). Cochlear Implant Comparison chart. https://cochlearimplanthelp.com/wp-content/uploads/2023/10/cochlearimpl…

Heine, P. A. (2004). Anatomy of the ear. In Veterinary Clinics of North America - Small Animal Practice (Vol. 34, Issue 2, pp. 379–395). https://doi.org/10.1016/j.cvsm.2003.10.003

Hodgkin, A. L., & Huxley, A. F. (1952). A quantitative description of membrane current and its application to conduction and excitation in nerve. (Vol. 52). https://doi.org/10.1113/jphysiol.1952.sp004764

Institute, B. E. F. (2025). Sustainable Development Goals. https://www.sdgs.be/en

Johnson, S. L., & Marcotti, W. (2008). Biophysical properties of CaV1.3 calcium channels in gerbil inner hair cells. The Journal of Physiology, 586(4), 1029–1042. https://doi.org/10.1113/jphysiol.2007.145219

Joris, P. X., Bergevin, C., Kalluri, R., Laughlin, M. M., Michelet, P., Heijden, M. van der, & Shera, C. A. (2011). Frequency selectivity in Old-World monkeys corroborates sharp cochlear tuning in humans. Proceedings of the National Academy of Sciences of the United States of America, 108(42), 17516–17520. https://doi.org/10.1073/pnas.1105867108

Kingma, D. P., & Ba, J. (2014). Adam: A Method for Stochastic Optimization. https://doi.org/10.48550/arXiv.1412.6980

Kipping, D., Zhang, Y., & Nogueira, W. (2024). A Computational Model of the Electrically or Acoustically Evoked Compound Action Potential in Cochlear Implant Users With Residual Hearing. IEEE Transactions on Biomedical Engineering, 71(11), 3192–3203. https://doi.org/10.1109/TBME.2024.3410686

Koch, D. B., Osberger, M. J., Segel, P., & Kessler, D. (2004). HiResolution and Conventional  Sound Processing in the HiResolution Bionic Ear: Using Appropriate Outcome  Measures to Assess Speech Recognition Ability. Audiology and Neurotology, 9(4), 214–223. https://doi.org/10.1159/000078391

Lee, J. H., Delbruck, T., & Pfeiffer, M. (2016). Training deep spiking neural networks using backpropagation. Frontiers in Neuroscience, 10. https://doi.org/10.3389/fnins.2016.00508

Negm, M. H., & Bruce, I. C. (2014). The effects of HCN and KLT ion channels on adaptation and refractoriness in a stochastic auditory nerve model. IEEE Transactions on Biomedical Engineering, 61(11), 2749–2759. https://doi.org/10.1109/TBME.2014.2327055

NIDCD. (2022). How Do We Hear? In National Institute on Deafness and Other Communication Disorders. https://www.nidcd.nih.gov/health/how-do-we-hear

Nogueira, W., Litvak, L., Edler, B., Ostermann, J., & Büchner, A. (2009). Signal Processing Strategies for Cochlear Implants Using Current Steering. EURASIP Journal on Advances in Signal Processing, 2009(1), 531213. https://doi.org/10.1155/2009/531213

Ohn, T.-L., Rutherford, M. A., Jing, Z., Jung, S., Duque-Afonso, C. J., Hoch, G., Picher, M. M., Scharinger, A., Strenzke, N., & Moser, T. (2016). Hair cells use active zones with different voltage dependence of Ca2+ influx to decompose sounds into complementary neural codes. Proceedings of the National Academy of Sciences of the United States of America, 113(32), E4716–E4725. https://doi.org/10.1073/pnas.1605737113

Recugnat, M., Undurraga, J. A., & McAlpine, D. (2022). Spike-Rate Adaptation in a Computational Model of Human-Shaped Spiral Ganglion Neurons. IEEE Transactions on Biomedical Engineering, 69(2), 602–612. https://doi.org/10.1109/TBME.2021.3102129

Reid, M. A., Flores-Otero, J., & Davis, R. L. (2004). Firing Patterns of Type II Spiral Ganglion Neurons In Vitro. The Journal of Neuroscience, 24(3), 733–742. https://doi.org/10.1523/JNEUROSCI.3923-03.2004

Rosen, S., & Howell, P. (2011). Signals and Systems for Speech and Hearing. In Signals and Systems for Speech and Hearing (2nd ed., p. 163). Emerald.

Rutherford, M. A., Chapochnikov, N. M., & Moser, T. (2012). Spike Encoding of Neurotransmitter Release Timing by Spiral Ganglion Neurons of the Cochlea. The Journal of Neuroscience, 32(14), 4773–4789. https://doi.org/10.1523/JNEUROSCI.4511-11.2012

Shannon, R. v, Fu, Q.-J., & Iii, J. G. (2004). The number of spectral channels required for speech recognition depends on the difficulty of the listening situation. Acta Oto-Laryngologica (Supplement), 124.

Spoendlin, H. (1972). Innervation Densities of the Cochlea. Acta Oto-Laryngologica, 73(2–6), 235–248. https://doi.org/10.3109/00016487209138937

Strubell, E., Ganesh, A., & Mccallum, A. (2020, September). Energy and Policy Considerations for Modern Deep Learning Research. Proceedings of the AAAI Conference on Artificial Intelligence. https://doi.org/10.1609/aaai.v34i09.7123

Sun, C., Shrivastava, A., Singh, S., & Gupta, A. (2017). Revisiting Unreasonable Effectiveness of Data in Deep Learning Era. Revisiting Unreasonable Effectiveness of Data in Deep Learning Era, 843–852. http://arxiv.org/abs/1707.02968

Tobón, L. M. J., & Moser, T. (2023). Ca2+ regulation of glutamate release from inner hair cells of hearing mice. Proceedings of the National Academy of Sciences of the United States of America, 120(49). https://doi.org/10.1073/pnas.2311539120

Tobón, L. M. J., & Moser, T. (2024). Bridging the gap between presynaptic hair cell function and neural sound encoding. ELife, 12, RP93749. https://doi.org/10.7554/eLife.93749

Verhulst, S., Altoè, A., & Vasilkov, V. (2018). Computational modeling of the human auditory periphery: Auditory-nerve responses, evoked potentials and hearing loss. Hearing Research, 360, 55–75. https://doi.org/10.1016/j.heares.2017.12.018

Weisz, C., Glowatzki, E., & Fuchs, P. (2009). The postsynaptic function of type II cochlear afferents. Nature, 461, 1126–1129. https://doi.org/10.1038/nature08487

Wen, C., Torfs, G., & Verhulst, S. (2025). Artifact-free Sound Quality in DNN-based Closed-loop Systems for Audio Processing. https://doi.org/10.48550/arXiv.2501.04116

Wilson, B. S. (2004). Engineering Design of Cochlear Implants. In Cochlear Implants: Auditory Prostheses and Electric Hearing (pp. 14–52).

Wilson, B. S., Dorman, M. F., Gifford, R. H., & Tucci, D. L. (2024). Design and Best Uses of Cochlear Implants. In N. M. Young & K. I. Kirk (Eds.), Pediatric Cochlear Implantation: Learning and the Brain (pp. 3–74). Springer Nature Switzerland. https://doi.org/10.1007/978-3-031-67188-3_1

Wohlbauer, D. M., & Dillier, N. (2025). A Hundred Ways to Encode Sound Signals for Cochlear Implants. Annual Review of Biomedical Engineering, 27, 335–369. https://doi.org/10.1146/annurev-bioeng-102623

Yamazaki, K., Vo-Ho, V. K., Bulsara, D., & Le, N. (2022). Spiking Neural Networks and Their Applications: A Review. In Brain Sciences (Vol. 12, Issue 7). MDPI. https://doi.org/10.3390/brainsci12070863

Zeng, F.-G. (2022). Celebrating the one millionth cochlear implant. JASA Express Letters, 2(7), 77201. https://doi.org/10.1121/10.0012825

Download scriptie (12.93 KB)
Universiteit of Hogeschool
Universiteit Gent
Thesis jaar
2025
Promotor(en) en begeleiders
Sarah Verhulst, Guy Torfs