Horen lijkt vanzelfsprekend, tot je het verliest. Voor meer dan een miljoen mensen wereldwijd bieden gehoorimplantaten een tweede kans om de wereld van geluid opnieuw te ontdekken. Stel je voor dat je na jaren stilte eindelijk weer geluiden kan oppikken. Je hoort stemmen, muziek, het ruisen van de wind. Maar toch… het klinkt anders. Je gehoor is verbeterd, maar niet “normaal”. Een muziekconcert voelt vlak, gesprekken in drukke ruimtes blijven een uitdaging.
Wat als we met behulp van artificiële intelligentie je nieuwe, kunstmatige oor zó kunnen afstemmen dat het hoort zoals wij dat van nature doen?
Een wonder van techniek, maar nog niet perfect
Een gehoorimplantaat, ook wel een cochleair implantaat genoemd, is een van de meest indrukwekkende medische uitvindingen van de voorbije decennia. In tegenstelling tot een klassiek hoorapparaat, dat geluid enkel versterkt, zet een implantaat geluidsgolven om in elektrische signalen die rechtstreeks de gehoorzenuw stimuleren. Zo kunnen mensen met gehoorschade diep in het oor toch opnieuw geluid waarnemen. Voor velen voelt dit als een wonder.
Toch is het verhaal niet helemaal rooskleurig. Tot op zekere hoogte lukt het om met signaalverwerkingstechnieken de onderliggende fysische processen in het oor te modelleren. Zo kan het implantaat die vervangen in een beschadigd oor. Maar net als de rest van ons lichaam is het oor complex. Héél complex. Het resultaat? Geluid dat wel verstaanbaar is, maar vaak vlak en onnatuurlijk klinkt. Ingenieurs hebben al verschillende strategieën ontwikkeld om de prestaties van implantaten te verbeteren. Denk aan algoritmes die achtergrondgeluid onderdrukken of spraak versterken. Die werken vaak goed in gecontroleerde omstandigheden, maar verliezen hun kracht in de chaos van het echte leven.
Technologie die leert luisteren zoals wij
Stel dat we het eens anders aanpakken. In plaats van het natuurlijke proces te proberen nabootsen, kunnen we ook vertrekken van het gewenste resultaat: het zenuwsignaal zoals een gezond oor dat zou doorgeven aan de hersenen. Dat betekent dat we niet alleen het inkomende geluid filteren, maar de elektrische stimulatie zó vormgeven dat de hersenen het ervaren als natuurlijk.
Klinkt ideaal, toch? Maar eenvoudig is het niet. Om dit te realiseren gebruiken we twee wiskundige modellen. Eén model dat beschrijft hoe geluid in een natuurlijk oor wordt omgezet en één model dat hetzelfde doet, maar dan voor een oor met een implantaat. Als je die twee naast elkaar legt, kan je het verschil zien. In een perfecte wereld zou het kunstmatig gecreëerde signaal identiek zijn aan dat van een normaal gehoor. Dat is vandaag nog niet het geval. Maar we weten nu wél wat het gewenste signaal is.
Kunnen we dan niet uit dat gewenste zenuwsignaal afleiden welke elektrische pulsen nodig zijn om het te bereiken? Daar stuiten we op een klassiek probleem: bij complexe wiskundige modellen is het vaak moeilijk om ze “om te draaien”. Je weet wat je wil bereiken, maar niet hoe je daar moet geraken. En hier komt artificiële intelligentie in beeld.
Kan AI het verschil maken?
AI, en meer specifiek convolutionele neurale netwerken, zijn bijzonder goed in het herkennen van patronen. Stel dat we een AI-model duizenden voorbeelden van de klank “oh” en het bijhorende zenuwsignaal geven. Na verloop van tijd leert het model welke klanken en elektrische pulsen nodig zijn om dat specifieke signaal te creëren. Zo kunnen we het model gebruiken in de andere richting: van gewenst hersensignaal naar de juiste elektrische stimulatie. Dat betekent dat we feedback kunnen geven aan het implantaat: “Pas je elektrische pulsen aan, zodat het klinkt zoals een normaal oor het zou horen.”
De toekomst klinkt beter
Het idee is er. Nu de uitvoering nog. Het eerste onderzoek naar dit concept is intussen gestart, en tijdens een masterproef werd het allereerste volledige prototype voor gehoorimplantaten opgesteld. Een eerste versie die het concept tastbaar maakt. Maar hier moeten we toch even teleurstellen: het systeem is nog lang niet gebruiksklaar.
Zoals je intussen wel hebt gemerkt, komen hier heel wat stappen bij kijken. We hebben betrouwbare digitale modellen nodig die het oor en de gehoorzenuw realistisch nabootsen. We hebben AI-systemen nodig die leren van de gehoorsignalen. En we hebben simulaties nodig die het hele principe in de praktijk testen. Toch is de richting duidelijk. De technologie beweegt, de inzichten groeien, en het idee van een implantaat dat beter aansluit bij ons gehoor komt langzaam binnen bereik.
Abadi, M., Barham, P., Chen, J., Chen, Z., Davis, A., Dean, J., Devin, M., Ghemawat, S., Irving, G., Isard, M., Kudlur, M., Levenberg, J., Monga, R., Moore, S., Murray, D. G., Steiner, B., Tucker, P., Vasudevan, V., Warden, P., … Zheng, X. (2016). TensorFlow: a system for large-scale machine learning. 12th USENIX Symposium on Operating Systems Design and Implementation (OSDI 16), 265–283. https://www.usenix.org/conference/osdi16/technical-sessions/presentatio…
Altoè, A., Pulkki, V., & Verhulst, S. (2018). The effects of the activation of the inner-hair-cell basolateral K + channels on auditory nerve responses. Hearing Research, 364, 68–80. https://doi.org/10.1016/j.heares.2018.03.029
Appler, J. M., & Goodrich, L. v. (2011). Connecting the ear to the brain: Molecular mechanisms of auditory circuit assembly. In Progress in Neurobiology (Vol. 93, Issue 4, pp. 488–508). Elsevier. https://doi.org/10.1016/j.pneurobio.2011.01.004
Baby, D., Broucke, A. van den, & Verhulst, S. (2021). A convolutional neural-network model of human cochlear mechanics and filter tuning for real-time applications. Nature Machine Intelligence, 3(2), 134–143. https://doi.org/10.1038/s42256-020-00286-8
Bionics, A. (2009). A report from Advanced Bionics: HiRes Fidelity 120 Sound Processing. https://www.advancedbionics.com/content/dam/advancedbionics/Documents/R…
Boulet, J., White, M., & Bruce, I. C. (2016). Temporal Considerations for Stimulating Spiral Ganglion Neurons with Cochlear Implants. Journal of the Association for Research in Otolaryngology, 17(1), 1–17. https://doi.org/10.1007/s10162-015-0545-5
Bruce, I. C., White, M. W., Irlicht, L. S., O’Leary, S. J., Dynes, S., Javel, E., & Clark, G. M. (1999). A stochastic model of the electrically stimulated auditory nerve: single-pulse response. IEEE Transactions on Biomedical Engineering, 46(6), 617–629. https://doi.org/10.1109/10.764938
Budak, M., Grosh, K., Sasmal, A., Corfas, G., Zochowski, M., & Booth, V. (2021). Contrasting mechanisms for hidden hearing loss: Synaptopathy vs myelin defects. PLoS Computational Biology, 17(1). https://doi.org/10.1371/journal.pcbi.1008499
Carricondo, F., & Romero-Gómez, B. (2019). The Cochlear Spiral Ganglion Neurons: The Auditory Portion of the VIII Nerve. The Anatomical Record, 302(3), 463–471. https://doi.org/10.1002/ar.23815
Choi, C. T. M., & Lee, Y.-H. (2012). A Review of Stimulating Strategies for Cochlear Implants. In C. Umat (Ed.), Cochlear Implant Research Updates. IntechOpen. https://doi.org/10.5772/47983
Chollet, F. (2018). Keras: The Python Deep Learning library. In Astrophysics Source Code Library, record ascl:1806.022. https://ui.adsabs.harvard.edu/abs/2018ascl.soft06022C
CICS. (2024). What is a cochlear implant? https://www.cicsgroup.org.uk/cochlear-implants/
Donaldson, G. S., Kreft, H. A., & Litvak, L. (2005). Place-pitch discrimination of single- versus dual-electrode stimuli by cochlear implant users. The Journal of the Acoustical Society of America, 118(2), 623–626. https://doi.org/10.1121/1.1937362
Drakopoulos, F., Baby, D., & Verhulst, S. (2021). A convolutional neural-network framework for modelling auditory sensory cells and synapses. Communications Biology, 4(1), 827. https://doi.org/10.1038/s42003-021-02341-5
Drakopoulos, F., & Verhulst, S. (2023). A Neural-Network Framework for the Design of Individualised Hearing-Loss Compensation. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 31, 2395–2409. https://doi.org/10.48550/arXiv.2207.07091
Frank, T., Darina, K., Andreas, N., & Tobias, M. (2009). Mechanisms contributing to synaptic ca2 signals and their heterogeneity in hair cells. Proceedings of the National Academy of Sciences of the United States of America, 106(11), 4483–4488. https://doi.org/10.1073/pnas.0813213106
Gajecki, T., & Nogueira, W. (2022). An End-to-End Deep Learning Speech Coding and Denoising Strategy for Cochlear Implants. ICASSP, IEEE International Conference on Acoustics, Speech and Signal Processing, 2022-May, 3109–3113. https://doi.org/10.1109/ICASSP43922.2022.9746963
Gajecki, T., & Nogueira, W. (2024). A Fused Deep Denoising Sound Coding Strategy for Bilateral Cochlear Implants. IEEE Transactions on Biomedical Engineering, 71(7), 2232–2242. https://doi.org/10.1109/TBME.2024.3367530
Gajecki, T., Zhang, Y., & Nogueira, W. (2023). A Deep Denoising Sound Coding Strategy for Cochlear Implants. IEEE Transactions on Biomedical Engineering, 70(9), 2700–2709. https://doi.org/10.1109/TBME.2023.3262677
Garofolo, J. S., Lamel, L. F., Fisher, W. M., Fiscus, J. G., & Pallett, D. S. (1993). Darpa timit acoustic-phonetic continous speech corpus cd-rom. nist speech disc 1-1.1.
Gernster, W., Kistler, W. M., Naud, R., & Paninski, L. (2014). Neuronal Dynamics. In Neuronal dynamics: From single neurons to networks and models of cognition. . https://neuronaldynamics.epfl.ch/online/Ch2.html
Greenwood, D. D. (1990). A cochlear frequency-position function for several species—29 years later. The Journal of the Acoustical Society of America, 87(6), 2592–2605. https://doi.org/10.1121/1.399052
Hannon, T., & Samuels, H. (2023). Cochlear Implant Comparison chart. https://cochlearimplanthelp.com/wp-content/uploads/2023/10/cochlearimpl…
Heine, P. A. (2004). Anatomy of the ear. In Veterinary Clinics of North America - Small Animal Practice (Vol. 34, Issue 2, pp. 379–395). https://doi.org/10.1016/j.cvsm.2003.10.003
Hodgkin, A. L., & Huxley, A. F. (1952). A quantitative description of membrane current and its application to conduction and excitation in nerve. (Vol. 52). https://doi.org/10.1113/jphysiol.1952.sp004764
Institute, B. E. F. (2025). Sustainable Development Goals. https://www.sdgs.be/en
Johnson, S. L., & Marcotti, W. (2008). Biophysical properties of CaV1.3 calcium channels in gerbil inner hair cells. The Journal of Physiology, 586(4), 1029–1042. https://doi.org/10.1113/jphysiol.2007.145219
Joris, P. X., Bergevin, C., Kalluri, R., Laughlin, M. M., Michelet, P., Heijden, M. van der, & Shera, C. A. (2011). Frequency selectivity in Old-World monkeys corroborates sharp cochlear tuning in humans. Proceedings of the National Academy of Sciences of the United States of America, 108(42), 17516–17520. https://doi.org/10.1073/pnas.1105867108
Kingma, D. P., & Ba, J. (2014). Adam: A Method for Stochastic Optimization. https://doi.org/10.48550/arXiv.1412.6980
Kipping, D., Zhang, Y., & Nogueira, W. (2024). A Computational Model of the Electrically or Acoustically Evoked Compound Action Potential in Cochlear Implant Users With Residual Hearing. IEEE Transactions on Biomedical Engineering, 71(11), 3192–3203. https://doi.org/10.1109/TBME.2024.3410686
Koch, D. B., Osberger, M. J., Segel, P., & Kessler, D. (2004). HiResolution and Conventional Sound Processing in the HiResolution Bionic Ear: Using Appropriate Outcome Measures to Assess Speech Recognition Ability. Audiology and Neurotology, 9(4), 214–223. https://doi.org/10.1159/000078391
Lee, J. H., Delbruck, T., & Pfeiffer, M. (2016). Training deep spiking neural networks using backpropagation. Frontiers in Neuroscience, 10. https://doi.org/10.3389/fnins.2016.00508
Negm, M. H., & Bruce, I. C. (2014). The effects of HCN and KLT ion channels on adaptation and refractoriness in a stochastic auditory nerve model. IEEE Transactions on Biomedical Engineering, 61(11), 2749–2759. https://doi.org/10.1109/TBME.2014.2327055
NIDCD. (2022). How Do We Hear? In National Institute on Deafness and Other Communication Disorders. https://www.nidcd.nih.gov/health/how-do-we-hear
Nogueira, W., Litvak, L., Edler, B., Ostermann, J., & Büchner, A. (2009). Signal Processing Strategies for Cochlear Implants Using Current Steering. EURASIP Journal on Advances in Signal Processing, 2009(1), 531213. https://doi.org/10.1155/2009/531213
Ohn, T.-L., Rutherford, M. A., Jing, Z., Jung, S., Duque-Afonso, C. J., Hoch, G., Picher, M. M., Scharinger, A., Strenzke, N., & Moser, T. (2016). Hair cells use active zones with different voltage dependence of Ca2+ influx to decompose sounds into complementary neural codes. Proceedings of the National Academy of Sciences of the United States of America, 113(32), E4716–E4725. https://doi.org/10.1073/pnas.1605737113
Recugnat, M., Undurraga, J. A., & McAlpine, D. (2022). Spike-Rate Adaptation in a Computational Model of Human-Shaped Spiral Ganglion Neurons. IEEE Transactions on Biomedical Engineering, 69(2), 602–612. https://doi.org/10.1109/TBME.2021.3102129
Reid, M. A., Flores-Otero, J., & Davis, R. L. (2004). Firing Patterns of Type II Spiral Ganglion Neurons In Vitro. The Journal of Neuroscience, 24(3), 733–742. https://doi.org/10.1523/JNEUROSCI.3923-03.2004
Rosen, S., & Howell, P. (2011). Signals and Systems for Speech and Hearing. In Signals and Systems for Speech and Hearing (2nd ed., p. 163). Emerald.
Rutherford, M. A., Chapochnikov, N. M., & Moser, T. (2012). Spike Encoding of Neurotransmitter Release Timing by Spiral Ganglion Neurons of the Cochlea. The Journal of Neuroscience, 32(14), 4773–4789. https://doi.org/10.1523/JNEUROSCI.4511-11.2012
Shannon, R. v, Fu, Q.-J., & Iii, J. G. (2004). The number of spectral channels required for speech recognition depends on the difficulty of the listening situation. Acta Oto-Laryngologica (Supplement), 124.
Spoendlin, H. (1972). Innervation Densities of the Cochlea. Acta Oto-Laryngologica, 73(2–6), 235–248. https://doi.org/10.3109/00016487209138937
Strubell, E., Ganesh, A., & Mccallum, A. (2020, September). Energy and Policy Considerations for Modern Deep Learning Research. Proceedings of the AAAI Conference on Artificial Intelligence. https://doi.org/10.1609/aaai.v34i09.7123
Sun, C., Shrivastava, A., Singh, S., & Gupta, A. (2017). Revisiting Unreasonable Effectiveness of Data in Deep Learning Era. Revisiting Unreasonable Effectiveness of Data in Deep Learning Era, 843–852. http://arxiv.org/abs/1707.02968
Tobón, L. M. J., & Moser, T. (2023). Ca2+ regulation of glutamate release from inner hair cells of hearing mice. Proceedings of the National Academy of Sciences of the United States of America, 120(49). https://doi.org/10.1073/pnas.2311539120
Tobón, L. M. J., & Moser, T. (2024). Bridging the gap between presynaptic hair cell function and neural sound encoding. ELife, 12, RP93749. https://doi.org/10.7554/eLife.93749
Verhulst, S., Altoè, A., & Vasilkov, V. (2018). Computational modeling of the human auditory periphery: Auditory-nerve responses, evoked potentials and hearing loss. Hearing Research, 360, 55–75. https://doi.org/10.1016/j.heares.2017.12.018
Weisz, C., Glowatzki, E., & Fuchs, P. (2009). The postsynaptic function of type II cochlear afferents. Nature, 461, 1126–1129. https://doi.org/10.1038/nature08487
Wen, C., Torfs, G., & Verhulst, S. (2025). Artifact-free Sound Quality in DNN-based Closed-loop Systems for Audio Processing. https://doi.org/10.48550/arXiv.2501.04116
Wilson, B. S. (2004). Engineering Design of Cochlear Implants. In Cochlear Implants: Auditory Prostheses and Electric Hearing (pp. 14–52).
Wilson, B. S., Dorman, M. F., Gifford, R. H., & Tucci, D. L. (2024). Design and Best Uses of Cochlear Implants. In N. M. Young & K. I. Kirk (Eds.), Pediatric Cochlear Implantation: Learning and the Brain (pp. 3–74). Springer Nature Switzerland. https://doi.org/10.1007/978-3-031-67188-3_1
Wohlbauer, D. M., & Dillier, N. (2025). A Hundred Ways to Encode Sound Signals for Cochlear Implants. Annual Review of Biomedical Engineering, 27, 335–369. https://doi.org/10.1146/annurev-bioeng-102623
Yamazaki, K., Vo-Ho, V. K., Bulsara, D., & Le, N. (2022). Spiking Neural Networks and Their Applications: A Review. In Brain Sciences (Vol. 12, Issue 7). MDPI. https://doi.org/10.3390/brainsci12070863
Zeng, F.-G. (2022). Celebrating the one millionth cochlear implant. JASA Express Letters, 2(7), 77201. https://doi.org/10.1121/10.0012825