Een hoorapparaat dat weet wat je wil horen… en het is je brein dat het vertelt

Stijn
Proesmans

 

Heb je op een feestje wel eens moeite om je gesprekspartner te verstaan? Na enkele keren vragen om te herhalen, knik je dan maar ja of lach je eens, in de hoop dat de situatie niet te gênant wordt. Technologie die in ontwikkeling is aan de onderzoeksgroep STADIUS aan de KU Leuven zou hier in de toekomst wel eens een oplossing voor kunnen bieden.

The Cocktail Party Problem

Ons brein heeft de opmerkelijke capaciteit om op één spreker te kunnen focussen, in een omgeving van meerdere sprekers. Eén grote warmoes van geluid en informatie bereikt onze oren en toch is ons brein in staat de informatie van één geluidsbron eruit te filteren. Het is nog altijd niet volledig duidelijk hoe ons brein dit complex luisterprobleem oplost, wat in 1953 werd beschreven als the Cocktail Party Problem door neuroloog Colin Cherry.

Gehoorproblemen

Toch zijn er situaties waarin je brein het moeilijk heeft. Er is dan bijvoorbeeld te veel gelijkaardig achtergrondgeluid of je hebt moeite je te concentreren op één verhaal. Daarnaast is het mogelijk dat je gehoor doorheen de jaren al wat is achteruitgegaan. Eén van de grootste klachten bij patiënten met gehoorverlies is inderdaad het niet kunnen verstaan van spraak in de aanwezigheid van achtergrondgeluid of ruis. Het probleem zit hem niet in het horen, maar in het luisteren. Een klassiek hoorapparaat dat alle geluiden in de ruimte versterkt, biedt in dat geval geen oplossing. Modernere hoorapparaten die ruis kunnen onderscheiden van spraak, of deze die enkel de geluidsbronnen binnen het  gezichtsveld versterken (“directionele hoorapparaten”), zijn dan weer niet geschikt voor een omgeving met meerdere sprekers op korte afstand.

Idealiter zou het hoorapparaat te weten komen waarnaar je wil luisteren om dan enkel dié geluidsbron te versterken. Dit is exact wat men probeert te achterhalen in het onderzoeksdomein van de auditieve aandachtsdetectie (AAD).

Detecteren van je auditieve aandacht (“waar je naar wil luisteren”)

In auditieve aandachtsdetectie meet men je hersenactiviteit om te achterhalen naar welke geluidsbron je luistert; aan welke bron je je auditieve aandacht schenkt. De elektrische activiteit van de hersenen wordt gemeten via elektrodes. Die kunnen intern onder de schedel zijn aangebracht of kunnen zich bevinden in een headset die op de schedel wordt vastgedrukt. Een computer is dan in staat deze hersensignalen te interpreteren en te achterhalen naar welke geluidsbron je luistert. Deze informatie wordt doorgespeeld aan het hoorapparaat dat uiteindelijk de juiste spreker versterkt en het achtergrondgeluid verzwakt.

Recent onderzoek heeft uitgewezen dat, in een omgeving met twee sprekers, de juiste spreker kan worden gedetecteerd in 80% tot 90% van de gevallen. Subjecten werden blootgesteld aan het geluid van twee verschillende sprekers die tegelijkertijd hun eigen verhaal vertelden. De subjecten luisterden naar één van beide sprekers terwijl hun hersenactiviteit werd gemeten. De strategie die werd toegepast is die van de stimulus-reconstructie: o.b.v. de gemeten hersensignalen werd een spraaksignaal gereconstrueerd, dat werd vergeleken met de twee spraaksignalen waaraan het subject werd blootgesteld. Wat bleek is dat deze reconstructie typisch meer leek op het spraaksignaal waarnaar de aandacht ging, dan op het spraaksignaal dat werd genegeerd. De spraak van de persoon waarnaar geluisterd wordt is dus dominant aanwezig in het brein.

Alvorens deze technologie kan gebruikt worden in het dagelijks leven zijn er evenwel nog een aantal verbeteringen nodig. Zo werden de hersensignalen gemeten met een headset van 128 elektrodes en had de computer een meettijd van 60 seconden nodig om een beslissing te maken. Bovendien werden de experimenten uitgevoerd in een gecontroleerde labo-omgeving zonder kans op afleiding van onverwachte visuele en/of auditieve bronnen. Voor praktische doeleinden zouden zowel het aantal elektrodes als de beslissingstijd gereduceerd moeten worden.  

In onze studie, getiteld “EEG-based Auditory Attention Detection with Neurofeedback Training at Home”, bouwden we verder op de bestaande ontwikkelingen in auditieve aandachtsdetectie. We slaagden erin de beslissingstijd van het systeem te reduceren tot 10 seconden, terwijl de accuraatheid rond de 80% bleef. Hersenactiviteit werd gemeten met een headset van slechts 24 elektrodes, die gemakkelijk in een kap, muts of pet kan verwerkt worden. Bovendien vonden de metingen plaats bij het subject thuis – een realistische omgeving waar afleiding van onverwachte visuele en/of auditieve bronnen mogelijk is.

Verder stelden we vast dat de accuraatheid van het systeem afhankelijk was van het subject dat gemeten werd. Ieders brein is anders en bepaalde factoren zoals schedeldikte, ouderdom en attentieproblemen kunnen een invloed hebben op het gemak waarmee de computer de hersensignalen kan interpreteren. In ons onderzoek gingen we na of men getraind kan worden om duidelijkere hersensignalen te genereren. Eén subject kreeg visuele feedback over de accuraatheid van de detectie; het ander subject niet. De visuele feedback leek de accuraatheid te verhogen, waarmee we dus konden aantonen dat niet enkel de technologie moet verbeteren, maar ook de subjecten getraind moeten worden om beter te leren werken met de technologie.

Onze studie geeft een volledig overzicht van de meest recente ontwikkelingen in het domein van de auditieve aandachtsdetectie. Daarnaast maken we een grote sprong richting de toepassing van deze technologie in het dagelijks leven. Zo kan er uitgekeken worden naar de dag waarop je enkel hoort wat je wil horen.

Download scriptie (4.06 MB)
Universiteit of Hogeschool
KU Leuven
Thesis jaar
2017
Promotor(en)
Prof.dr.ir. Sabine Van Huffel