Forskning i lyd og kunstig intelligens til høretabsløsninger kan fortsætte

Forskning i lyd og kunstig intelligens til høretabsløsninger kan fortsætte

På forskningscenteret CASPR (Centre for Acoustic Signal Processing Research) på Aalborg Universitet forskes og undervises der i intelligent lydteknologi. Med fornyet støtte fra William Demant Fonden, Oticon A/S samt Aalborg Universitet fortsætter CASPR arbejdet med fokus på kunstig intelligens og lyd, som bl.a. skal forbedre livskvaliteten for mennesker med nedsat hørelse.

Camilla Klindt Thorup, presseansvarlig, Institut for Elektroniske Systemer

Hvor mennesker med normal hørelse for det meste kan forstå hinanden uden de store anstrengelser, når de kommunikerer i et støjfyldt miljø, er dette ofte en stor udfordring, hvis man har nedsat hørelse. Ved at anvende kunstig intelligens til fx kameraer og sensorer, bliver forskere hos CASPR på Aalborg Universitet (AAU) klogere på netop dette.

Med fornyet støtte sikres fortsættelsen af CASPR og forskningen vil være centreret omkring kommunikation i støjfyldte miljøer.

”Vi har fokus på kunstig intelligens og tekniske løsninger, der lærer om omgivelser, eksempelvis ved hjælp af input fra kameraer, mikrofoner, EEG eller andre sensorer”, siger Zheng-Hua Tan, professor, Institut for Elektroniske Systemer, AAU

Målet er at udvikle løsninger, som er i symbiose med slutbrugeren, det betyder fx at algoritmer ”ved”, hvilken lyd brugeren er interesseret i hvornår, således at brugeren oplever bedre og lettere taleforståelse.

”Vi ved, at kommunikation i støjfyldte miljøer er en stor udfordring for høreapparatbrugere. Derfor er forskning i løsninger, der afhjælper disse problemer af stor vigtighed. Vi skal udvikle løsninger, som gør arbejdet for brugeren – så høreapparatbrugeren får en bedre livskvalitet”, siger Zheng-Hua Tan

Kunstig intelligens forbedrer lydoplevelsen

Et af de projekter, der søger at forstå, hvordan vi kommunikerer i støjfyldte miljøer, er et ph.d.-projekt, der bygger på sociale kendetegn ved samtale. På baggrund såkaldte samtalemønstre er ph.d.-studerende Poul Hoang i gang med at udvikle en algoritme, der kan hjælpe høreapparatet med at adskille stemmer og sortere støj fra en samtale. Algoritmen udvikles på baggrund af en antagelse om, at høreapparatbrugeren og samtalepartneren skiftes til at tale. Når høreapparatbrugeren taler i en længere periode, kan man med stor sandsynlighed vurdere, at de andre stemmer, der eventuelt opfanges samtidig, ikke er samtalepartnerens og derfor uønskede. På denne måde kan den nye algoritme hjælpe med at identificere, hvilke dele af lydbilledet, der er uønskede og derfor bør undertrykkes, før den samlede lyd præsenteres for høreapparatbrugeren.

Socialt intelligente høreapparater

Ved at lære og forstå de sociale kendetegn i en samtale, kan man løse problemer for mennesker med nedsat hørelse. Forskere hos CASPR vil derfor også beskæftige sig med andre sociale mønstre, der har potentiale til at udvikle fremtidens høreapparater – fx synstyrede høreapparater. Her vil det være muligt at designe algoritmer, der benytter sig af sociale mønstre. Et eksempel er at forstærke lyd i den retning, som høreapparatbrugerens øjne er rettet imod, da der er tendens til, at vi kigger på samtalepartneren – særligt under samtale i støjfyldte miljøer.

”I fremtiden forestiller vi os høreapparater, der måler brugerens øjeretning via sensorer i høreapparatet og derefter er i stand til at forstærke lyde fra retninger, som øjnene ofte peger mod”, forklarer Jesper Jensen, professor, Institut for Elektroniske Systemer, AAU

Billeder kombineres med lyd

Samspillet mellem det visuelle og hørelsen er også et vigtigt interesseområde for CASPR og her forskes der i audiovisuel talerekonstruktion. Her handler det ikke om, hvor øjet kigger hen, men om hvad øjet opfanger. Baseret på kamerainput af samtalepartnerens ansigts- og mundbevægelser, er det lykkedes forskere at rekonstruere tabte, eller ekstremt støjfyldte dele af talesignalet. Ved hjælp af kameraer og automatisk mundaflæsning kan man altså forbedre forståelsen hos høreapparatbrugeren.

”Når vi kommunikerer bruger vi vores øjne til at navigere og finde ud af, hvor lydene kommer fra. Derfor er der et stort potentiale i at implementere kamera som en visuel informationskilde i fremtidens høreapparater”, siger Jesper Jensen

Løsninger der kan samarbejde

En del af centerets forskning har fokus på løsninger, der på samme måde som med det visuelle involverer andre input, som kan supplere mikrofonen. Et eksempel herpå er EEG-elektroder, der kan registrere hjernens elektriske impulser. Algoritmer, der er baseret på EEG-målinger kan udtale sig om, i hvor høj grad høreapparatbrugeren anstrenger sig for at lytte i en given situation.

”Ved hjælp af EEG-sensorer kan informationer om brugerens aktuelle lytteindsats løbende måles og derved inddrages i høreapparatets akustiske signalbehandling. Den lyd, som sendes fra høreapparatet og ind i øret er dermed optimeret således, at brugeren bruger mindst mulig energi på at forstå, hvad der bliver sagt.”, forklarer Jan Østergaard, professor, Institut for Elektroniske Systemer, AAU

Her samarbejder forskerne fra CASPR med forskere inden for sundhedsteknologi og målet er at udarbejde løsninger, som har udgangspunkt i, hvordan lyd opfattes i hjernen.

”Jo mere vi kan hjælpe brugeren til en god oplevelse, jo bedre. Her kan EEG-signalerne hjælpe, da de kan give informationer om, hvordan brugeren opfatter en given lydsituation. Fx kan EEG-signalerne afsløre om brugeren har fokus på talesignalerne i rummet eller evt. på musikken i baggrunden. Afhængig af præferencer kan musiksignalet dernæst forstærkes eller dæmpes i høreapparatet ”, forklarer Jan Østergaard

Fokus på uddannelse

En del af CASPRs mission er også at uddanne studerende på bachelor-, kandidat-, ph.d.- samt postdoc- niveau inden for kunstig intelligens og lyd.

”Lydområdet i Danmark er internationalt anerkendt for forskning, uddannelse, industri samt sundhedsvæsen og er desuden en dansk styrkeposition. Derfor er det vigtigt, at vi uddanner ingeniører og forskere, som kan indgå i og løfte udviklingen af fremtidens tekniske lydkoncepter”, siger Jan Østergaard

 

Fakta

Foruden Oticon A/S er CASPR et samarbejde mellem Aalborg Universitet, RTX A/S, B&O A/S og Eriksholm Research Center.

Forlængelsen af centeret er støttet af William Demant Fonden, Oticon A/S samt Aalborg Universitet. Det samlede budget er på ca. 21 millioner DKK og dækker en periode på fem år.

CASPR-centeret er forankret i sektionen for Artificial Intelligence and Sound på Institut for Elektroniske Systemer, Aalborg Universitet.

CASPR-centeret ledes af AAU-professor Jan Østergaard og lederteamet består derudover også af AAU-professorer Zheng-Hua Tan og Jesper Jensen.

 

Kontakt

Jan Østergaard, professor og daglig leder af CASPR samt leder af sektionen for Artificial Intelligence and Sound på Institut for Elektroniske Systemer, Aalborg Universitet

jo@es.aau.dk

Jesper Jensen, Oticon A/S, professor, Institut for Elektroniske Systemer, Aalborg Universitet

jje@es.aau.dk

Zheng-Hua, professor, Institut for Elektroniske Systemer, Aalborg Universitet

zt@es.aau.dk

All news

See the list