Listing 1 - 1 of 1 |
Sort by
|
Choose an application
Spraakverstaan is van essentieel belang voor de mondelinge communicatie. In audiologisch onderzoek is het daarom nodig om het spraakverstaan op een betrouwbare wijze te onderzoeken. Tot op heden zijn gedragsmatige methodes de gouden standaard in de klinische praktijk. Spraakaudiometrie of een spraak-in-ruistest wordt afgenomen bij de patiënt, die de aangeboden woorden of zinnen dient te herhalen. Deze testen zijn echter onderhevig aan aandacht, concentratie en motivatie. Daarnaast is dit een volledig auditieve methode, terwijl wij in een dagelijkse situatie eveneens gebruik maken van visuele cues, zoals mondbewegingen, mimiek of gebaren. Bovendien kan niet bij iedereen op een gedragsmatige wijze getest worden, denk maar aan jonge kinderen, personen met het locked-in syndroom of afasiepatiënten. In de eerste plaats is er dus nood aan een objectieve meetmethode waarbij de tussenkomst van de patiënt niet is vereist. Daarnaast moeten we streven naar een meting die een dagelijkse luistersituatie zo goed mogelijk nabootst. Deze masterproef kadert binnen een project dat neurale tracking en virtual reality (VR) combineert om spraakverstaan op een objectieve en ecologisch valide wijze te onderzoeken. Neurale tracking is een veelbelovende techniek waarbij hersengolven via elektro-encefalografie (EEG) gemeten worden tijdens de aanbieding van spraak. Hierbij wordt er gezocht naar een verband tussen een kenmerk van het spraaksignaal en de hersengolven. In dit geval tussen de ware en gereconstrueerde spraakenveloppe. Recent onderzoek maakt het mogelijk om VR toe te passen in de assessment van spraakverstaan. Zo introduceert het programma AVATAR visuele cues, zoals mondbewegingen, via virtueel personages. Wij rekruteerden voor deze thesis twintig normaalhorende, jongvolwassen personen met Nederlands als moedertaal. Het doel van dit onderzoek is het spraakverstaan onderzoeken in een ecologisch valide omgeving op gedragsmatige en objectieve wijze. LIST-zinnen werden aangeboden in babble noise waarbij afwisselend mondbewegingen werden getoond, uitgevoerd door het virtuele personage. Tijdens de gedragsmatige test werd een adaptieve procedure toegepast waarbij de deelnemers zinnen dienden te herhalen. De objectieve test betrof een EEG-meting met aanbieding van zinnen op vaste signaal-ruisverhoudingen (SNR). Wij onderzoeken het effect van mondbewegingen op gedragsmatig spraakverstaan en neurale tracking. Verder gaan we het interactie-effect na tussen mondbewegingen en het SNR-niveau op gedragsmatig en objectief niveau. Wij concluderen dat mondbewegingen leiden tot een significante daling in de spraakverstaanbaarheidsdrempel (SRT) met 2 dB. Eveneens zien we een significant positief effect op de neurale tracking. Het interactie-effect tussen mondbewegingen en SNR-niveau voor gedragsmatige spraak-in-ruis woordherkenning kon niet worden bevestigd. Wel stellen we in de resultaten van neurale tracking een groter aandeel van de mondbewegingen vast bij een dalende SNR. Een vergelijking van neurale tracking tussen SNR-niveaus onderling toont het effect van een gunstige SNR. Het effect van mondbewegingen kon bij deze vergelijkingen niet worden bevestigd. Toekomstig onderzoek kan zich verder toespitsen op uitbreiding van de steekproef en toevoeging van SNR-niveaus boven en onder de verstaanbaarheidsdrempel. Dit zal inzicht geven in het interactie-effect op gedragsmatig niveau. Ook biedt dit de kans om de gedragsmatige en objectieve resultaten te vergelijken.
Listing 1 - 1 of 1 |
Sort by
|