20
Sprachwahrnehmung und Sprachaudiometrie 153 VI.Sprachwahrnehmung und Sprach- audiometrie VI.1 Grundlagen der Sprachwahrnehmung Die sprachliche Kommunikation zwischen Menschen ist eine hochspezialisierte und faszinierende Leistung, die letztendlich die Grundlage unserer Kultur darstellt. Um die beim Verstehen von Sprache (und ihrer möglichen Störungen) beteiligten Prozesse verstehen zu können, muß der gesamte Übertragungsweg vom Sender (sprechender Mensch) über die akustische Darstellung von Sprache bis zum Empfänger (hörender Mensch) genau betrachtet werden. VI.1.1 Sprachproduktion Im Gehirn des Sprechers werden die Sprachlaute als Steuersequenzen erzeugt, die die akustische Sprachproduktion steuern. Durch den Atem- Luftstrom wird dabei eine periodische Schwingung der Stimmlippen angeregt oder (bei Reibelauten) ein Strömungsgeräusch an der engsten Stelle des Vokaltraktes. Der dabei jeweils erzeugte Schall wird anschließend je nach Stellung der Artikulationsorgane (Zunge, Gaumen, Kiefer, Lippen) im Vokaltrakt verformt („gefiltert“). Man spricht daher von einer „akustischen Filterung“ des von der Schallquelle abgestrahlten Schalls durch die sich zeitlich ändernden Hohlräume des Vokaltraktes (vgl. Abb. 6.1). Der auf diese Weise geformte Schall wird vom Mund in die umgebende Luft abgestrahlt und breitet sich bis zum Ohr des Empfängers fort. Der Empfänger versucht nun, aus dem empfangenem akustischen Signal auf die ursprünglich gesendete Botschaft zu schließen. Dabei benutzt er seine Kenntnisse über die Filterwirkung des Vokaltraktes auf das jeweilige akustische Signal, so daß der Empfänger aus dem akustischen Signal auf die zugrundeliegende Stellung des Vokaltraktes und damit auf die vom Sender eigentlich gemeinten Sprachelemente zurückschließen kann.

VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

Embed Size (px)

Citation preview

Page 1: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

Sprachwahrnehmung und Sprachaudiometrie 153

VI. Sprachwahrnehmung und Sprach-audiometrie

VI.1 Grundlagen der SprachwahrnehmungDie sprachliche Kommunikation zwischen Menschen ist einehochspezialisierte und faszinierende Leistung, die letztendlich dieGrundlage unserer Kultur darstellt. Um die beim Verstehen von Sprache(und ihrer möglichen Störungen) beteiligten Prozesse verstehen zukönnen, muß der gesamte Übertragungsweg vom Sender (sprechenderMensch) über die akustische Darstellung von Sprache bis zum Empfänger(hörender Mensch) genau betrachtet werden.

VI.1.1 SprachproduktionIm Gehirn des Sprechers werden die Sprachlaute als Steuersequenzenerzeugt, die die akustische Sprachproduktion steuern. Durch den Atem-Luftstrom wird dabei eine periodische Schwingung der Stimmlippenangeregt oder (bei Reibelauten) ein Strömungsgeräusch an der engstenStelle des Vokaltraktes. Der dabei jeweils erzeugte Schall wirdanschließend je nach Stellung der Artikulationsorgane (Zunge, Gaumen,Kiefer, Lippen) im Vokaltrakt verformt („gefiltert“). Man spricht daher voneiner „akustischen Filterung“ des von der Schallquelle abgestrahltenSchalls durch die sich zeitlich ändernden Hohlräume des Vokaltraktes(vgl. Abb. 6.1). Der auf diese Weise geformte Schall wird vom Mund in dieumgebende Luft abgestrahlt und breitet sich bis zum Ohr des Empfängersfort. Der Empfänger versucht nun, aus dem empfangenem akustischenSignal auf die ursprünglich gesendete Botschaft zu schließen. Dabeibenutzt er seine Kenntnisse über die Filterwirkung des Vokaltraktes aufdas jeweilige akustische Signal, so daß der Empfänger aus demakustischen Signal auf die zugrundeliegende Stellung des Vokaltraktesund damit auf die vom Sender eigentlich gemeinten Sprachelementezurückschließen kann.

Page 2: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

154 Sprachwahrnehmung und Sprachaudiometrie

Abbildung 6.1: Vokaltrakt im Querschnitt (schematisch) (aus Kießling, J., Kollmeier, B.,Diller, G.: Versorgung und Rehabilitation mit Hörgeräten. Thieme Verlag,Stuttgart 1997)

Die Beziehung zwischen den abstrakten, idealisierten sprachlichenElementen (den Phonemen) und den zugehörigen akustischenRealisierungen (den Lauten) wird von der Akustischen Phonetikuntersucht. Ein Phonem ist dabei die kleinste bedeutungsunterscheidendelautliche Einheit. Ein Beispiel dafür wäre die Umsetzung des Wortes„Sinn“ in [ z ],[ Ι ], [ n ]. Bei der akustischen Realisierung der Phoneme alsLaute tritt eine große Variationsbreite auf, da z. B. der Dialekt desSprechers oder der Kontext einen Einfluß auf die Art der akustischenRealisierung hat. Selbst bei demselben Sprecher und denselbenRandbedingungen können unterschiedliche lautliche Realisierungen einesbestimmten Phonems auftreten. Zu einem (abstrakten) Phonem gehörtalso eine Vielzahl von akustisch realisierten Lauten. Diese Laute könnenaufgrund von akustisch Eigenschaften unterschieden werden (s. 6.2) oderaufgrund von artikulatorischen Merkmalen, d. h. Spracheigenschaften, dieaufgrund der Produktion der jeweiligen Sprachelemente festgelegt werdenkönnen. Das Auffinden von derartigen Sprachmerkmalen und dieKlassifikation eines jeden Phonems mit diesen Sprachmerkmalen istinsbesondere für die Beurteilung von Phonem-Verwechslungen wichtig.Systematische Verwechslungen bei der Sprachwahrnehmung tretenbeispielsweise aufgrund eines fehlerhaften Empfangs bestimmter

Page 3: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

Sprachwahrnehmung und Sprachaudiometrie 155

Sprachmerkmale auf.

Voraussetzung für die systematische Untersuchung derartigerPhonemverwechslungen ist ein geeignetes, die Sprache möglichst gutbeschreibendes System von Sprachmerkmalen. Das Auffinden einesgeeigneten Merkmalssystems erweist sich als äußerst schwierig. In derLiteratur werden unterschiedliche Systeme verwendet, die vorwiegend aufder englischen Sprache basiert sind. Grundlagen für die am häufigstenverwendeten Typen von Merkmalssystemen ist das von Jakobsen et al.(1951) entwickelte „Distinctive-Feature-System“ (distinktiveSprachmerkmale für die englische Sprache). Dabei werden die Merkmaleaus den Stellungen des Mund-Rachen-Raumes bei der Artikulation derjeweiligen Phoneme abgeleitet. Einem Merkmal entspricht dabeibeispielsweise das Vorhandensein bzw. die Abwesenheit einer Anregungder Stimmbänder oder das Ausmaß der Deformation des Vokaltraktes ausseiner Ruhelage. Da es für jedes Phonem eine verhältnismäßig genauangebbare Kombination von Hals-, Zungen- und Lippenstellungen gibtund sich alle artikulierbaren Laute aus diesen Stellungen und der Atmungableiten lassen, garantiert diese Definition die Eindeutigkeit und dieVollständigkeit der Darstellung. Eine weitere Eigenschaft der distinktivenMerkmale ist ihre Zweiwertigkeit (Binarität), d. h. bei einem Phonem ist einMerkmal entweder vorhanden oder nicht, es gibt keine Abstufungen derWerte des Merkmals.

Die distinktiven Merkmale für die Konsonanten der deutschen Sprachesind in Tabelle 6.1 aufgelistet. Neben artikulatorischen Merkmalen, derenBedeutung sofort ersichtlich ist (z. B. stimmhaft, nasal, scharf, vokalisch,konsonantisch) ergibt sich die Bedeutung anderer Merkmale (z. B.kompakt, dunkel, abrupt, gespannt) erst aus ihrer Zuordnung zu denjeweiligen Konsonanten. Man muß bei der Anwendung dieses Systemsvon Sprachmerkmalen jedoch beachten, daß es sich um reinartikulatorische Merkmale handelt, aus deren systematischerVerwechslung nur sehr schwer Rückschlüsse auf die akustischeGrundlage dieser Verwechslung gezogen werden können. Da fürdiagnostische Zwecke (z. B. bei der Überprüfung von Hörgeräten oderCochlea-Implantaten) jedoch die akustischen Übertragungseigenschaftenund ihrer Optimierung im Vordergrund stehen, ist die Anwendbarkeitdieser phonetisch-artikulatorischen Analyseverfahren sehr begrenzt.

Page 4: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

156 Sprachwahrnehmung und Sprachaudiometrie

Tabelle 6.1: Distinktive Sprachmerkmale für die Konsonaten der deutschen Sprache

voka-lisch

konso-nan-tisch

kom-pakt

dunkel

nasal

abrupt

ge-spannt

stimm-haft

scharf

b (Bad) - + - + - + - + -d (Du) - + - - - + - + -f (Fee) - + - + - - + - +g (Gut) - + + + - + - + -h (Haar) - - + + - - + - -k (Kai) - + + + - + + - -l (Lag) + + - - - - - + -m (Mal) - + - + + + - + -n (Nun) - + - - + + - + -p (Pein) - + - + - + + - -r (Raus) + + - - - + - + -s (daS) - + - - - - + - +∫ (SCHeu) - + + - - - + - +t (Tal) - + - - - + + - -v (Vase) - + - + - - - + -x (daCH) - + + + - - - - -z (Sinn) - + - - - - - + +j (Jod) - + + - - - - + -

VI.1.2 SprachakustikWenn das akustische Sprachsignal z. B. mit einem Mikrophonaufgenommen wird, läßt sich aus dem Zeitverlauf des Signals nur sehrwenig Information über das geäußerte Sprachelement ableiten.Beispielsweise kann gesehen werden, ob es sich um einen Vokal(periodisches Signal aufgrund der Stimmlippen-Schwingung) oder einenstimmlosen Konsonanten mit Rauschanteilen handelt (irreguläresZeitsignal). Weiterhin lassen sich mit hoher Zeitauflösung zeitlicheÜbergänge feststellen (vgl. Abbildung 6.2). Eine Möglichkeit, mehrInformationen über die akustische Filterung des Sprachsignals imVokaltrakt zu erhalten, bietet die Analyse des Frequenzgehalts desSchallsignal (Leistungsspektrum). Dabei wird für jede Frequenz über diegesamte Dauer des Signals gemittelt die Energie errechnet, die in dasjeweilige Frequenzband fällt (vgl. Abbildung 6.2 rechts). Bei einemstationären Signal, das sich nicht zeitlich ändert (z. B. bei gehaltenenVokalen) kann man in diesem (Leistungs-)Spektrum sehr gut die

Page 5: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

Sprachwahrnehmung und Sprachaudiometrie 157

Grundfrequenz (Schwingungsfrequenz der Glottis) mit ihren Obertönen(ganzzahlige Vielfache der Grundfrequenz) erkennen, sowie dieFormanten, d. h. die Frequenzbereiche, bei denen der Vokaltrakt einebesonders hohe Verstärkung des akustischen Signals bewirkt. DieFormanten stellen sich damit als Spitzen im Spektrum dar und sindcharakteristisch für den jeweils artikulierten Vokal (s. unten).

Abbildung 6.2: Zeit-Signal (unten), Spektrum (rechts) und Spektrogramm (links oben) desWortes „Hörakustik“

Da das Spektrum über eine lange Zeit gebildet wird, ist es ungeeignet zurBeurteilung der sich zeitlich stark ändernden akustischen Anteile vonfließender Sprache. Es hat allerdings eine große Bedeutung als mittleresSprachspektrum, d. h. die Energieverteilung im Frequenzbereich, die imMittel bei einem männlichen bzw. weiblichen Sprecher auftritt (vgl.Abbildung 6.3). Daraus läßt sich ablesen, daß im Bereich derGrundfrequenzen zwischen etwa 300 und 800 Hz am meistenSprachenergie vorliegt (Maximum des Spektrums), während zu niedrigenFrequenzen ein Abfall von etwa 20 dB pro Oktave erfolgt und zu hohenFrequenzen von etwa 10 dB pro Oktave. Die Langzeitspektren vonmännlichen und weiblichen bzw. kindlichen Sprechern unterscheiden sichdurch die Lage des Maximums im Frequenzbereich, das bei Frauen undKindern deutlich höher liegt als bei Männern. Mit zunehmenderSprechanstrengung verschiebt sich das spektrale Maximum zu hohenFrequenzen, so daß sich die Stimme aus dem Hintergrund (mitvorwiegend tieffrequenter Leistung) deutlicher abgrenzen läßt, ohne daßdie akustische Gesamtleistung der Stimme in gleichem Maß ansteigt.

Page 6: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

158 Sprachwahrnehmung und Sprachaudiometrie

Abbildung 6.3: Mittleres Spektrum von männlichen bzw. weiblichen Sprechern

Aufgrund des Spektrums von gehaltenen Vokalen bzw. ausgeschnittenenVokalen läßt sich ein Zusammenhang zwischen der Lage des erstenFormantens (d. h. spektrales Maximum im Bereich zwischen etwa 200und 800 Hz), dem zweiten Formanten (zweites spektrales Maximumzwischen etwa 600 und 2.500 Hz), der Stellung der Artikulationsorganeund dem jeweils geäußerten Vokal aufstellen (Vokaldreieck bzw.Vokaltrapez, vgl. Abbildung 6.4).

Abbildung 6.1.4: Vokaldreieck. Aufgetragen ist die Frequenz des ersten Formanten F1

(Abzisse) und des zweiten Formanten F2 (Ordinate) für unterschiedlicheVokale (schematisch)

Während die Vorne-Hinten-Bewegung der Zunge vorwiegend mit demzweiten Formanten korreliert (d. h. „i“ wird vorne artikuliert und hat einenhohen zweiten Formanten, während das „u“ hinten artikuliert wird undeinen niedrigen zweiten Formanten hat), ist die Lage des erstenFormanten vorwiegend mit der Mundöffnung während der Artikulationkorreliert (geringe Öffnung beim i und u mit niedrigem ersten Formantenund relativ große Öffnung beim a mit hohem ersten Formanten). DiesesVokaldreieck ist nur ein grober Anhaltspunkt für die tatsächlich realisiertenFormant-Frequenzen bei verschiedenen Vokalen von verschiedenenSprechern, da natürliche Sprache einer immensen Schwankung

Page 7: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

Sprachwahrnehmung und Sprachaudiometrie 159

unterliegt.

Um nun den zeitlichen Verlauf der Artikulation und die Entwicklung derFormanten über die Zeit verfolgen zu können, wird eine Darstellung desFrequenzgehaltes über der Zeit benötigt, die mit der als Sonagrammbezeichneten Kurzzeit-Spektralanalyse erfolgen kann. Dabei wird auf derx-Achse die Zeit und auf der y-Achse die Frequenz aufgetragen, währenddie bei einem bestimmten Zeitpunkt zu einer Frequenz auftretendeEnergie als Schwärzung über dem jeweiligen Punkt in der Zeit-Frequenz-Ebene aufgetragen wird. Mit dieser früher auch als „visible Speech“bezeichneten Darstellungsweise ist es dem Spezialisten möglich, lediglichanhand des Spektrogramms Sprache zu erkennen, was anhand derZeitfunktion oder des Spektrums allein nicht möglich ist. Als Beispiel ist inAbbildung 6.5 das Spektrogramm einer (künstlich erzeugten) Silbe „ba“angegeben. Es kann deutlich die zeitliche Entwicklung des ersten und deszweiten Formanten beobachtet werden, sowie (aufgrund der hohenZeitauflösung) eine mögliche Darstellung der Glottis-Periode (Periodizitätim Zeitsignal).

Die Vorteile dieser Zeit-Frequenz-Analyse sind die realistische,freiwählbare Zeitauflösung, die gleichzeitig einstellbareFrequenzauflösung, die relativ gute Repräsentanz der Sprachinformationund die Eignung dieser Darstellungsweise für fließende Sprache. Ausdiesem Grund ist das Spektrogramm das grundlegende Werkzeug in derSprach- und Stimmanalyse. Die für das Spektrogramm durchgeführteVorverarbeitung, die im wesentlichen dem Ohr nachempfunden ist, wirdauch in technischen Systemen (beispielsweise zur Spracherkennung)eingesetzt.

Anhand des Spektrogramms lassen sich eine Reihe von akustisch definiertenSprachmerkmalen unterscheiden. Dazu zählen zum einen die bereits erwähnte Lage derFormanten, die zur Unterscheidung verschiedener Vokale (Vokal-Diskrimination)eingesetzt werden. Ein weiteres wichtiges Merkmal zur Unterscheidung zwischenstimmhaften und stimmlosen Konsonanten ist das Auftreten von kurzen Sprachpausen(„Voice-onset-time“) von etwa 20 ms. Sie zeigen die Zeitverzögerung zwischen demBeginn des stimmlosen Konsonanten (z. B. beim „pa“ den Zeitpunkt derLippensprengung) und dem Einsatz der Stimmlippen-Schwingung an. Durchnachträgliches Einfügen von Pausen hinter dem Beginn eines Konsonanten kann so auseinem stimmhaften Konsonanten künstlich ein stimmloser Konsonant gemacht werden.Ein weiteres wichtiges Merkmal ist die zeitliche Entwicklung von Formanten (Formant-Übergänge), die beispielsweise zur Unterscheidung verschiedener (stimmhafter) Vokaledienen. Dies läßt sich im Spektrogramm anhand des Unterschiedes zwischen „ba“, „da“und „ga“ demonstrieren (vgl. Abbildung 6.5). Die eigentliche Information des Konsonanten

Page 8: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

160 Sprachwahrnehmung und Sprachaudiometrie

liegt nicht zeitlich begrenzt am Anfang der Silbe, sondern bestimmt den Übergang derFormanten vom Anfang der Silbe bis zum hinteren Teil. Aus diesem Grunde kann eingeübter Hörer die drei Silben selbst dann noch unterscheiden, wenn der Anfang derSilben künstlich entfernt worden ist. Der im Spektrogramm ebenfalls sichtbare Zeitverlaufdes gesamten Spektrums dient weiterhin zur Unterscheidung zwischen verschiedenArtikulations-Arten von Konsonanten (z. B. zur Plosiv-Nasal-Plosiv-Diskrimination undzur Plosiv-Frikativ-Diskrimination) da einige Klassen von Formanten (z. B. Plosive) einencharakteristischen Zeitverlauf aufweisen. Die spektrale Grobstruktur ist auch notwendig,um verschiedene Konsonanten (z. B. Frikative, d. h. Reibelaute) akustisch voneinanderunterscheiden zu können. Aus den genannten akustischen Parametern desSpektrogramms lassen sich akustische Merkmalssysteme bestimmen, die bei derAnalyse von Phonem-Verwechslungen Rückschlüsse auf die zugrundeliegendenakustischen Übertragungsdefizite (allerdings nur im begrenztem Maße) zulassen. Zuderartigen akustischen Merkmalssystemen gehören beispielsweise die Lage des erstenund zweiten Formanten, die Vokaldauer, die Voice-onset-time und/oder andere aus demSprektrogramm allgemein ablesbare Parameter.

Page 9: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

Sprachwahrnehmung und Sprachaudiometrie 161

Abbildung 6.5: Spektrogramm „ba“, „da“, „ga“

Aufgrund des Erfolges, den die Spektrogramm-Darstellung bei derVisualisierung von Sprache und der Erklärung von Eigenschaften derSprachwahrnehmung aufweist, erscheint es sinnvoll, die Arbeitsweise desOhres in erster Näherung nach Art des Spektrogramms sich modellmäßigvorzustellen. Dafür sind die zeitliche Darstellung und die Darstellung imFrequenzbereich, sowie die entsprechende Darstellung der zu jeder

Page 10: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

162 Sprachwahrnehmung und Sprachaudiometrie

Kombination aus Frequenz und Zeit gehörenden Intensität von großerBedeutung. Eine weitere Art der Darstellung, die eng mit derSpektrogrammdarstellung zusammenhängt, ist die Aufteilung desZeitverlaufs in jedem Frequenzband nach unterschiedlichenModulationsfrequenzen (Rhythmen). Es gibt physiologische Hinweisedarauf, daß im auditorischem System eine Aufspaltung von jederMittenfrequenz in verschiedene Modulationsfrequenzen stattfindet, so daßdie Untersuchung der Relevanz von Modulationen und Modulations-Übertragungsfunktionen für die menschliche Sprachwahrnehmung vongroßer Bedeutung ist. Wenn man die in natürlicher, fließender Sprachevorkommenden Modulationsfrequenzen analysiert, stellt man einMaximum des Modulationsspektrums bei etwa 4 Hz fest, das ungefährder Silbenfrequenz entspricht. Zu niedrigeren und höherenModulationsfrequenzen nimmt diese Energie ab (vgl. Abbildung 6.6).Dabei ist das Vorhandensein dieser Modulationen essentiell für dasVerstehen von Sprache: Wenn die tiefen Modulationsfrequenzenweggefiltert werden, wird mit zunehmender Eckfrequenz immer wenigervon der Sprache verständlich. Dies tritt in ähnlicher Weise auf, wennsämtliche hohen Modulationsfrequenzen in Sprache herausgefiltertwerden und die Eckfrequenz langsam erniedrigt wird (vgl. Festen, 1996).Damit scheint die Modulationswahrnehmung neben der Zeit-Frequenz-und Intensitätsabbildung eine wesentliche Rolle für dieSprachwahrnehmung zu spielen. Sämtliche dieser für dieSprachwahrnehmung wichtigen Größen sind auch bei der Anwendung vonHörgeräten für schwerhörende Patienten von Bedeutung.

Abbildung 6.6: Modulationsspektrum von Sprache (Schema)

VI.1.3 SprachverständlichkeitBeim Verstehen von Sprache spielt einerseits dieSprachverständlichkeit eine Rolle, d. h. die Eigenschaft desSprachmaterials, von einem durchschnittlichen, normalhörendenProbanden verstanden zu werden. Andererseits spielt die individuelleSprachperzeptionsleistung eine Rolle, d. h. die von dem individuellenPatienten erbrachten Voraussetzungen zum Sprachverstehen, die mehr

Page 11: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

Sprachwahrnehmung und Sprachaudiometrie 163

oder weniger stark gestört sein können. In der Sprachaudiometrie mißtman die Verständlichkeit von standardisiertem Sprachmaterial bei demindividuellen Patienten, um Rückschlüsse auf dessenSprachperzeptionsleistungen führen zu können.

VI.1.3.1 Methoden zur Bestimmung der Sprach-verständlichkeitDas für Verständlichkeitsmessungen verwendete Sprachmaterial solltemöglichst repräsentativ sein für die Sprache und für die zu betrachtendeKommunikationssituation. Dabei tritt als grundlegendes Problem die hoheZahl von Variablen auf, für die eine möglichst vernünftige Festlegungerfolgen sollte. Zu diesen Variablen gehört die Art des Tests: „offene“Tests, bei dem ein Test-Item (z. B. ein Wort oder Satz) dem Probandendargeboten wird, das er möglichst korrekt wiederholen soll, und„geschlossene“ Tests, bei dem der Proband das richtige Test-Item auseiner Liste von möglichen Antworten bezeichnet. Weitere Variablen sinddie Länge der Test-Items (z. B. einsilbige oder mehrsilbige Wörter oderSätze), die Auswerte-Methode (Bewertung richtig erkannter Phoneme,Silben, Wörter oder Sätze), der Sprecher (männlicher oder weiblicherSprecher, geschulter oder ungeschulter Sprecher oder etwa synthetischeSprache), sowie die Wahl eines Störgeräusches und einer räumlichenAnordnung von Nutzschall- und Störgeräuschquelle. Jedes dergebräuchlichen Sprachtestverfahren besitzt eine eigene Kombinationdieser Variablen, so daß die Test-Ergebnisse sich nicht leicht miteinandervergleichen lassen.

Außerdem ist die Festlegung der Variablen abhängig vom Einsatzzweckdes Tests. Beispielsweise steht bei der Diagnostik von Hörstörungen dieanalytische Fähigkeit des Tests im Vordergrund (d. h. die Möglichkeit, ausden auftretenden Phonem-Verwechslungen Rückschlüsse auf dasgestörte Hörsystem zu ziehen), während bei der Begutachtung eher einehohe Reproduzierbarkeit des Tests und eine hohe Repräsentanz desSprachmaterials für alltägliche Kommunikation im Vordergrund steht. Beider Hörgeräteanpassung ist dagegen eine hohe Sensitivität gegenüberkleinen Änderungen der Einstellparameter des Hörgerätes wichtig.

Der derzeit in der Standard-Audiometrie am häufigsten eingesetzteSprachtest, der Freiburger Wörtertest, ist ein „offener“ Test mitEinsilbern bzw. mit Mehrsilbern (Zahlen). Als Alternative dazu wurde injüngerer Zeit das Reimtestverfahren mit geschlossenenAntwortalternativen eingeführt, die sich in nur einem Phonemunterscheiden und sich daher reimen (z. B. die Alternativen „Sinn“, „Hin“,

Page 12: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

164 Sprachwahrnehmung und Sprachaudiometrie

„bin“, „Kinn“, „Zinn“). Dieses Verfahren vermeidet Fehlerquellen bei derTestbewertung durch den Testleiter und ist automatisierbar. Die Einsilber-Tests haben den Vorteil einer geringen Redundanz (d. h. aus einemrichtig erkannten Teil des Wortes kann nicht auf den anderen,unverständlichen Teil des Wortes geschlossen werden) und bieten einehohe analytische Aussagekraft bei den auftretenden Phonem-Verwechslungen. Da im Deutschen Zweisilber jedoch häufiger alsEinsilber sind, sind Zweisilber-Tests eher repräsentativ für die deutscheSprache, so daß auch ein Reimtest-Verfahren für Zweisilber entwickeltwurde. Sprachtests mit Sätzen bieten dagegen eine sehr realitätsnaheKommunikations-Situation. Ihre Diskriminationsfunktion (d. h. derProzentsatz richtig erkannter Wörter als Funktion des Sprachpegels) istsehr steil, so daß sie eine hohe Sensitivität gegenüber Änderungen imSprachpegel oder im Signal-Rauschabstand aufweisen. Für die deutscheSprache gibt es den standardisierten Marburger Satztest und den neuerenGöttinger Satztest. Ein Überblick über moderne Verfahren derdeutschsprachigen Sprachaudiometrie findet sich bei Kollmeier (1992).

VI.1.3.2 Methoden zur Berechnung und Modellierung derSprachverständlichkeitUm das Verstehen von Sprache quantitativ zu erfassen und dieSprachverständlichkeit für eine vorgegebene akustische Situation odereinen bestimmten Hörverlust vorhersagen zu können, wurdenverschiedene Methoden zur Berechnung bzw. Vorhersage derSprachverständlichkeit aus dem zugrundliegenden Sprachmaterial undden akustischen Gegebenheiten (z. B. Nachhall, Störgeräusch,angeborene Ruhehörschwelle) entwickelt. Die klassische Methode derSprachverständlichkeitsvorhersage ist der Artikulations-Index (AI) undder Speech Transmison Index (STI). Sie beruhen auf der Annahme, daßdie gesamte Sprach-Information auf die verschiedenen Frequenzbänderdes akustischen Signals verteilt ist, und daß jedes Band einen gewissenBeitrag zur Gesamt-Sprachverständlichkeit liefert. Die Breite jedes dieserBänder orientiert sich dabei an der Frequenz-Gruppenbreite (Bark-Skalaoder in erster Näherung Terz-Bandbreite). In jedem dieserFrequenzbänder kann nun ein „effektiver“ Signal-Rauschabstand ermitteltwerden, d. h. das Verhältnis zwischen der Nutzenergie des zuverstehenden Sprachsignals und den Störanteilen. Diese werden durchNachhall oder durch ein Störrauschen verursacht, oder dadurch, daß dieEnergie in diesem Band unterhalb der Ruhehörschwelle des jeweiligenPatienten liegt, was durch ein angenommenes „internes Rauschen“nachgebildet wird. Wenn der Signal-Rauschabstand in dem Band größerals 15 dB ist, geht man davon aus, daß dieses Band vollständig zurVerständlichkeit beiträgt, während bei einem Signal-Rauschabstand vonkleiner als -15 dB sämtliche Sprachinformation in diesem Band maskiert

Page 13: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

Sprachwahrnehmung und Sprachaudiometrie 165

ist, so daß das Band nicht zur Gesamt-Sprachverständlichkeit beiträgt.Der Signal-Rauschabstand im Band j (SNR (j)) wird also auf einen Bereichvon -15dB bis +15dB begrenzt. Zur Ermittlung des Artikulationsindex wirdnun eine gewichtete Mittelung über die Signal-Rauschabstände in deneinzelnen Bändern durchgeführt, bei der jedes Band j mit einemGewichtungsfaktor Wj multipliziert wird:

AΙ oder STΙ= [ ]W SNR j dBjj

⋅ +∑ ( ) 15 (6.1)

Die Gewichtungsfaktoren Wj sind dabei so gewählt, daß der STI oder AInur Werte zwischen 0 (entsprechend einer Sprachverständlichkeit von 0,wenn in jedem Band nur Rauschen und keine signifikanten Sprachanteilevorliegen) und 1 variiert (vollständige Sprachverständlichkeit, da in jedemFrequenzband die Sprache von dem Rauschen kaum beeinflußt wird).Damit stellt der AΙ bzw. STΙ ein Maß für die Sprachverständlichkeit dar,das direkt mit der meßbaren mittleren Sprachverständlichkeitzusammenhängt. Diese Beziehung hängt allerdings von dem verwendetenSprachmaterial und Test ab (vgl. Abbildung 6.8). Bei Sprachtests mitgeringer Redundanz (z. B. bei sinnlosen oder sinnbehafteten Einsilbern)wächst die Sprachverständlichkeit mit zunehmendem AΙ bzw. STΙ nurlangsam an, während die Sprachverständlichkeit bei Sätzen mit hoherRedundanz schon bei relativ kleinem AI sehr hoch ist. Dies liegt an derMöglichkeit, den Satz aufgrund des Satzzusammenhanges schon dannvollständig richtig zu verstehen, wenn nur einige Teile des Satzesverstanden werden.

Abbildung 6.7: Sprachverständlichkeit für verschiedenes Sprachmaterial als Funktion desAΙ bzw. STΙ

Mit Hilfe der in Abbildung 6.7 angegebenen Kurven ist es daher prinzipiellmöglich, die Verständlichkeit für verschiedene Sprachmaterialien bei

Page 14: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

166 Sprachwahrnehmung und Sprachaudiometrie

vorgegebenen akustischen Bedingungen ineinander umzurechnen. Esmuß jedoch betont werden, daß der Artikulations Index und der SpeechTransmission Index nur für den Mittelwert von Sprachverständlichkeitenüber ein normalhörendes Versuchspersonenkollektiv und eine großeAnzahl von Tests gelten. Für den individuellen Patienten und für dieVerständlichkeit eines einzelnen Wortes oder eines einzelnen Satzestreten große Schwankungen in der Verständlichkeit auf, so daß dieseBerechnungsmethode für diesen Fall nicht angewendet werden kann (vgl.Kollmeier, 1990).

Der STΙ unterscheidet sich vom AΙ durch die Vorgehensweise zur Berechnung des„effektiven“ Signal-Rauschabstandes SNR (j) in jedem Band j. Während beim AI dasLeistungsspektrum des Sprachmaterials und das Leistungsspektrum des Störsignalsgetrennt voneinander bekannt sein müssen und ins Verhältnis gesetzt werden, wird beimSTI der Signal-Rauschabstand anhand des Sprachsignals und der Mischung ausSprachsignal und Störsignal mit Hilfe der Modulations Transfer Funktion (MTF)bestimmt. Dazu werden in jedem Frequenzbereich die im Original-Signal auftretendenModulationen gemessen und die in der Mischung verbleibenden Modulationen werden insVerhältnis zu den ursprünglichen Modulationen gesetzt. Wenn die ursprünglichenModulationen vollständig erhalten sind (Modulations-Transfer-Funktion von 1), sprichtdies für ein sehr hohes Signal-Rauschverhältnis, während die Anwesenheit vonStörgeräusch oder von Nachhall die im gemischten Signal verbleibenden Modulationenstark verringert. Das Konzept des STΙ geht also davon aus, daß die Erhaltung derModulationen im gemischten Signal für die Sprachverständlichkeit von entscheidenderBedeutung ist und errechnet den Signal-Rauschabstand aus diesem Erhalt derModulationen. Dadurch können der Einfluß von Nachhall und der Einfluß vonStörrauschen in gleicher Weise behandelt werden, so daß sich der STI besonders für denEinsatz in der Raumakustik bewährt hat. Die zeitlichen Eigenschaften einesSprachübertragungssystems (z. B. des gestörten Gehörs) werden ebenfalls besserberücksichtigt als beim AΙ (vgl. Houtgast und Steneken, 1973).

Abbildung 6.8: Perzeptionsmodell zum Sprachverstehen nach Holube und Kollmeier(1996)

Neben den auf den Eigenschaften des Sprachmaterials beruhenden

Page 15: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

Sprachwahrnehmung und Sprachaudiometrie 167

Berechnungsverfahren des AΙ und STΙ gibt es Modelle zurSprachverständlichkeitsvorhersage, die sich eher an den Eigenschaftendes Gehörs orientieren und die Verarbeitungsschritte bei derSprachwahrnehmung explizit nachbilden. Als Beispiel für ein derartigesPerzeptionsmodell soll das in Abbildung 6.8 skizzierte Modell nachHolube und Kollmeier (1996) erläutert werden: Das gestörte Sprachsignalwird zunächst einer peripheren Vorverarbeitungs-Stufe zugeführt, die die„effektive“ Signalverarbeitung im auditorischen System möglichst gutnachbildet. Die Elemente dieser Vorverarbeitungsstufe entsprechen dabeigenau den anhand von psychoakustischen und physiologischenExperimenten gewonnenen Verarbeitungseinheiten (Abb. 5.10). Zunächstwird eine Aufspaltung des Signals in verschiedene Frequenzbereichevorgenommen (entspricht der Frequenz-Orts-Transformation derBasilarmembran), anschließend wird eine Extraktion der Einhüllenden undeine Adaptation mit zeitlicher Kontrastierung in jedem Frequenzkanalvorgenommen (dies entspricht ungefähr der Aktion der Haarzellen unddes Hörnervs). Die statistischen Übertragungsfehler durch dasNervensystem und die Begrenzung der Empfindlichkeit durch dieRuhehörschwelle wird durch ein zusätzliches „internes“ Rauschennachgebildet. Am Ausgang der peripheren Vorverarbeitungsstufe liegtdann zu jedem Zeitpunkt für jede Frequenz ein komprimierter und zeitlichkontrastierter Intensitätswert vor, der ungefähr der internenRepräsentation der akustischen Signale entspricht und eine ähnlicheDarstellung der Sprachinformation wie das Spektrogramm ermöglicht.

Dieselben Vorverarbeitungsschritte werden auch für ein Referenzsignal(ungestörtes Sprachsignal) durchgeführt. In einer zentralenVerarbeitungsstufe (Mustererkenner) kann dann überprüft werden,inwiefern die interne Repräsentation des Eingangssignals mit derjenigeneines vorgegebenen Vergleichsignals übereinstimmt. Diese zentraleMustererkennung entspricht ungefähr dem Prozeß derSprachwahrnehmung, bei dem die aktuelle akustische Wahrnehmung mitder möglichen Wahrnehmung von allen möglichen bekannten Wörternverglichen wird. Als „erkanntes Wort“ wird dasjenige ausgewählt, desseninterne Repräsentation am ähnlichsten mit der Repräsentation desEingangssignals ist. Dieser zentrale Verarbeitungs-Vorgang kann dahermit einem Spracherkennungsalgorithmus durchgeführt werden und bildetdas „Weltwissen“ des Hörers nach.

Mit einer derartigen Modellstruktur kann untersucht werden, inwiefern sichVerarbeitungsfehler in der peripheren Vorverarbeitung (z. B. Änderung derspektralen und zeitlichen Auflösung oder eine Anhebung derRuhehörschwelle) auf die veränderte Erkennungsleistung beim

Page 16: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

168 Sprachwahrnehmung und Sprachaudiometrie

Sprachverstehen auswirkt. Der Vorteil eines derartigen Modells bestehtdarin, daß die Sprachverständlichkeitsvorhersage nicht global, im Mittelüber viele Versuchspersonen und viele Wörter erfolgen muß, sondern daßfür jede individuelle Versuchsperson und jedes zu erkennende Wort eineeigene Verständlichkeitsberechnung durchgeführt werden kann. DieVorhersagen mit diesem Modell stimmen für die Sprachverständlichkeit inRuhe und insbesondere für verschiedene Störgeräusche sehr gut mit dengemessenen Verständlichkeitswerten bei Normal- und Schwerhörendenüberein (vgl. Holube und Kollmeier, 1996). Aufgrund des hohenRechenzeitaufwandes für dieses Modell und die noch nicht in allenEinzelheiten geklärten Verarbeitungsprozesse sind jedoch noch weitereForschungsarbeiten zu seiner Validierung notwendig.

VI.2 Sprachperzeption bei pathologischem GehörBei Schwerhörigkeit ist das Verstehen von Sprache in Ruhe und unterStörgeräuscheinfluß reduziert. In der Sprachaudiometrie wird dieseReduktion quantitativ erfaßt, in dem die Sprachverständlichkeit (d. h. derProzentsatz korrekt verstandener Test-Items einer vorgegebenen Testlistevon Wörtern, Zahlen oder Sätzen) für verschiedene Sprachpegel und fürverschiedene Testbedingungen bestimmt wird (z. B. in Ruhe oder unterStörgeräusch mit unterschiedlicher räumlicher Anordnung von Störschallund Nutzschall). Das Ziel dieser Messungen ist entweder die differenzierteDiagnostik von Hörstörungen, die Begutachtung eines Hörschadensoder die Anpassung von Hörhilfen (d. h. das Ausmessen derSprachverständlichkeit ohne Hörhilfe und den Gewinn anSprachverständlichkeit, der durch die Hörhilfe erzielt wird). Für dieBestimmung der Sprachverständlichkeit gibt es mehrere Testverfahren(vgl. 6.1.3) von denen der Freiburger Einsilber- bzw. Zahlentest und derMarburger Satztest standardisiert sind. Neuere und weniger fehleranfälligeVerfahren wie der Einsilber- oder Zweisilber-Reimtest und der GöttingerSatztest befinden sich im Erprobungsstadium.

Abbildung 6.9: Diskriminationsfunktionen bei unterschiedlichen Pathologien

Page 17: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

Sprachwahrnehmung und Sprachaudiometrie 169

(schematisch)

Für den Sprachtest in Ruhe findet man bei den verschiedenenSchwerhörigkeitsformen prinzipiell die in Abbildung 6.9 dargestelltenDiskriminationsfunktionen (d. h. Prozent Sprachverständlichkeit alsFunktion des Sprachpegels). Bei Normalhörenden hängt die Steigung derDiskriminationsfunktion vom verwendeten Sprachmaterial ab: DieDiskriminationsfunktion ist relativ flach bei Einsilbern mit offenemAntwortformat, etwas steiler beim Reimtestverfahren und extrem steil (ca.20 % Verständlichkeit pro dB) bei Sätzen wie z. B. beim GöttingerSatztest. Bei Schalleitungs-Schwerhörigkeiten ist dieDiskriminationsfunktion zu hohen Pegeln hin verschoben. BeiSchallempfindungs-Schwerhörigkeiten ist die Diskriminationsfunktionebenfalls verschoben, was auf die „Abschwächungswirkung“ desHörverlusts zurückgeführt wird. Die darüber hinausgehende„Verzerrungswirkung“ des Hörverlusts („Fehlhörigkeit“) macht sichdagegen in einer Abflachung (Verringerung der Steigung) derDiskriminationsfunktion und in einem Diskriminationsverlust bemerkbar,d. h. die Diskriminationskurve erreicht bei hohen Pegeln nicht 100 %sondern bleibt um einen bestimmten Wert, der als Diskriminationsverlustbezeichnet wird, unterhalb von 100 %. Bei sehr hohen Pegeln kann beieinem Patienten sogar eine Verschlechterung der Sprachverständlichkeitmit zunehmendem Pegel beobachtet werden („roll-over“-Phänomen oderR-Kurve), das im Zeitalter verbesserter audiologischer Technik(verzerrungsfreie Verstärker und Kopfhörer, CD-Wiedergabe desSprachmaterials) allerdings selten geworden ist. Die beidenerstgenannten Effekte lassen sich bei Innenohrschwerhörigen daraufzurückführen, daß sie bestimmte Wörter erst bei sehr hohen Pegeln oderüberhaupt nicht verstehen können, während andere Wörter schon beirelativ niedrigen Pegeln verständlich sind. Der Übergangsbereich derDiskriminationsfunktion zwischen „unverständlich“ und „vollständigverständlich“ überdeckt daher einen größeren Pegelbereich mehr als beiNormalhörenden bzw. Schalleitungsschwerhörigen.

Ziel der Sprachaudiometrie in Ruhe ist es nun, die wesentlichenEigenschaften der Diskriminationsfunktion des individuellen Patienten zuerfassen, d. h. die Verständlichkeitsschwelle (der zu 50 %Sprachverständlichkeit gehörende Sprachpegel), die Steigung derDiskriminationsfunktion und den Diskriminationsverlust bzw. dasVorliegen einer R-Kurve. In der Routine-Audiometrie wird daher für dieeinsilbigen Wörter des Freiburger Sprachtest die Sprachverständlichkeitbei 65 dB bestimmt und bei um jeweils 15 dB erhöhtem Sprachpegel bisentweder die Erkennungsrate 100 % erreicht wird oder die

Page 18: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

170 Sprachwahrnehmung und Sprachaudiometrie

Unbehaglichkeits-Schwelle überschritten wird. Daraus ergibt sich dieDiskriminationsfähigkeit bei 65 dB (in %), der Pegel bei dem diehöchste Erkennungsrate erzielt wird (dB Opt.), die Differenz zu 100 % beidiesem Pegel (Diskriminationsverlust in Prozent) und dieGesamtwortverständlichkeit (GWV in %), die sich aus der Summe derErkennungsraten in Prozent bei 60, 80 und 100 dB ergibt. Bei denmehrsilbigen Zahlwörtern des Freiburger Tests wird die Erkennungsratefür einen oder zwei verschiedene Pegel bestimmt. Unter Berücksichtigungder Steigung der Diskriminations-Normkurve für Normalhörende wirdanschließend durch Interpolation derjenige Pegel bestimmt, bei dem 50 %der Zahlen verstanden werden. Die Differenz zu dem Wert fürNormalhörende wird als Hörverlust (HV) für Zahlwörter in dBangegeben. Neuere sprachaudiometrische Testverfahren ermitteln dieSprachverständlichkeitsschwelle, den Diskriminationsverlust und dieSteigung der Diskriminationsfunktion durch adaptive Messungen, beidenen der Sprachpegel in Abhängigkeit von den Antworten desProbanden variiert wird. Dadurch wird mit wenigen Versuchsschritten derPegel maximalen Sprachverstehens ermittelt und anschließend dieSprachverständlichkeitsschwelle. Durch das Anpassen einerDiskriminationsfunktion an die Antworten des Probanden läßt sichanschließend die Steigung der Diskriminationsfunktion angeben. DieseVerfahren werden vom Computer gesteuert bzw. ausgewertet, so daß siebei zunehmender Verbreitung der computergesteuerten Audiometriezunehmende Bedeutung für die Praxis gewinnen werden (vgl. Kollmeier,1996).

Bei der Sprachaudiometrie unter Störgeräusch interessiert vorwiegenddie Sprachverständlichkeits-Schwelle, d. h. derjenige Signal-Rauschabstand (Sprachpegel in Relation zum Störgeräuschpegel), beidem eine Sprachverständlichkeit von 50 % erzielt werden kann. DieserWert ist bei sensorineural Schwerhörenden in der Regel deutlich erhöhtgegenüber Normalhörenden und Schalleitungs-Schwerhörigen. Dies istebenfalls Ausdruck der „Verzerrungswirkung“ des Hörverlusts undentspricht den Beschwerden der Schwerhörenden, daß sie unterUmgebungsgeräusch mehr Schwierigkeiten haben, einer Unterhaltung zufolgen, als in Ruhe („Cocktail-Party-Effekt“ oderGesellschaftsschwerhörigkeit). Da bei zusammenhängendenSprachmaterialien wie einer Unterhaltung oder Sätzen eine Zunahme derSprachverständlichkeit um etwa 20 % pro Verbesserung des Signal-Rauschabstands um 1 dB erfolgt, ist eine hohe Meßgenauigkeit zurErfassung dieser Komponente des Hörverlusts notwendig. Einenbesonders großen Unterschied in der Sprachverständlichkeitsschwellezwischen Normal- und Innenohrschwerhörigen beobachtet man bei derVerwendung von fluktuierenden Störgeräuschen, welche zeitliche

Page 19: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

Sprachwahrnehmung und Sprachaudiometrie 171

Einhüllenden-Schwankungen in ähnlicher Weise aufweisen, wie eineinzelner, störender Sprecher (Fastl, 1987). Während Normalhörende inden „Lücken“ des Störgeräuschs noch einen Teil der Sprache gutverstehen können und daher durch ein derartig fluktuierendesStörgeräusch relativ wenig gestört sind, ist bei Innenohrschwerhörigendiese Fähigkeit stark gestört.

Ein weiteres Handicap beim Sprachverstehen im Störgeräusch habenInnenohrschwerhörende gegenüber Normalhörenden in räumlichenNutzschall-Störschallsituationen. Während Normalhörende sowohldurch monaurale Verarbeitung als auch durch binauraleSignalverarbeitung (d. h. durch den Vergleich zwischen den an beidenOhren jeweils anliegenden Signalen) eine gewisseStörgeräuschunterdrückung durchführen können und sich auf denNutzsprecher konzentrieren können, ist dieser Effekt bei Schwerhörendenin sehr unterschiedlichem Maße gestört.

Abbildung 6.10: Testanordnung für ILD und BILD

Dieser Effekt kann mit der Intelligibility Level Difference (ILD) bzw. derbinauralen Intelligibility Level Difference (BILD) quantitativ ausgemessenwerden (vgl. Abb. 6.10): In der Referenzsituation wird Nutzsignal undStörgeräusch dem Probanden genau von vorne angeboten und dieSprachverständlichkeits-Schwelle bestimmt. Wenn der Störschall nun von90 Grad seitlich angeboten wird, sinkt die Sprachverständlichkeitsschwellebei Normalhörenden um bis zu 12 dB, während dieserVerständlichkeitsgewinn bei Schwerhörenden sehr individuell verschieden

Page 20: VI. Sprachwahrnehmung und Sprach- audiometriemedi.uni-oldenburg.de/download/docs/lehre/kollm_audiologie/audiol6.pdf · Sprachwahrnehmung und Sprachaudiometrie 153 VI. Sprachwahrnehmung

172 Sprachwahrnehmung und Sprachaudiometrie

ist und z. T. deutlich eingeschränkt sein kann. Um den monauralen Anteil(Kopfabschattungseffekt an dem der Störgeräuschquelle abgewandtenOhr) vom binauralen Anteil (Gewinn durch binauraleStörgeräuschunterdrückung) trennen zu können, wird die BILD in derletztgenannten räumlichen Situation bestimmt. Dazu wird das „bessere“(d. h. das der Störschallquelle abgewandte) Ohr verstöpselt und dieresultierende Sprachverständlichkeitsschwelle mit der binauralenSprachverständlichkeitsschwelle verglichen. Bei Normalhörenden wirddurch Zuschalten des „schlechteren“ Ohrs ein Gewinn von maximal ca.6 dB erzielt. Der Gesamt-Gewinn in der räumlichen Störschall-Nutzschallsituation wird also je zur Hälfte durch eine binaurale und einemonaurale Komponente hervorgerufen.

In der Praxis können diese Tests unter Kopfhörerbedingungen durchVerwendung der Kunstkopftechnik bzw. der virtuellen Akustik durchgeführtwerden. In Freifeldbedingungen bei nicht-idealen akustischenGegebenheiten (Hörprüfräumen mit einer gewissen Nachhallzeit) sinkt diemaximal erzielbare ILD auf Werte um 6 dB und die BILD auf Werte umetwa 3 dB ab. Daher ist es notwendig, effiziente adaptive Testverfahren(wie beispielsweise den Göttinger Satztest mit adaptiver Pegelsteuerungeinzusetzen), mit denen die ILD bzw. BILD für beide Ohren des Patientenin vertretbarem Zeitaufwand bestimmt werden können und so der Gewinneiner etwaigen zweiseitigen Hörgeräte-Versorgung quantifiziert werdenkann.