7
Überblick 39 Von aktiven, nichtlinearen Prozessen im Ohr über numerische Hörmodelle bis hin zur Musik- übertragung im Internet mit MP3 oder objekti- ver Beurteilung der Sprachgüte von Handys: Die Hör-Akustik hat unmittelbare Auswirkun- gen auf unser tägliches Leben – nicht nur wenn eine Hörstörung auftritt oder wenn man auf ei- ner lebhaften Party nichts mehr versteht. Für die Physik ist die Analyse der effektiven Funk- tion des Gehörs als komplexes Gesamtsystem interessant. Die Umsetzung dieser Analyse in ein Hörmodell ermöglicht eine Vielzahl techni- scher Anwendungen. D ie Physik „wächst“ an den Rändern: Während vor 20 Jahren Physiker, die sich mit neuronalen Systemen oder Sinnesorganen beschäftigten, eher zu den Außenseitern zählten, ist die Beschäfti- gung mit komplexen, nichtlinearen biologischen Syste- men zu einem auch für den wissenschaftlichen Nach- wuchs attraktiven Feld geworden, das von der Interdis- ziplinarität und der Anwendungsbreite physikalischer Methoden lebt. Nicht erst seit Helmholtzs frühen Ar- beiten über „Die Lehre von den Tonempfindungen“ [1] ist die Beschäftigung mit dem Hörsinn ein wichtiges Beispiel hierfür. Dieser Beitrag zeigt die Verbindung auf zwischen der medizinischen Sichtweise des Hör- vorgangs (und seinen möglichen Störungen) und der physikalischen Sichtweise. Mögliche Anwendungen des quantitativen Zugangs zur Modellierung des Hörvor- gangs werden exemplarisch für die Bereiche Telekom- munikation, Audio-Signalverarbeitung und digitale Hörgeräte vorgestellt. Eine wesentliche Motivation für die Beschäftigung mit dieser Thematik ist der „Cocktail-Party-Effekt“, der Partygästen die Konversation erleichtert und dessen Ausfall eines der schwerwiegendsten Probleme für Schwerhörige darstellt: In einer störgeräuschbehafteten Umgebung (z. B. einer lebhaften Party) können sich Normalhörende relativ gut auf einen Sprecher konzen- trieren und die Störgeräusche unterdrücken. Schwer- hörigen fällt dies jedoch besonders schwer, sodass sie derartige Situationen und größere Menschenansamm- lungen meiden, was häufig zur sozialen Isolation führt. Selbst die modernsten kommerziellen, digitalen Hör- geräte können zwar in akustisch „einfachen“ Situatio- nen (mit nur einer stationären Störquelle, die aus einer ganz anderen Richtung als das Nutzsignal kommt) die Störgeräusche wesentlich besser unterdrücken als es den Geräten noch vor etwa zehn Jahren möglich war, versagen aber nach wie vor in akustisch „schwierigen“ Situationen wie etwa einer Party. Um hier Lösungs- möglichkeiten aufzuzeigen, muss das zugrundeliegende „System Ohr“ erst einmal analysiert werden. Aufbau und Funktionsweise des Gehörs Das Außen- und Mittelohr (vgl. Abb. 2) leitet den Schall mit nur geringen Energieverlusten in das mit Flüssigkeit gefüllte Innenohr. Funktionsstörungen des Außen- und Mittelohres machen sich in einer Schall- leitungs-Schwerhörigkeit bemerkbar, die durch HNO- ärztliche Eingriffe oder durch ein einfaches, lineares Hörgerät ausgeglichen werden können. Die eigentliche Umwandlung der Schallschwingungen in Nervenimpul- se findet im Innenohr (Kochlea oder Hörschnecke) statt. Die Hörschnecke ist der Länge nach durch die Basilarmembran unterteilt, wobei die auf der Basilar- membran angeordneten inneren und äußeren Haar- zellen die mechano-elektrischen Wandler darstellen. Störungen des Innenohrs oder der nachfolgenden neu- ronalen Strukturen führen zu der Schallempfindungs- Schwerhörigkeit, die wesentlich häufiger vorkommt (ca. 15 % unserer Bevölkerung), aber leider auch pro- blematischer ist als die Schallleitungs-Schwerhörigkeit [2]. Das Problem liegt in der Nichtlinearität des Innen- ohrs (siehe Infokasten „Wie nichtlinear ist das Ohr?“), die sich auch objektiv mit einem empfindlichen Mikro- fon ausmessen lässt. Abbildung 3 zeigt das gemittelte Spektrum des akustischen Signals, das im abgeschlos- senen Gehörgang eines normalhörenden Probanden gemessen werden kann, wenn die mit f 1 und f 2 gekenn- Akustik Cocktail-Partys und Hörgeräte: Biophysik des Gehörs Physikalisch inspirierte Hörmodelle weisen den Weg zu intelligenten Hörgeräten Birger Kollmeier Abb. 1: Auf einer Cocktail- Party können Normalhörende die vielen Neben- geräusche unter- drücken und sich auf ein Gespräch konzentrieren. Schwerhörige haben dagegen große Probleme – eine besondere Herausforderung an die Kommuni- kationsakustik! Prof. Dr. Dr. Birger Kollmeier, Medizini- sche Physik, Univer- sität Oldenburg, 26111 Oldenburg; http://medi.uni- oldenburg.de Physik Journal 1 (2002) Nr. 4 1617-9439/02/0404-39 $17.50+50/0 © WILEY-VCH Verlag GmbH, D-69451 Weinheim, 2002

Cocktail-Partys und Hörgeräte: Biophysik des Gehörsmedi.uni-oldenburg.de/download/docs/paper/kollmeier_2002_biophysik... · mit dieser Thematik ist der „Cocktail-Party-Effekt“,

  • Upload
    others

  • View
    7

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Cocktail-Partys und Hörgeräte: Biophysik des Gehörsmedi.uni-oldenburg.de/download/docs/paper/kollmeier_2002_biophysik... · mit dieser Thematik ist der „Cocktail-Party-Effekt“,

Überblick

39

Von aktiven, nichtlinearen Prozessen im Ohrüber numerische Hörmodelle bis hin zur Musik-übertragung im Internet mit MP3 oder objekti-ver Beurteilung der Sprachgüte von Handys:Die Hör-Akustik hat unmittelbare Auswirkun-gen auf unser tägliches Leben – nicht nur wenneine Hörstörung auftritt oder wenn man auf ei-ner lebhaften Party nichts mehr versteht. Fürdie Physik ist die Analyse der effektiven Funk-tion des Gehörs als komplexes Gesamtsysteminteressant. Die Umsetzung dieser Analyse inein Hörmodell ermöglicht eine Vielzahl techni-scher Anwendungen.

D ie Physik „wächst“ an den Rändern: Währendvor 20 Jahren Physiker, die sich mit neuronalenSystemen oder Sinnesorganen beschäftigten,

eher zu den Außenseitern zählten, ist die Beschäfti-gung mit komplexen, nichtlinearen biologischen Syste-men zu einem auch für den wissenschaftlichen Nach-wuchs attraktiven Feld geworden, das von der Interdis-ziplinarität und der Anwendungsbreite physikalischerMethoden lebt. Nicht erst seit Helmholtzs frühen Ar-beiten über „Die Lehre von den Tonempfindungen“ [1]ist die Beschäftigung mit dem Hörsinn ein wichtigesBeispiel hierfür. Dieser Beitrag zeigt die Verbindungauf zwischen der medizinischen Sichtweise des Hör-vorgangs (und seinen möglichen Störungen) und derphysikalischen Sichtweise. Mögliche Anwendungen desquantitativen Zugangs zur Modellierung des Hörvor-gangs werden exemplarisch für die Bereiche Telekom-munikation, Audio-Signalverarbeitung und digitaleHörgeräte vorgestellt.

Eine wesentliche Motivation für die Beschäftigungmit dieser Thematik ist der „Cocktail-Party-Effekt“, derPartygästen die Konversation erleichtert und dessenAusfall eines der schwerwiegendsten Probleme fürSchwerhörige darstellt: In einer störgeräuschbehaftetenUmgebung (z. B. einer lebhaften Party) können sichNormalhörende relativ gut auf einen Sprecher konzen-trieren und die Störgeräusche unterdrücken. Schwer-hörigen fällt dies jedoch besonders schwer, sodass siederartige Situationen und größere Menschenansamm-lungen meiden, was häufig zur sozialen Isolation führt.Selbst die modernsten kommerziellen, digitalen Hör-geräte können zwar in akustisch „einfachen“ Situatio-nen (mit nur einer stationären Störquelle, die aus einerganz anderen Richtung als das Nutzsignal kommt) die

Störgeräusche wesentlich besser unterdrücken als esden Geräten noch vor etwa zehn Jahren möglich war,versagen aber nach wie vor in akustisch „schwierigen“Situationen wie etwa einer Party. Um hier Lösungs-möglichkeiten aufzuzeigen, muss das zugrundeliegende„System Ohr“ erst einmal analysiert werden.

Aufbau und Funktionsweise des GehörsDas Außen- und Mittelohr (vgl. Abb. 2) leitet den

Schall mit nur geringen Energieverlusten in das mitFlüssigkeit gefüllte Innenohr. Funktionsstörungen desAußen- und Mittelohres machen sich in einer Schall-leitungs-Schwerhörigkeit bemerkbar, die durch HNO-ärztliche Eingriffe oder durch ein einfaches, linearesHörgerät ausgeglichen werden können. Die eigentlicheUmwandlung der Schallschwingungen in Nervenimpul-se findet im Innenohr (Kochlea oder Hörschnecke)statt. Die Hörschnecke ist der Länge nach durch dieBasilarmembran unterteilt, wobei die auf der Basilar-membran angeordneten inneren und äußeren Haar-zellen die mechano-elektrischen Wandler darstellen.Störungen des Innenohrs oder der nachfolgenden neu-ronalen Strukturen führen zu der Schallempfindungs-Schwerhörigkeit, die wesentlich häufiger vorkommt(ca. 15 % unserer Bevölkerung), aber leider auch pro-blematischer ist als die Schallleitungs-Schwerhörigkeit[2].

Das Problem liegt in der Nichtlinearität des Innen-ohrs (siehe Infokasten „Wie nichtlinear ist das Ohr?“),die sich auch objektiv mit einem empfindlichen Mikro-fon ausmessen lässt. Abbildung 3 zeigt das gemittelteSpektrum des akustischen Signals, das im abgeschlos-senen Gehörgang eines normalhörenden Probandengemessen werden kann, wenn die mit f1 und f2 gekenn-

Akustik

Cocktail-Partys und Hörgeräte: Biophysik des Gehörs

Physikalisch inspirierte Hörmodelle weisen den Weg zu intelligenten Hörgeräten

Birger Kollmeier

Abb. 1:Auf einer Cocktail-Party könnenNormalhörendedie vielen Neben-geräusche unter-drücken und sichauf ein Gesprächkonzentrieren.Schwerhörigehaben dagegengroße Probleme –eine besondereHerausforderungan die Kommuni-kationsakustik!

Prof. Dr. Dr. BirgerKollmeier, Medizini-sche Physik, Univer-sität Oldenburg,26111 Oldenburg;http://medi.uni-oldenburg.de

Physik Journal1 (2002) Nr. 41617-9439/02/0404-39$17.50+50/0© WILEY-VCH Verlag GmbH,D-69451 Weinheim, 2002

Page 2: Cocktail-Partys und Hörgeräte: Biophysik des Gehörsmedi.uni-oldenburg.de/download/docs/paper/kollmeier_2002_biophysik... · mit dieser Thematik ist der „Cocktail-Party-Effekt“,

Physik Journal1 (2002) Nr. 440

Überblick

zeichneten reinen Sinustöne als Eingangssignale gege-ben werden. Die Verzerrungsprodukte (z. B. bei 2f1–f2)werden vom Innenohr akustisch als eine Art Echo ab-gestrahlt („otoakustische Emissionen“, oto ist latei-nisch für Ohr) und verschwinden bei Hörstörungenoder bei Unterbrechung der Sauerstoff-Zufuhr des In-nenohrs. Die negative Dämpfung bei kleinen Auslen-kungen der Basilarmembran und die Ankopplung anäußere Reize lässt sich in guter Näherung durch einennichtlinearen van-der-Pol-Oszillator beschreiben [4].

Weil die otoakustischen Emissionen in der Regel nurbei gesunden Ohren auftreten, werden sie auch als ob-jektiver Hörtest bei Neugeborenen eingesetzt. Dazu be-schallt man das Ohr mit einem leisen „Klick“ und misstZeitverzögerung, Frequenzspektrum und Reproduzier-barkeit des Echos. Otoakustische Emissionen könnenauch ohne äußeren Reiz („spontan“) im abgeschlosse-nen Gehörgang mit niedrigen Schalldruckpegeln auf-treten (Hörbeispiel 2)#) und sind normalerweise unhör-bar. Sie weisen keinerlei Beziehung zu dem subjektivempfundenen „Fiepen“ im Ohr auf, das sporadischoder nach einer Lärmbelastung bei Gesunden auftritt

oder als andauerndes Ohrensausen („Tinnitus“) Aus-druck einer Hörstörung ist.

Als wichtigste Quelle der Nichtlinearitäten imInnenohr und damit der otoakustischen Emissionengelten die Haarzellen, die die Bewegung der Basilar-membran in eine elektrische Spannung umsetzen unddabei sogar Auslenkungen im Sub-Nanometer-Bereich(!) hörbar machen. Die inneren Haarzellen dienen da-bei primär als „Mikrofone“, deren Ausgangsspannungüber eine Erregung im Hörnerv zum Gehirn übertragenwird. Die äußeren Haarzellen fungieren zusätzlich als„Lautsprecher“, da sie durch Wechselspannung zu akti-ven Kontraktionen angeregt werden und quasi als Re-sonanzverstärker von Basilarmembran-Schwingungendie Empfindlichkeit und die Frequenzauflösung desHörorgans steigern [5]. Die genauen mikromechani-schen Mechanismen und die Kodierung akustischer In-formation im Nervensystem sind nach wie vor Gegen-stand biophysikalischer Forschung. In physiologischenMessungen wird dazu die Reaktion des Körpers (z. B.einer Nervenzelle im Tierexperiment) auf einen defi-nierten akustischen Reiz erfasst. Beim Menschen kannman dazu das Elektro-Enzephalogramm (EEG) bzw.das Magneto-Enzephalogramm (MEG) als Spannungs-bzw. Magnetfeldverlauf auf der Schädeloberfläche er-fassen oder mit funktioneller Kernspintomographie die(zeitlich nur wenig aufgelöste) Aktivierung bestimmterHirnareale. Bei psychophysikalischen Messungen wirddagegen die subjektive Reaktion einer Versuchspersonauf einen Reiz erfasst, wobei die Versuchsperson einevorgegebene Aufgabe durchführen muss (z. B. Erken-nen eines Tons in einem zweimal angebotenen Rau-schen, von denen nur eines den Ton enthält). Durchdie sich gegenseitig ergänzende Information aus beidenBereichen besitzen wir relativ genaue Vorstellungenüber die Verarbeitungsprinzipien des zentralen Hör-systems im Gehirn:� Frequenzabbildung: Im Innenohr werden hohe Fre-quenzen an der Basis der Kochlea abgebildet, niedrigeFrequenzen an der Spitze. Gemäß dieser Frequenz-Orts-Transformation werden auf allen Stationen derHörbahn benachbarte Frequenzen an benachbartenOrten verarbeitet. � Einhüllenden-Extraktion und Dynamikkompression:

#) Die in diesem Artikelerwähnten Hörbeispielesind unter http://medi.uni-oldenburg.de/de-mos/pj/ und www.pro-physik.de/ Phy/PJ/koll-meier.html abrufbar.Zum Anhören sind eineSoundkarte und Laut-sprecherboxen oderKopfhörer erforderlich.

Dass die Funktion des nor-malen Innnohrs hochgradignichtlinear ist, lässt sich anfolgendem einfachen Hör-experiment mit einem PaarStereolautsprecher demon-strieren (Hörbeispiel 1)#):Auf einem Lautsprecher wirdein konstanter Sinuston vonf1 = 2 kHz abgespielt. Mitdem zweiten Lautsprecherwird dagegen ein Ton mit ei-ner aufsteigenden Frequenzf2 („Sweep“) zwischen 2 kHzund 2,8 kHz erzeugt. Werdennun beide Lautsprechergleichzeitig angeschaltet (li-neare Addition des Schallfel-des in der Luft), nimmt mansubjektiv (je nach Lautstärkeder beiden Stimuli und Funk-tionszustand des eigenen

Mittel- und Innenohres) ei-nen abwärts verlaufendenSweep („kubischer Differenz-ton“ 2 f1–f2) und einen Auf-wärts-Sweep mit niedrigererFrequenz („quadratischerDifferenzton“ f2–f1) wahr.

Diese so genannten Ver-zerrungsprodukte werdendurch eine kompressiveNichtlinearität im Innenohrerzeugt: Für schmalbandigeSignale ist die dort angeregteSchwingung proportional zueiner Potenzreihe des Ein-gangssignals, wobei die drittePotenz zum kubischen Diffe-renzton führt. Allerdingswird diese Nichtlinearitätnormalerweise in der nach-folgenden Signalverarbeitungund durch kognitive Prozesse

im Gehirn weitgehend aus-geglichen. Bei natürlichen(breitbandigen) Signalenwerden die Verzerrungspro-dukte nämlich von den stär-keren Komponenten des Ein-gangs-Schallsignals bei derjeweiligen Frequenz verdeckt(„maskiert“), sodass sie un-hörbar sind. Dies führt zu-sammen mit anderen Effek-ten zu einer „effektivenLinearität“ unserer Schall-Wahrnehmung. Sie ist einewichtige Voraussetzung fürdas Trennen von überlager-ten akustischen „Objekten“und lässt uns zudem selbstkleinste Nichtlinearitäten imSchallsignal erkennen (z. B.den „Klirrfaktor“ der HiFi-Anlage kurz vor deren

Übersteuerung). Bei Innen-ohr-Störungen entfällt dieperiphere Dynamik-Kom-pression. Die auf einefunktionierende Kompres-sion eingestellte Signalver-arbeitung im Gehirn bleibtaber bestehen, sodass dasGesamtsystem „effektivnichtlinear“ wird [3]. Diesliefert eine Erklärungsmög-lichkeit für den gestörtenCocktail-Party-Effekt beiSchwerhörigen: Möglicher-weise interagieren bei der ge-störten Schallwahrnehmungdie verschiedenen akusti-schen Objekte nichtlinearmiteinander und können da-her nicht mehr so getrenntwerden wie bei Normal-hörenden.

Wie nichtlinear ist das Ohr?

Abb. 2: Das Ohr aus Sichtdes Medizinersbesteht (von linksnach rechts) ausdem Außenohr(Ohrmuschel,Gehörgang, Trom-melfell), demMittelohr (Pauken-höhle mit denGehörknöchelchenHammer, Amboss,Steigbügel), demInnenohr (Gehör-schnecke(Cochlea) mit derBasilarmembran)und dem Hörnervsowie dem hiernicht skizziertenzentralen auditori-schen System imGehirn (aus [18]).

Page 3: Cocktail-Partys und Hörgeräte: Biophysik des Gehörsmedi.uni-oldenburg.de/download/docs/paper/kollmeier_2002_biophysik... · mit dieser Thematik ist der „Cocktail-Party-Effekt“,

Überblick

In jedem Frequenzband, das zu einem bestimmten Ortauf der Basilarmembran gehört, überträgt der Hörnervnicht mehr die vollständige Feinstruktur mit der Pha-seninformation des Eingangssignals, sondern approxi-mativ seine Einhüllende, d. h. die langsamer schwan-kende momentane Schallintensität. Dabei wird einsehr großer Dynamikbereich von bis zu 120 dB Pegel-differenz zwischen Hörschwelle und Unbehaglichkeits-schwelle erreicht, obwohl jedes einzelne beteiligteNeuron nur maximal etwa 40 dB überdeckt. Die Me-chanismen der Adaptation (Anpassen der Empfindlich-keit eines Neurons an den gerade vorliegenden mittle-ren Eingangspegel) und der Umsetzung der Schall-intensität in einen subjektiven Lautheitseindruck sindnoch nicht abschließend geklärt. � Modulationsabbildung: Innerhalb jedes Frequenz-bandes wird die Signal-Einhüllende in verschiedeneAmplituden-Modulationsfrequenzen aufgespalten. Da-mit werden über sämtliche Frequenzen hinweg die ver-schiedenen Rhythmen des Eingangssignals, aber auchperiodische Zeitstrukturen (z. B. die Grundfrequenzbei Sprachlauten) systematisch auf benachbarte Ner-venzellen im Gehirn abgebildet. Diese zweidimensio-nale Abbildung (Mittenfrequenz versus Modulations-frequenz) wurde aufgrund von physiologischen Mes-sungen gefunden [6] und anhand psychoakustischerMessungen und Modelle bestätigt [7].� Binaurale (räumliche) Abbildung: Um den Ort bzw.die Einfallsrichtung einer Schallquelle zu ermitteln,wertet das Gehirn die zwischen beiden Ohren auftre-tende Laufzeit- und Pegeldifferenz aus und setzt sie ineine „innere Karte“ der akustischen Umwelt um. Dabeiwird eine Winkelauflösung von bis zu 1 Grad und eineZeitgenauigkeit von bis zu 20 ms erreicht – eine derphantastischsten Leistungen unseres Gehörs! (SieheInfokasten auf der folgenden Seite).

Modelle der „effektiven“ Signal-verarbeitung Aus Sicht der Physik möchte man vor allem die Ge-

setzmäßigkeiten und Mechanismen verstehen, die mög-lichst vielen der beobachtbaren Phänomene zugrundeliegen, während eine detaillierte Nachbildung jedereinzelnen Nervenzelle zunächst nicht im Vordergrundsteht. Ein wichtiges Anliegen der physikalischen Hör-forschung ist daher die Entwicklung von quantitativenHörmodellen, die mit einer möglichst kleinen Zahl vonAnnahmen und einzustellenden Parametern eine mög-lichst große Variationsbreite von Experimenten quanti-tativ vorhersagen und anhand „kritischer“ Experimentebestätigt oder falsifiziert werden können. Obwohl die-ser Modellansatz damit von vornherein starken Ein-schränkungen unterliegt, kann er unser derzeitigesWissen über die „effektive“ Verarbeitung akustischerInformation überprüfbar zusammenfassen und zu ei-nem funktionalen Verständnis des Hörvorgangs führen.

Der prinzipielle Aufbau eines derartigen Modells der„effektiven Verarbeitung“ im auditorischen System istin Abb. 4 dargestellt. Einige der Funktionsblöcke wur-den direkt aus physiologischen Erkenntnissen abgelei-tet. So wird z. B. die Funktion der Basilarmembran als„effektive“ Bank von Bandpassfiltern modelliert, die„effektive“ Funktion von Haarzellen und auditori-schem Nerv als Kompression und Einhüllendenbil-dung, die Funktionsprinzipien des Hirnstamms als Mo-dulations-Filterbank und binaurale Verarbeitung, undschließlich die Funktion des Kortex als Mustererken-

nung und Interpretation der „internen Repräsentation“des Schalls. Andere Funktionsblöcke (z. B. das interneRauschen) und die funktionelle Gestaltung und Para-meterwahl sämtlicher Blöcke stammen dagegen auspsychoakustischen Experimenten, zu deren Vorhersagedas Modell primär eingesetzt wird. Ebenso stammendie hypothetischen Funktionsstörungen, die bei einemsensorineuralen Hörverlust auftreten können (Stern-chen in Abb. 4), aus audiologischen Messungen mitschwerhörigen Patienten.

Um den prinzipiellen Rahmen des Modells in einkonkretes, numerisches Verarbeitungsmodell umzuset-zen, sind umfangreiche theoretische und experimentel-le Arbeiten notwendig. Typischerweise wird dem Mo-dell am Eingang dasselbe Signal präsentiert wie derVersuchsperson, etwa ein Ton, versteckt im Rauschen.Vor dem letzten Block des Modells bildet sich diesesEingangssignal zu jedem Zeitpunkt als mehrdimensio-nale Intensitätsverteilung von z. B. Frequenz, Modula-tionsfrequenz und binauraler Komponente ab. Aus derÄhnlichkeit des Musters mit einem zuvor gespeichertenMuster eines deutlich aus dem Rauschen herausragen-den Tones berechnet nun der zentrale Mustererkenner

Abb. 3:Das „Echo“ des Innenohrs. Angeboten werden im abgeschlosse-nen Gehörgang zwei Sinustöne bei den Frequenzen f1 und f2.Bei der Schallaufnahme mit einem empfindlichen Mikrofonerscheint im hier gezeigten gemittelten Spektrum bei gesundemGehör zusätzlich das kubische Verzerrungsprodukt bei 2f1–f2.

Abb. 4: Das Ohr aus Sicht des Physikers ist ein Modell der „effektiven“Verarbeitung im auditorischen System. Es ist durch eine Reihevon parallelen, linearen und nichtlinearen Signalverarbeitungs-Operationen gekennzeichnet, die die Transformation vom akus-tischen Signal in seine „interne Repräsentation“ im Gehirnbeschreiben. Diese Repräsentation dient unserem Gehirn alsBasis für höhere kognitive Leistungen wie das Verstehen vonSprache, wobei im Modell die Minderung dieser Leistungenallein durch die Unschärfe der internen Repräsentation ange-setzt wird. Mögliche Störungen dieser Repräsentation beiSchwerhörigkeit sind durch Sternchen gekennzeichnet.

Physik Journal1 (2002) Nr. 4 41

Page 4: Cocktail-Partys und Hörgeräte: Biophysik des Gehörsmedi.uni-oldenburg.de/download/docs/paper/kollmeier_2002_biophysik... · mit dieser Thematik ist der „Cocktail-Party-Effekt“,

Physik Journal1 (2002) Nr. 442

Überblick

die Wahrscheinlichkeit, dass der Ton von der Versuchs-person wahrgenommen wird. Diese Wahrnehmbarkeitwird dann mit Experimenten verglichen, bei denen dieVersuchsperson exakt dieselben Signale vorgespielt be-kommt und dieselbe Erkennungsaufgabe durchführtwie der Computer. Anschließend kann das Modelldurch die Vorhersage von Hörexperimenten mit vielenunterschiedlichen Signalen und Wahrnehmungsaufga-ben überprüft und iterativ verbessert werden [7].

Der Teil des Modells vor dem Mustererkenner ent-spricht beim Menschen der Verarbeitung eines akusti-schen Signals zu einer „internen Repräsentation“, etwaeinem neuronalen Erregungsmuster. Der kognitive Ap-parat, mit dem der Mensch solch ein Erregungsmusterinterpretiert, wird durch den Mustererkenner model-liert. Am Ende dieses Prozesses steht eine Aussage wie„Die Versuchsperson hört den Ton.“ Sie ermöglicht denVergleich von Theorie und Experiment. Dabei setzt je-de Forschungsgruppe unterschiedliche Schwerpunkteim Detaillierungsgrad einzelner Funktionsblöcke desModells und bei der Klasse von vorhersagbaren Experi-menten: � Das in München von Zwicker und Mitarbeitern ent-wickelte Lautheitsmodell [9] mit seinen Erweiterungenfür die Beschreibung von Schwerhörigkeit und Schall-fluktuationen beschreibt beispielsweise die primär vonder Schallintensität, dem Schallspektrum und derSchalldauer abhängige Lautheitswahrnehmung, wobeidie Blöcke „Modulationsfilterbank“, „Internes Rau-schen“ und „binaurale Störschallunterdrückung“ ausAbb. 4 entfallen.

� Das Boston-Modell zur binauralen Informations-verarbeitung von Colburn und Mitarbeitern beschreibtdagegen die verschiedenen Leistungen des binauralen(zweiohrigen) Hörens unter expliziter Modellierungvon Neuroneneigenschaften [10]. Andere binauraleFunktionsmodelle (z. B. das Bochumer Modell vonBlauert und Mitarbeitern [11]) benutzen nachrichten-technische Funktionselemente, um charakteristischeEigenschaften der binauralen Informationsverarbeitungim Gehirn funktionell zu modellieren.� Das Modell der Cambridge-Arbeitsgruppe um Patter-son und Meddis setzt dagegen Schwerpunkte bei derTonhöhenerkennung und dem Übergang von der Wahr-nehmung aperiodischer Vorgänge in periodische Vor-gänge mit zugehörigem „pitch“ [12]. � Das „Oldenburger Perzeptionsmodell“ legt einen be-sonderen Schwerpunkt auf die zeitlichen Eigenschaftender Signalverarbeitung im Gehör und bildet eine relativgroße Zahl von psychoakustischen Effekten quantitativnach. Es wurde zunächst am III. Physikalischen Insti-tut in Göttingen und ab 1993 im Graduiertenkolleg„Psychoakustik“ der Universität Oldenburg von Dau etal. [7] als Modell der „effektiven“ Signalverarbeitungim auditorischen System entwickelt, und auf die Vor-hersage von Sprachverständlichkeit bei Normal- undSchwerhörenden [13] sowie das binaurale Hören er-weitert. Das Modell basiert auf einer geringen Zahl vonAnnahmen und Parametern, die in wenigen, „kriti-schen“ Experimenten festgelegt und für die quantitativeBeschreibung anderer Experimente nicht mehr variiertwerden. Eine Stärke des Oldenburger Modells ist die„optimale“ Mustererkennung: Der Algorithmus desMustererkenners in Abb. 4 wird mithilfe empirischerDaten „geschult“. Auf diese Weise gehen Aspekte wieAufmerksamkeit und Lernen nicht mehr explizit in dieModellierung ein, weil der „optimale Detektor“ bereitsdie „interne Repräsentation“ des Schallsignals perfektinterpretiert. Die gesamte Ungenauigkeit des Hörvor-gangs wird auf die Nichtlinearität der Signalverarbei-tung und das interne, neuronale Rauschen bei derTransformation vom akustischen Signal bis hin zu derinternen Repräsentation reduziert. Dieses Vorgehenhat den entscheidenden Vorteil, dass man sich nur aufdenjenigen Teil der Wahrnehmungsleistungen be-schränkt, der reproduzierbaren psychophysikalischenExperimenten zugänglich ist und sich zudem mögli-cherweise physiologisch bestätigen lässt. Komplexepsychische Einflussfaktoren der menschlichen Wahr-nehmung akustischer Ereignisse werden in der Model-lierung dagegen nicht berücksichtigt.

Modellierung gestörter HörfunktionenEin möglichst quantitatives Verständnis der gestör-

ten Signalverarbeitung bei Schallempfindungs-Schwer-hörigkeit ist sowohl für die Hördiagnostik als auch fürdie optimale Rehabilitation, z. B. mit „intelligenten“Hörgeräten, unabdingbar. Wegen der Vielzahl der ge-störten Einzelleistungen bei Schwerhörigkeit ist es einebesondere Herausforderung, die ursächlichen oderprimären Defizite der Hör-Signalverarbeitung von dendaraus ableitbaren Defiziten anderer Hörfunktionen zutrennen. Im Rahmen des in Abb. 4 dargestellten Mo-dellschemas lassen sich nun die vier wichtigsten primä-ren Komponenten von Hörstörungen (Sterne in Abb. 4)wie folgt charakterisieren:1) Abschwächungswirkung des Hörschadens (lineareDämpfung): Eine Schallleitungs-Schwerhörigkeit oder

Während frühere Hörtheorien und Er-klärungen des Sprachverstehens vor-wiegend von einer spektralen Sicht-weise des Hörvorgangs ausgingen(z. B. Unterscheidung der Sprach-Vokale durch die Lage der spektralenMaxima/Formanten) und den zeit-lichen Aspekt der Hörwahrnehmungals sekundär ansahen, verhält es sichbei modernen Hörtheorien genau um-gekehrt: Das Ohr ist nicht nur dasschnellste Sinnessystem des Menschen,es kann auch die einem akustischenSignal aufgeprägte zeitliche Informati-on sehr genau verfolgen. So lassen sichzeitliche Lücken ab einer Dauer vonca. 5 ms in einem breitbandigen Signalsicher detektieren. Begrenzt wird dieZeitauflösung durch die Vor- undNachverdeckung, d. h. ein Testsignalkann ab ca. 10 ms vor und bis zu200 ms nach einem (lauteren) Maskie-rungssignal nicht mehr gehört werden.Das liegt an der Trägheit des zentralenHörsystems bei der Anpassung an ei-nen neuen Pegel.

Ein Beispiel gegen die rein spektraleSichtweise ist die Verständlichkeit von„flat-spectrum speech“ [8], d. h. von ge-filterter Sprache, deren Kurzzeitspek-tren ohne spektrale Information, alsoflach sind (Hörbeispiel 3). Ein anderesBeispiel für Sprachverstehen ohneintaktes Sprachspektrum ist Bandpass-gefilterte Sprache, die in einer spektra-len Lücke eines Rauschens dargebotenwird. Umgekehrt wird das Sprachver-stehen durch eine Veränderung der

Zeitstruktur stärker beeinträchtigt alsdurch eine spektrale Verformung: Sonimmt die Sprachverständlichkeit beiperiodisch unterbrochener Sprache abeiner bestimmten Unterbrechungsratesehr stark ab. Wenn in die zeitlichenLücken jedoch anstelle der Original-Sprache ein Rauschen mit festem Spek-trum gefüllt wird, ist die Zeitstrukturnur noch relativ wenig gestört und un-ser Gehirn ist in der Lage, die Sprach-information wieder zusammenzusetzen(Hörbeispiel 4): Das Abwechseln vonSprachsegmenten mit Rauschsegmentenhört sich wie stark verrauschte, konti-nuierliche Sprache an, d. h. durch Zu-fügen (!) von Rauschen wird die Spra-che „entstört“!

Die plausibelste Hörtheorie ist da-her eine Kombination der spektralenund zeitlichen Analyse im Sinne einer„Demodulation“ der in jedem Fre-quenzband vorhandenen Zeit-Informa-tion durch das Innenohr mit anschlie-ßender Einhüllenden-Analyse in Mo-dulationsfrequenzbändern im Gehirn.Besondere Bedeutung kommt dabeizeitlichen Merkmalen und Modulati-onsfrequenzen zu, die in mehrerenFrequenzbändern gleichzeitig auftre-ten. Dadurch ist das Ohr in der Lage,akustische „Objekte“ (zum BeispielSprache) auch bei sehr ungünstigemSignal-zu-Rausch-Verhältnis noch si-cher zu erkennen, bei dem das mittlereSprachspektrum schon vollständig ver-deckt ist.

Das Ohr als Spektralapparat oder als Zeit-Analysator?

Page 5: Cocktail-Partys und Hörgeräte: Biophysik des Gehörsmedi.uni-oldenburg.de/download/docs/paper/kollmeier_2002_biophysik... · mit dieser Thematik ist der „Cocktail-Party-Effekt“,

Physik Journal1 (2002) Nr. 4

Überblick

43

ein Ausfall der inneren Haarzellen führt vorwiegend zueiner Sensitivitäts-Verminderung, d. h. einer effektiven„Abschwächung“ des Schalls. Sie kann durch eine ent-sprechende lineare Verstärkung des Schalls kompen-siert werden. Dies bewirkt aber meistens keine zufrie-denstellende Wiederherstellung des Hörvermögens, so-dass weitere Komponenten betrachtet werden müssen.2) Kompressionsverlust: Ein Ausfall der äußeren Haar-zellen führt zusätzlich zur Abschwächung zu einer„Verzerrung“: Bei niedrigen Pegeln entfällt die aktiveVerstärkung, sodass sich der große Dynamikbereichder akustischen Eingangssignale nicht mehr vollständigim Gehirn abbilden lässt. Dies macht sich beim für diemeisten Innenohr-Schwerhörigen typischen „Recruit-ment“-Phänomen bemerkbar (Hörbeispiel 5), bei demnach dem subjektiven Eindruck „zu leise“ bei leichterErhöhung des Schallpegels bereits der Eindruck „zulaut“ folgt. Diese gestörte Lautheitswahrnehmung kanndurch eine Multiband-Dynamikkompression in moder-nen Hörgeräten nur teilweise kompensiert werden, daz. B. die Bandbreiten-Abhängigkeit der unterschiedli-chen Lautheitswahrnehmung bei Normal- und Schwer-hörigen nicht berücksichtigt wird. Die Entwicklungadäquater Lautheitsmodelle für Schwerhörige und ihreIntegration in Hörgeräte ist daher Gegenstand laufen-der Forschung [14].3) Binauraler Hörverlust: Normalhörende können diean beiden Ohren eintreffenden Signale im Gehirn ver-gleichen und durch binaurale (beidohrige) Signalverar-beitung den wahrnehmbaren Nachhall verringern undunerwünschte Schalleinfallsrichtungen ausblenden. BeiSchwerhörigen kann aber – weitgehend unabhängigvon den übrigen bisher genannten Faktoren der Hör-störung – genau diese binaurale Signalverarbeitunggestört sein. Dies bedingt u. a. die eingangs erwähnteStörung des „Cocktail-Party-Effektes“. In der derzeiti-gen Routine-Diagnostik und Hörgeräteversorgung mitunabhängigen Geräten auf beiden Seiten wird aller-dings dieser Faktor noch nicht berücksichtigt. Erst„echt“ binaurale Hörgeräte versprechen Abhilfe.4) Zentrale Hörstörung: Selbst bei nur gering gestörterSignalverarbeitung durch das Hörsystem kann beiSchwerhörigen die Auflösung der internen Repräsentati-on verringert sein, sodass die vom Gehör aufgenomme-nen und intern repräsentierten Schallsignale nicht mehradäquat ausgewertet und interpretiert werden können.Dieser Effekt lässt sich ebenso wie andere Unzuläng-lichkeiten der zentralen Auswerte-Einheit, z. B. geringeAufmerksamkeit, mangelndes Training, am ehestendurch ein erhöhtes „internes Rauschen“ modellieren.

Sämtliche der hier genannten Komponenten tragenbei dem individuellen Patienten in unterschiedlichemMaße zu der Hörstörung und beispielsweise zur Verrin-gerung des Sprachverstehens in Störgeräuschen bei.Daher ist es das Ziel aktueller Forschungsarbeiten, effi-ziente Messmethoden zu entwickeln, mit denen sich je-de der Komponenten erfassen lässt, sowie das Modellso anzupassen, dass es das jeweilige Hörvermögen je-des individuellen Patienten korrekt beschreibt [15].

Anwendungen des Perzeptionsmodells Unter der Voraussetzung, dass das oben beschriebe-

ne Perzeptionsmodell eine valide und objektive Be-schreibung der Transformation des akustischen Signalsin seine „interne Repräsentation“ im menschlichen Ge-hirn darstellt, erschließen sich eine Reihe von techni-schen Anwendungen:

� Signalkodierung: Die Bitraten-Reduktion bei derSpeicherung von Sprach- und Audiodaten, z. B. mitdem MP3-Verfahren, kodiert das akustische Signal so,dass möglichst geringe Abweichungen zwischen Origi-nal und dekodiertem Signal auf der „perzeptiven“ Ebe-ne am Ausgang des Hörmodells auftreten, obwohl die-se Signale auf der akustischen Ebene am Eingang desHörmodells sehr unterschiedlich sein können. Bei derstandardisierten MP3-Kodierung wird im Wesentlichendas von Zwicker vor mehreren Jahrzehnten entwickelteLautheits- und Maskierungsmodell verwendet, umunhörbare Signalbestandteile zu eliminieren und dasQuantisierungsrauschen hinter den hörbaren Kompo-nenten zu „verstecken“. � Signalqualitäts-Bewertung: Der Unterschied am Aus-gang des Hörmodells wird auch bei der objektiven Gü-te-Beurteilung von kodierten bzw. nichtlinear verarbei-teten Sprach- und Audiosignalen ausgewertet, die bis-

her nur subjektiv mit aufwändigen Hörexperimentenermittelt werden konnte. Beispielsweise lässt sich diewahrgenommene akustische Qualität einer Handy-Mobilfunkverbindung durch das Oldenburger Perzep-tionsmodell mit dem Computer vorhersagen (objekti-ver Parameter qc aufgetragen auf der Abszisse inAbb. 5). Der Vergleich mit dem subjektiven „Mean opi-nion score“ auf der Ordinate in Abb. 5 zeigt eine hoheTreffsicherheit der objektiven Vorhersage [16].� Sprach- und Mustererkennung: Dem Computer wer-den „Ohren verliehen“, indem nicht eine technischeDarstellung des Sprachsignals, sondern die „interneRepräsentation“ vom Ausgang des Gehörmodells alsEingangssignal für einen Spracherkennungs- bzw.Mustererkennungs-Algorithmus benutzt wird. DieRobustheit unseres Ohres gegenüber Störgeräuschenund Änderungen der Raumakustik soll damit auf denComputer übertragen werden: Abbildung 6 zeigt dieWorterkennungsrate in Prozent als Funktion des Signal-zu-Rausch-Verhältnisses. Bei der konventionellenSprachvorverarbeitung mit dem sog. MFCC-Verfahren(gestrichelte Linie) sinkt die Erkennungsrate mit zuneh-mendem Rauschen viel eher als bei der Sprachvorver-

Abb. 5: Sprachqualitäts-Vorhersage (aus [16]): Die Ordinate zeigt dassubjektive Qualitätsurteil einer Gruppe normalhörender Pro-banden (als mean opinion score, MOS) für eine Test-Datenbankvon verschiedenen Mobilfunk-Verbindungen. Die Abszisse zeigtdie Vorhersage dieser Daten auf der Basis des OldenburgerPerzeptionsmodells für verschiedene Kodierungsverfahren(Buchstaben). Die hohen Korrelations-Indices r und rs beiniedriger Standard-Abweichung (SD) zeigen eine gute objektiveVorhersage der subjektiven Ergebnisse an.

Page 6: Cocktail-Partys und Hörgeräte: Biophysik des Gehörsmedi.uni-oldenburg.de/download/docs/paper/kollmeier_2002_biophysik... · mit dieser Thematik ist der „Cocktail-Party-Effekt“,

Physik Journal1 (2002) Nr. 444

Überblick

arbeitung mit dem Oldenburger Perzeptionsmodell(durchgezogene Linie, aus [17]). Bei einer stark einge-schränkten Zahl von möglichen Alternativen des zu er-kennenden Wortes oder Satzes erreicht der Computersogar die Erkennungsleistung des menschlichen Gehörs– Anlass genug, das Gehörmodell in Zusammenarbeitmit der Informatik als Computer-Chip zu entwerfen(„Silicon Ear“).

� „Intelligente“ Hörgeräte: Ziel der Signal-Manipula-tionen im Hörgerät sollte es sein, den Unterschied der„internen Repräsentation“ am Ausgang des Hörmodellszwischen Normal- und Schwerhörigen zu minimieren.Dies setzt jedoch neben dem Modell für das normaleGehör auch ein Modell des gestörten Hörvermögensvoraus, das individuell angepasst wird. Obwohl inzwi-schen digitale Hörgeräte mit einem vergleichbarenKonzept auf dem Markt sind, ist dies noch ein Bereichaktueller Forschungs- und Entwicklungsarbeiten.

Intelligente Hörgeräte der ZukunftEin wichtiges Beispiel für die Umsetzung von

Hörmodellen in die Praxis ist die Störgeräuschunter-drückung in Hörgeräten, die möglichst zu einer Wie-derherstellung des „Cocktail-Party-Effektes“ beiSchwerhörigen führen soll und die Auswirkungen derreduzierten binauralen Interaktion und des erhöhteninternen Rauschens zumindest teilweise kompensierensoll. Obwohl eine für alle möglichen akustischen Stör-schall-Nutzschall-Konfigurationen wirksame Störunter-drückung auch für andere Anwendungen in derSprachkommunikation (z. B. automatische Spracher-

kennung) sehr erstrebenswert ist, zählt dies zu dengroßen, noch ungelösten Problemen der Akustik.

Einen vielversprechenden Ansatz bietet die Analysemit dem so genannten Amplituden-Modulations-Spek-trogramm (AMS), das in jedem Frequenzband die zeit-lichen Fluktuationen in verschiedene Modulations-Fre-quenzen zerlegt. Es entspricht der bereits in Abb. 4dargestellten Modellvorstellung, dass in jedem audito-rischen Frequenzband die zeitliche Einhüllenden-Struktur durch eine Modulations-Filterbank ausgewer-tet wird. In dieser Darstellung ist Sprache durch inmehreren Frequenzbändern vorhandene kohärenteModulationen im Modulationsfrequenzbereich von4 Hz (Silbenfrequenz) und mehreren hundert Hz(Sprachgrundfrequenz mit Harmonischen) gekenn-zeichnet. Störgeräusche weisen hingegen in der Regelweniger kohärente Modulationen und auch ein anderesModulationsspektrum auf, sodass sich diese Unter-schiede gut für die Störgeräuschunterdrückung ausnut-zen lassen. Der Vorteil dieses Verfahrens ist seineAnwendbarkeit auch für monaurale (einkanalige)Mikrofonsignale und für fluktuierende Hintergrund-geräusche (Hörbeispiel 6). Der Nachteil des Verfahrensist jedoch der hohe Rechenaufwand. Außerdem versagtes, wenn das Hintergrundgeräusch selbst Sprache (z. B.ein weiterer Sprecher) ist.

Daher bietet ein binaurales Verfahren Vorteile, beidem die Signale an beiden Ohren aufgenommen wer-den und in einer zentralen Recheneinheit so gefiltertwerden, dass die von vorn kommenden Signalanteile,d. h. der Nutzschall, verstärkt und der von anderenRichtungen kommende Störschall unterdrückt wird[18]. Damit wird das binaurale Hören gewissermaßensimuliert. Ein derartiges binaurales Hörgerät hat deut-liche Vorteile gegenüber zwei unabhängigen Hörgerä-ten auf beiden Seiten und erst recht gegenüber einemmonauralen Hörgerät. Ein binaurales Hörgerät ist zwarnoch nicht kommerziell, zusammen mit der FH Nürn-berg, der Uni Gießen und weiteren Partnern wurdeaber bereits ein tragbarer Prototyp entwickelt (Abb. 7und Hörbeispiel 7 für die Verarbeitungsleistung binau-raler Hörgeräte-Algorithmen). Für ein kommerziellesbinaurales Hörgerät ist jedoch eine drahtlose Verbin-dung zwischen den Geräten nötig, die wegen der erfor-derlichen Stromaufnahme noch eine große technologi-sche Herausforderung darstellt.

Wie wird die Entwicklung der Hörgeräte weiterge-hen? Es ist abzusehen, dass das Hörgerät nur noch ei-ne Option eines „Personal Communication Devices“der Zukunft darstellen wird, in dem Mensch-Maschine-und Mensch-Mensch-Kommunikationsfunktionen wieMP3-Player, Handy, Laptop und eben Hörgerät in ei-nem tragbaren und durch Sprachsteuerung bedienba-ren Gerät verschmelzen. Zukünftige Hörgeräte werdenzudem binaural sein und neben der modellgesteuertenDynamikkompression eine an die jeweilige Kommuni-kationssituation optimal angepasste Stör-Reduktionmit automatischer Programmwahl aufweisen.

Eine Verbesserung dieser für den audiologischenErfolg wichtigen Signalverarbeitungsleistungen vonHörgeräten ist u. a. Ziel des ab 1. Januar 2001 einge-richteten Oldenburger Kompetenzzentrums HörTech(www.hoertech.de), das zu den acht Gewinnern desBMBF-Wettbewerbs „Kompetenzzentren für die Medi-zintechnik“ zählt.

Abb. 6:Robuste Spracherkennung (aus [17]): Dargestellt ist die Wort-erkennungsrate eines künstlichen Spracherkenners unter Ruhe-bedingungen („clean“) und als Funktion des Signal-zu-Rausch-Verhältnisses für Sprache in Baustellenlärm für die konventio-nelle Sprachvorverarbeitung (MFCC, gestrichelte Linie) und fürdas Oldenburger Perzeptionsmodell (durchgezogene Linie).

Abb. 7:Digitales, binaura-les Prototyp-Hör-gerät, das imRahmen einesBMBF-Verbund-projekts zusammenmit der FH Nürn-berg und der Uni-versität Gießenentwickelt wurde.

Page 7: Cocktail-Partys und Hörgeräte: Biophysik des Gehörsmedi.uni-oldenburg.de/download/docs/paper/kollmeier_2002_biophysik... · mit dieser Thematik ist der „Cocktail-Party-Effekt“,

Physik Journal1 (2002) Nr. 4

Überblick

45

*Gefördert von der DFG, dem BMBF und dem Land

Niedersachsen. Herzlicher Dank allen Mitarbeiterin-nen und Mitarbeitern der Medizinischen Physik, Uni-versität Oldenburg.

Literatur[1] H. v. Helmholtz, Die Lehre von den Tonempfin-

dungen als physiologische Grundlage fuer dieTheorie der Musik, Vieweg, Braunschweig 1870

[2] G. Böhme und K. Welzl-Müller, Audiometrie. Hör-prüfungen im Erwachsenen- und Kindesalter,Ver-lag Hans Huber, Bern 1998.

[3] R.-P. Derleth, T. Dau und B. Kollmeier, HearingResearch 159, 132 (2001).

[4] S. Uppenkamp, J. Neumann, und B. Kollmeier,Hearing Research 78, 210 (1994).

[5] H. Zenner, Hören, Thieme, Stuttgart 1994.[6] C.E. Schreiner und G. Langner, Nature 388, 383

(1997)[7] T. Dau, B. Kollmeier und A. Kohlrausch, J. Acoust.

Soc. Am. 102, 2892 (1997).[8] M. R. Schroeder, Computer Speech: Recognition,

Compression, Synthesis, Springer, Berlin 1999.[9] E. Zwicker und H. Fastl, Psychoacoustics — Facts

and Models, Springer, Berlin 1990.[10] H. S. Colburn, in: Auditory Computation, Sprin-

ger, New York 1996, S. 332.[11] J. Blauert, Spatial Hearing, MIT Press, Cambridge

1997.[12] R. D. Patterson, M. Allerhand und C. Giguere,

J. Acoust. Soc. Am. 98, 1890 (1995) [13] I. Holube und B. Kollmeier, J. Acoust. Soc. Am.

100, 1703 (1996). [14] V. Hohmann und B. Kollmeier, in: Psychoacou-

stics, Speech and Hearing Aids, World Scientific,Singapore 1996, S. 193.

[15] J. Kießling, B. Kollmeier und G. Diller, Versorgungund Rehabilitation mit Hörgeräten, Thieme Verlag,Stuttgart 1997.

[16] M. Hansen und B. Kollmeier, J. Audio Eng. Soc.48, 395 (2000).

[17] J. Tchorz und B. Kollmeier, J. Acoustical Soc. Am.106, 2040 (1999).

[18] T. Wittkop et al., Acustica united with acta acusti-ca 83, 684 (1997)

Birger Kollmeier hat seit seiner Promo-tion in Physik und seinem Medizin-Stu-dium in Göttingen immer den Verdachterregt, weder Fisch noch Fleisch zu sein.Dazu trägt die Ausrichtung seiner Ar-beitsgebiete Hör-, Sprach- und Hirnfor-schung wesentlich bei. Obwohl er sichmit seiner Habilitation in Physik in Göt-tingen und seiner Berufung an die Uni-versität Oldenburg als Professor für An-gewandte Physik/Experimentalphysik eindeutig festlegte,ist sein Motto der Brückenschlag zwischen den Fächernund die Anwendungsorientierung geblieben: Mit der Abtei-lung Medizinische Physik, dem Europäischen Graduierten-kolleg Neurosensorik, dem An-Institut Hörzentrum Olden-burg GmbH und dem Kompetenzzentrum HörTech hat erinterdisziplinäre Strukturen aufgebaut, die er heute in Ol-denburg leitet. Ausgezeichnet wurde er u. a. mit dem Lo-thar-Cremer-Preis der Dt. Gesellschaft für Akustik unddem Forschungspreis Technische Kommunikation der Alca-tel-SEL-Stiftung. Sein Stolz gilt – neben den eigenen vierKindern – den bisher 25 „Doktorkindern“, die u. a. bei ca.70 % des Hörgeräte-Weltmarktes in der Entwicklung einewichtige Rolle spielen.

Der Autor