21.07.2013 Aufrufe

Deutsche Gesellschaft für Audiologie - Universität Oldenburg

Deutsche Gesellschaft für Audiologie - Universität Oldenburg

Deutsche Gesellschaft für Audiologie - Universität Oldenburg

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Deutsche</strong> <strong>Gesellschaft</strong> <strong>für</strong> <strong>Audiologie</strong><br />

<strong>Deutsche</strong> <strong>Gesellschaft</strong> <strong>für</strong> Medizinische Physik<br />

Österreichische <strong>Gesellschaft</strong> <strong>für</strong> Medizinische Physik<br />

Schweizerische <strong>Gesellschaft</strong> <strong>für</strong> Strahlenbiologie<br />

und Medizinische Physik<br />

XVII. Winterschule <strong>für</strong> Medizinische Physik<br />

Medizinische Akustik und <strong>Audiologie</strong><br />

Birger Kollmeier/<strong>Oldenburg</strong><br />

Pichl/Steiermark<br />

1. bis 6. März 2009


<strong>Deutsche</strong> <strong>Gesellschaft</strong> <strong>für</strong> <strong>Audiologie</strong><br />

<strong>Deutsche</strong> <strong>Gesellschaft</strong> <strong>für</strong> Medizinische Physik<br />

Österreichische <strong>Gesellschaft</strong> <strong>für</strong> Medizinische Physik<br />

Schweizerische <strong>Gesellschaft</strong> <strong>für</strong> Strahlenbiologie<br />

und Medizinische Physik<br />

XVII. Winterschule<br />

Pichl/Steiermark 1. bis 6. März 2009<br />

Kurs 1<br />

Medizinische Akustik und <strong>Audiologie</strong><br />

Prof. Dr. Dr. Birger Kollmeier<br />

2009<br />

1


Inhalt<br />

Liste der Referenten 3<br />

Kursprogramm 4<br />

Liste der Sponsoren 5<br />

Kurzfassungen der Vorträge<br />

1. Bau- und Raumakustik 7<br />

2. Elektroakustik 31<br />

3. Das periphere Hörorgan – Funktionsweise und Modellbildung 53<br />

4. Psychoakustik und Sprachperzeption bei Normal- und<br />

Schwerhörigen 63<br />

5. Hördiagnostik <strong>für</strong> die rehabilitative <strong>Audiologie</strong> 93<br />

6. Audiometrische Standardverfahren, Otoakustische Emissionen,<br />

Auditorisch evozierte Potentiale und Qualitätssicherung 103<br />

7. Physikalische Grundlagen der Akustik 121<br />

8. Akustische Messverfahren 141<br />

9. Signalverarbeitung <strong>für</strong> Hörhilfen und <strong>Audiologie</strong> 157<br />

10. Cochlea-Implantate 167<br />

11. Implantierbare Hörgeräte 179<br />

12. Versorgung und Rehabilitation mit technischen Hörhilfen 187<br />

Anhang: Numerische Akustik 201<br />

2


Referenten<br />

Prof. Dr. Matthias Blau, FH <strong>Oldenburg</strong>-Ostfriesland-Wilhelmshaven, Institut <strong>für</strong> Hörtechnik<br />

und <strong>Audiologie</strong> Haus des Hörens, Marie-Curie-Straße 2, 26129 <strong>Oldenburg</strong><br />

Dr. Dipl. Inform. Andreas Büchner, Hörzentrum Hannover an der MHH,<br />

Wissenschaftlicher Leiter, Karl-Wiechert-Allee 3, 30625 Hannover<br />

Prof. Dr. Norbert Dillier, Labor <strong>für</strong> experimentelle <strong>Audiologie</strong>, <strong>Universität</strong>s-Spital Zürich,<br />

Ch-8091 Zürich<br />

Dr.-Ing. Janina Fels, Institut <strong>für</strong> Technische Akustik, RWTH Aachen<br />

52056 Aachen<br />

Prof. Dr.-Ing. Herbert Hudde, Institut <strong>für</strong> Kommunikationsakustik, Ruhr-<strong>Universität</strong> Bochum<br />

44780 Bochum<br />

Prof. Dr.-Ing. Thomas Janssen, HNO-Klinik der Technischen <strong>Universität</strong>,<br />

Experimentelle OtoRhino, Ismaningerstr. 22, 81675 München<br />

Prof. Dr. Jürgen Kießling, <strong>Universität</strong>sklinikum Gießen und Marburg GmbH,<br />

Funktionsbereich <strong>Audiologie</strong>, Klinikstraße 29, 35385 Gießen<br />

Prof. Dr. Dr. Birger Kollmeier, Fakultät V/Institut <strong>für</strong> Physik, Abt. Medizinische Physik,<br />

<strong>Universität</strong> <strong>Oldenburg</strong>, Carl-von-Ossietzky-Straße 9-11, 26129 <strong>Oldenburg</strong><br />

Prof. Dr. Thomas Lenarz, Medizinische Hochschule Hannover, Direktor der Klinik<br />

und Poliklinik <strong>für</strong> Hals-Nasen-Ohrenheilkunde, Carl-Neuberg-Straße 1, 30625 Hannover<br />

Dr.-Ing. Klaus Welker ehem. Radiolog. Klinik, Krankenhaus Berlin-Moabit<br />

Teplitzerstr.12, 14193 Berlin<br />

3


Kursprogramm<br />

Sonntag : Anreise<br />

19.00 Empfang im Pichlmayrgut & Begrüßung (B. Kollmeier, R. Weise)<br />

Montag: Grundlagen der Kommunikationsakustik und Signalverarbeitung<br />

08.00 – 08.45 Bau- und Raumakustik Fels<br />

08.45 - 09.30 Binauraltechnik und virtuelle Akustik Fels<br />

09.30 – 10.00 Pause<br />

10.00 – 11.30 Elektroakustik Hudde<br />

16.30 – 18.00 Modelle von Außen-, Mittel- und Innenohr Hudde<br />

20.30 – 21:30 Abendveranstaltung: Akustische Täuschungen und<br />

ihr Bezug zur Hörtheorie Kollmeier<br />

Dienstag: Hördiagnostik<br />

08.00 – 09.30 Psychoakustik und Sprachperzeption bei Normal- und Schwerhörigen Kollmeier<br />

09.30 – 10.00 Pause<br />

10.00 – 10.45 Hördiagnostik <strong>für</strong> die rehabilitative <strong>Audiologie</strong> Kollmeier<br />

10.45 – 11.30 Audiometrische Standardverfahren, Qualitätssicherung<br />

in der Hördiagnostik Janssen<br />

16.30 – 18.00 Otoakustische Emissionen und auditorisch evozierte Potentiale Janssen<br />

Mittwoch : Akustische und physiologische Grundlagen<br />

08.00 – 09.30 Physikalische Grundlagen der Akustik Blau<br />

09.30 – 10.00 Pause<br />

10.00 – 10.45 Numerische Methoden in der Akustik Blau<br />

10.45 – 11.30 Akustische Messverfahren Blau<br />

16.30 – 18.00 Signalverarbeitung <strong>für</strong> Hörhilfen und <strong>Audiologie</strong> Dillier<br />

Donnerstag: Rehabilitative <strong>Audiologie</strong> & Anwendungen<br />

08.00 – 09.30 Cochlea-Implantate und Implantierbare Hörgeräte Dillier<br />

09.30 – 10.00 Pause<br />

10.00 – 11.30 Aktuelle Entwicklungen implantierbarer Hörsysteme Büchner<br />

16.30 – 18.00 Versorgung und Rehabilitation mit technischen Hörhilfen Kiessling<br />

20.30 – 21.30 Ausbildungen und Berufsfelder in der <strong>Audiologie</strong> und<br />

Medizinischen Physik Kiessling/<br />

Welker/ Lenarz<br />

Freitag: Praxis + Abschluß<br />

08.00 – 09.30 Kurzvortrag/ Einführung in die Praxisphase von 4 Firmen<br />

• Standard-Audiometrie (Innoforce, C. Wille)<br />

• Computergestützte Verfahren (HörTech, Michael Buschermöhle)<br />

• Hörgeräte (Phonak, S. Kalis)<br />

• Cochlear Implantate und implantierbare Hörgeräte (Med-El, Marcus Schmidt)<br />

10.00 –10.45 Praxisphase I: Teilnehmer verteilt in 4 Kleingruppen führen praktische Demonstrationen<br />

bei den vier Stationen durch<br />

10.45 –11.30 Praxisphase II<br />

11.30 – 12.15 Praxisphase III<br />

12.15 – 12.45 Praxisphase IV<br />

Ausgabe der Teilnahmebescheinigungen: Kollmeier, Welker<br />

4


Sennheiser AG,<br />

Am Labor 1, 30900 Wedemark 2<br />

Sponsoren<br />

Die Winterschule wird unterstützt von den Firmen:<br />

Cochlear AG Basel<br />

Margarethenstraße 47, CH-4053 Basel, Schweiz<br />

Phonak AG, Laubisrütistraße 28, CH-Stäfa, Schweiz<br />

Widex Hörgeräte GmbH, Albstadtweg 6, 70567 Stuttgart<br />

5


1 Raumakustik<br />

Bau- und Raumakustik<br />

Janina Fels / Aachen<br />

1.1 Einleitung<br />

Es ist eine allgemeine Erfahrung, dass man in manchen Sälen die Sprachverständlichkeit<br />

sehr gut ist, in anderen dagegen nicht. Sieht man davon ab, wie deutlich<br />

der Redner spricht und wie laut der Lärmpegel ist, so bleibt noch ein sehr erheblicher<br />

Einfluss des Raumes auf die Sprachverständlichkeit aufgrund seiner akustischen<br />

Eigenschaften, oder wie man oft kurz sagt, aufgrund seiner Akustik.<br />

Ähnlich liegen die Dinge in einem Opernhaus oder in einem Konzertsaal. Auch<br />

hier gibt es Beispiele <strong>für</strong> gute oder schlechte Akustik. Wir erwarten in einem Konzertsaal<br />

einen schönen, runden, räumlich wirkenden Orchesterklang als ein Ganzes,<br />

und es ist die Aufgabe der Raumakustik herauszufinden, was das eigentlich<br />

bedeutet und mit welchen greifbaren physikalischen Sachverhalten dies korreliert.<br />

Auch in einem Arbeitsraum, in einer Fabrikhalle oder einem Großraumbüro hängt<br />

der Lärmpegel von der Art und der Leistung der Schallquelle ab, zu einem erheblichen<br />

Teil aber auch davon, was der Raum aufgrund seiner akustischen Eigenschaften<br />

daraus macht.<br />

Die Aufgabe der Raumakustik ist also zum Teil physikalischer Art, nämlich aus<br />

den baulichen Daten, also aus den Abmessungen, den verwendeten Materialien,<br />

der Anordnung des Publikums usw. das Schallfeld im Raum zu ermitteln. Zum anderen<br />

hat sie zu quantifizieren, welche objektiven Schallfelddaten oder Schallfeldparameter<br />

<strong>für</strong> gute oder weniger gute Hörbedingungen an den einzelnen Zuhörerplätzen<br />

verantwortlich sind. Der zweite Teil der Aufgabe ist nur durch Befragungen<br />

von Zuhörern oder durch systematische Hörversuche zu lösen. Schließlich werden<br />

von dem Raumakustiker - gewissermaßen durch Rückverfolgung dieser Aufgabenkette<br />

- Auskünfte darüber erwartet, wie ein Raum baulich gestaltet werden<br />

muss, bzw. welche Änderungen an einem geplanten oder existierenden Raum<br />

vorgenommen werden müssen, um die akustischen Erwartungen der Zuhörer zu<br />

erfüllen.<br />

1.2 Nachhall und Nachhallzeit<br />

Die physikalisch einwandfreie Beschreibung räumlicher Schallfelder geht von der<br />

Wellengleichung aus, deren Lösungen den durch Lage und Beschaffenheit der<br />

Wände bestimmten Randbedingungen anzupassen sind. Sie muss <strong>für</strong> praktische<br />

Zwecke ausscheiden, da sie auch mit den heutigen Mitteln rechnerisch nicht zu<br />

bewältigen ist und überdies weit mehr Informationen liefern würde, als <strong>für</strong> die akustische<br />

Beurteilung eines Raumes sinnvoll wäre. Eine <strong>für</strong> die raumakustische<br />

7


Praxis wesentlich brauchbarere Beschreibung geht im einfachsten Fall von einer<br />

Energiebilanz aus. Dem zufolge ist die zeitliche Energieänderung in einem Raum<br />

mit dem Volumen V gegeben durch die Leistung P der Schallquelle, vermindert<br />

um die Energie, die pro Zeit- und Flächeneinheit an der Raumwand absorbiert<br />

wird:<br />

dw<br />

cS<br />

V = P − α ⋅ w<br />

dt<br />

4<br />

Gl. 1-1<br />

Es ist w die Schallenergiedichte, c die Schallgeschwindigkeit, S die gesamte<br />

Wandfläche; α ist der Absorptionsgrad der Wände, definiert als das Verhältnis der<br />

nicht reflektierten Energie zur einfallenden Energie; Überstreichung kennzeichnet<br />

den gewogenen Mittelwert über alle Wandteile.<br />

Für dw/dt = P = const. ist die stationäre Energiedichte w und der Schalldruckpegel<br />

L wird:<br />

bzw.<br />

4P<br />

4P<br />

w = =<br />

cSα<br />

cA<br />

~ 2<br />

p w 4P<br />

L = 10 log = 10 log = 10 log , w<br />

p w cA w<br />

2<br />

0<br />

0<br />

0<br />

0<br />

= 3,<br />

4 ⋅10<br />

−10<br />

J/m<br />

3<br />

Gl. 1-2<br />

Gl. 1-3<br />

Die Größe A = Sα wird als äquivalente Absorptionsfläche bezeichnet. Sie ist eine<br />

ebenfalls wichtige Grundgröße der Bauakustik (s. Abschn. 2.2). Dagegen lautet<br />

die Lösung der Differentialgleichung (Gl. 1-1) <strong>für</strong> P = 0:<br />

⎛ cS ⎞<br />

w( t)<br />

= w0<br />

exp⎜<br />

αt<br />

⎟<br />

⎝ 4 ⎠<br />

Gl. 1-4<br />

(w0 = Anfangswert der Energiedichte zur Zeit t = 0.) Die obigen Überlegungen gelten<br />

aber nur <strong>für</strong> den Fall des „diffusen Schallfelds“, in dem alle Raumrichtungen<br />

(im Mittel) gleichermaßen an der Schallausbreitung beteiligt sind. In der Praxis ist<br />

die Voraussetzung oft nur näherungsweise erfüllt, wenn überhaupt. Erfahrungsgemäß<br />

gilt Gl. 1-4 auch dann einigermaßen, nicht aber die Gl. 1-2. Zur Berechnung<br />

des Lärmpegels in einem großen oder flachen oder langen Arbeitsraum<br />

muss man daher die Gl. 1-2 durch eine genauere Berechnungsmethode ersetzen.<br />

Das ist <strong>für</strong> die Raumakustik besonders wichtig, da die Dauer des durch Gl. 1-4 beschriebenen<br />

Abklingvorgangs, d.h. des so genannten Nachhalls, bei den verschiedenen<br />

Frequenzen die wichtigste akustische Kenngröße eines Raumes darstellt.<br />

Man kennzeichnet sie durch die „Nachhallzeit“ T. Das ist die Zeit, in der die<br />

Energiedichte auf das 10 -6 -fache ihres Anfangswertes (um 60 dB) abgesunken ist.<br />

Sie ergibt sich aus Gl. 1-4 nach Einsetzen der Konstanten und Näherung <strong>für</strong> kleine<br />

mittlere Absorptionsgrade zu<br />

⎛ s ⎞ V ⎛ s ⎞ V<br />

T = ⎜0,<br />

16 ⎟ ⋅ = ⎜0,<br />

16 ⎟ ⋅<br />

⎝<br />

m<br />

⎠ Sα<br />

⎝<br />

m<br />

⎠ A<br />

8<br />

Gl. 1-5


Diese Formel erlaubt bei bekannten Raumdaten eine meist hinreichend genaue<br />

Berechnung der Nachhallzeit.<br />

Der Sprachverständlichkeit sind lange Nachhallzeiten grundsätzlich abträglich, da<br />

der Nachhall die Tendenz hat, die zeitliche und spektrale Struktur der Sprachlaute<br />

und der Silben zu verwischen. Da Räume mit völlig fehlendem Nachhall aber nur<br />

mit großem Kostenaufwand zu realisieren sind und auch andere Nachteile haben,<br />

gilt im Sinne eines Kompromisses eine Nachhallzeit von 0,6 s bis 1 s als optimal<br />

<strong>für</strong> Vortrags- oder Hörsäle, <strong>für</strong> Sitzungssäle usw. Bei Sprechtheatern lässt man in<br />

der Regel Nachhallzeiten bis etwa 1,2 s zu. Für die Sprachverständlichkeit ist weiterhin<br />

vorteilhaft, wenn die Nachhallzeit bei tiefen Frequenzen eher noch niedriger<br />

ist als im mittleren Frequenzbereich.<br />

Günstige Bereiche der Nachhallzeit<br />

Art der Darbietung mittlere Nachhallzeit in s<br />

Sprache (Hörsaal, Sitzungsraum) < 1<br />

Sprechtheater 1,0 - 1,2<br />

Konzertsaal 1,7 - 2,1<br />

Oper 1,0 - 1,8<br />

1.3 Weitere raumakustische Kenngrößen<br />

Eine einigermaßen korrekte Nachhallzeit ist zwar ein notwendiges, nicht aber ein<br />

hinreichendes Kriterium <strong>für</strong> gute Akustik. Außerdem charakterisiert sie eine allgemeine<br />

akustische Eigenschaft des Raumes, nicht aber die meist unterschiedlichen<br />

Hörbedingungen an verschiedenen Zuhörerplätzen. Weitere charakteristische Parameter<br />

lassen sich auf der Grundlage der so genannten Raumimpulsantwort gewinnen.<br />

Hierunter versteht man das Signal, das an einem Empfangsort auftritt,<br />

wenn der Schallsender einen sehr kurzen Impuls aussendet (s. Bild). In diesem<br />

Diagramm kennzeichnet die erste Spitze den so genannten Direktschall, das ist<br />

der Schallanteil, der sich auf dem kürzesten Weg von dem Schallsender zum<br />

Empfänger ausbreitet. Alle anderen Spitzen kennzeichnen nach Lage und Höhe<br />

den Beitrag der Schallanteile, die an der Decke und den Wänden des Raumes<br />

einmal, zweimal oder noch öfter reflektiert worden sind.<br />

Da bei werden diese<br />

Anteile nach Maßgabe<br />

des Absorptionsgrads<br />

der betreffenden<br />

Wandteile abgeschwächt;<br />

eine weitere<br />

Abschwächung und<br />

außerdem eine mehr<br />

oder weniger große<br />

Verzögerung gegen-<br />

Energie<br />

a) Direktschall<br />

b) frühe Reflexionen<br />

9<br />

c) Nachhallbereich<br />

Zeit


über dem Direktschall ergibt sich daraus, dass diese reflektierten Schallanteile<br />

größere Wege zurückzulegen haben.<br />

Hinsichtlich ihrer subjektiven Wirkung kann man im Allgemeinen in einer Raumimpulsantwort<br />

nach dem Bild drei Teile unterscheiden: Zum einen den Direktschall<br />

(a), der nach dem Gesetz der ersten Wellenfront die Richtung bestimmt, aus dem<br />

das Schallereignis gehört wird. Der zweite Bereich (b) umfasst die wenig verzögerten,<br />

noch weitgehend getrennt eintreffenden frühen Reflexionen. Schließlich folgen<br />

in immer kürzeren Abständen die zahlreichen schwächeren und länger verzögerten<br />

Reflexionen, die den eigentlichen Nachhall ausmachen (c). Da der letztere<br />

durch die Nachhallzeit meist ausreichend charakterisiert ist, sind die <strong>für</strong> eine bestimmte<br />

Hörposition im Raum maßgebenden und über die Nachhallzeit hinausgehenden<br />

akustischen Kennzeichen in dem zwischen 0 und 80 ms liegenden Bereich<br />

zu suchen.<br />

Die Bemühungen der Raumakustiker konzentrierten sich in der zurückliegenden<br />

Zeit darauf, aus solchen gemessenen oder auch vorausberechneten Impulsantworten<br />

Parameter abzuleiten, welche - ergänzend zur Nachhallzeit - die akustische<br />

Qualität eines Saales oder auch nur bestimmter Plätze oder Platzgruppen in<br />

ihm kennzeichnen. Stellvertretend <strong>für</strong> viele andere sei hier die „Deutlichkeit“ erwähnt,<br />

die als Maß <strong>für</strong> die Verständlichkeit von Sprache oder der Durchsichtigkeit<br />

von Musikdarbietungen dienen kann. Sie ist durch<br />

D<br />

=<br />

50ms<br />

∫<br />

∫<br />

0<br />

∞<br />

0<br />

()<br />

Et<br />

()<br />

Et<br />

dt<br />

dt<br />

Gl. 1-6<br />

definiert. Dabei kennzeichnet E(t) die Energie in der Impulsantwort, die zur Zeit t<br />

am Empfangsort eintrifft. Dieser Definition liegt die Erkenntnis zugrunde, dass die<br />

um weniger als 50 ms gegenüber dem Direktschall verzögerten Schallreflexionen<br />

subjektiv dem Direktschall zugeschlagen werden, also dessen Lautstärke zu erhöhen<br />

scheinen. Diese Bestandteile der Impulsantwort werden daher oft als „nützliche<br />

Reflexionen“ bezeichnet. Eine weitere, besonders <strong>für</strong> Konzertsäle wichtige Erkenntnis<br />

ist, dass die Richtungsverteilung der im Zeitbereich zwischen 0 und etwa<br />

80 ms beim Hörer eintreffenden Reflexionen <strong>für</strong> den subjektiven Räumlichkeitseindruck<br />

maßgebend ist, der ein wesentliches Qualitätsmerkmal ist. Aufgrund entsprechender<br />

psychoakustischer Untersuchungen lässt sich dieser durch den so<br />

genannten „Seitenschallgrad“ gut kennzeichnen:<br />

LF<br />

80ms<br />

∫<br />

E(<br />

t)<br />

cos<br />

5ms<br />

= 80ms<br />

∫<br />

0<br />

2<br />

E(<br />

t)<br />

dt<br />

Θdt<br />

Gl. 1-7<br />

Hierin ist E die Energie der Reflexionen und Θ der Winkel, den Einfallsrichtung mit<br />

einer durch die beiden Ohren des Zuhörers gelegten Achse bildet. Die Integrale<br />

10


sind über alle Reflexionen einschließlich des Direktschalls mit Verzögerungszeiten<br />

von weniger als 80 ms zu erstrecken.<br />

Die Ergebnisse zahlreicher, von verschiedenen Forschern und Forschergruppen<br />

durchgeführter psychoakustischer Untersuchungen lassen sich dahingehend zusammenfassen,<br />

dass bei Sälen, die <strong>für</strong> irgendwelche akustischen Darbietungen<br />

bestimmt sind, die Nachhallzeit nach wie vor an erster Stelle unter den objektiven<br />

raumakustischen Kriterien zu sehen ist. Welche weiteren Kriterien von Bedeutung<br />

sind, hängt in erster Linie von der Art der Darbietung (Sprache oder Musik) ab.<br />

1.4 Schallabsorption und Schallabsorber<br />

Für die Schallabsorption an Wänden gibt es im Wesentlichen zwei Ursachen: die<br />

Bewegung von Luft in Poren des Wandmaterials (Verluste durch Reibung) und<br />

das Mitschwingen von Wänden im Schallfeld.<br />

1.4.1 Poröse Absorptionsmaterialien<br />

Der <strong>für</strong> das Absorptionsvermögen eines porösen Materials (Watte, Glaswolle, Filz<br />

u.ä.) charakteristische längenspezifische, äußere Strömungswiderstand Ξ wird<br />

durch einen Versuch mit konstanter Luftströmung gemäß folgender Formel bestimmt:<br />

− Δp = Ξ ⋅Δx⋅v a<br />

wobei va die äußere Strömungsgeschwindigkeit ist. Im Inneren einer Probe<br />

herrscht die um 1/σ vergrößerte Strömungsgeschwindigkeit vi, da sich die Stromlinien<br />

auf den kleineren Porenquerschnitt zusammenziehen müssen (σ = Porosität<br />

< 1):<br />

Noppenschaumstoff zur Auskleidung<br />

von Raumbereichen<br />

Steinwolle <strong>für</strong> raum- und<br />

bauakustische Zwecke<br />

Da in praktischen Fällen das poröse Material sich meist als Schicht endlicher Dicke<br />

vor einer starren Wand befindet, wird ein Teil der eindringenden Wellen an<br />

dieser reflektiert und interferiert an der Grenzfläche mit der auftreffenden Welle.<br />

Dadurch ergeben sich häufig Schwankungen des Absorptionsgrades bei Variation<br />

der Frequenz. Eine merkliche Absorption wird erst erreicht, wenn der erste<br />

Schnellebauch der stehenden Welle vor der Wand im porösen Material liegt, dieses<br />

somit mindestens λ/4 dick ist. Man spart also Absorptionsmaterial, wenn man<br />

11


dieses nicht direkt auf die Wand bringt, sondern dahinter einen Zwischenraum frei<br />

lässt.<br />

1.4.2 Resonanzabsorber<br />

Fällt eine Schallwelle auf eine bewegliche Wand, so wird diese im Allgemeinen<br />

zum Schwingen angeregt. Zugleich wird auf der abgewandten Seite eine Schallwelle<br />

abgestrahlt. Ist m’’ die Flächenmasse der Wand (in kg/m 2 ), dann ist ihr Absorptionsgrad<br />

bei senkrechtem Schalleinfall<br />

1<br />

α =<br />

⎛ ωm'<br />

' ⎞<br />

1+<br />

⎜<br />

2 ⎟<br />

⎝ ρ 0c<br />

⎠<br />

2<br />

Er fällt mit wachsender Frequenz monoton ab - eine Folge der Massenträgheit. In<br />

der Praxis macht sich diese Art der Absorption nur bei dünnen Wänden (Fensterscheiben,<br />

Folien) bemerkbar und auch da nur bei tiefen Frequenzen. Wichtiger ist<br />

dagegen die Absorption einer schwingungsfähigen Wand, die im Abstand d vor<br />

einer schallharten Wand montiert ist. Der Luftraum der Dicke d wirkt wie eine Feder<br />

mit der flächenbezogenen Nachgiebigkeit<br />

d<br />

n''<br />

=<br />

ρ c<br />

0<br />

2<br />

Bei der Frequenz<br />

f<br />

0<br />

=<br />

1<br />

2π<br />

1<br />

=<br />

m''<br />

n''<br />

1<br />

2π<br />

ρ c<br />

0<br />

2<br />

m''<br />

d<br />

wird die Schwingungsamplitude sehr groß, und unvermeidbare Verluste z.B. durch<br />

Biegung der Verkleidung (elastische Verluste) bilden einen Absorptionsmechanismus.<br />

Um eine höhere Absorption zu erhalten, kann man den Hohlraum zusätzlich<br />

ganz oder teilweise mit porösem Material mit der Verlustkonstante w (Reibungswiderstand)<br />

füllen. Derartige Resonanzabsorber spielen in der Raumakustik<br />

eine große Rolle, da man mit ihnen durch geeignete Dimensionierung Wände mit<br />

weitgehend vorgebbarer Absorption herstellen kann. Auch <strong>für</strong> Loch- oder Schlitzplatten<br />

kann man eine effektive mitschwingende Masse m’’ berechnen. Diese<br />

Masse entspricht der Masse der Luft in den Löchern.<br />

ρ0<br />

m'' = 6<br />

σ<br />

( b + 1,<br />

a)<br />

12


Plattenresonator Loch- / Schlitzabsorber Helmholtz-Resonator<br />

Hierin ist b die Plattendicke, a der Radius der als kreisförmig angenommenen Löcher<br />

und σ der „Perforationsgrad“, d.h. der Bruchteil der Öffnungsfläche an der<br />

Gesamtfläche. Durch starke Perforation lassen sich also auch Schichten mit kleinen<br />

Flächenmassen herstellen, die zusammen mit einer porösen Schicht einen<br />

Resonator mit relativ hoher Resonanzfrequenz und wenig ausgeprägter Resonanz<br />

ergeben. Daher eignen sich dünne, hochperforierte Platten aus Blech, Gips oder<br />

Holz zur Abdeckung von Schluckstoffschichten (Mineralwolle oder ähnliche Stoffe),<br />

was praktisch aus Gründen des Berührungsschutzes, aber auch eines besseren<br />

Aussehens erforderlich ist. Diese Form findet oft Anwendung als sog. „Akustik-<br />

Decke“. Dies ist typischerweise folgender Aufbau (von oben gesehen): massive<br />

Rohdecke - Luftraum - Mineralwolle - Lochplatte.<br />

Frontplatte mit Speziallochmuster<br />

In der Vergangenheit fanden ebenfalls so genannte mikroperforierte Absorber zunehmend<br />

Beachtung. Diese bestehen aus einer Folie (z.B. transparenter Kunststoff)<br />

oder Platte (z.B. Acrylglas) mit sehr kleinen Löchern (d = 0,05 – 0,5 mm). In<br />

Abhängigkeit der Anwendung ist der Lochungsgrad im Bereich von 0,5 – 2 %. Bei<br />

solchen Anordnungen ist die Absorption hauptsächlich auf die viskose Reibung<br />

der Luftmoleküle an den Wänden der Mikro-Lochung zurückzuführen. Da mikroperforierte<br />

Absorber auch aus transparentem Material hergestellt werden können<br />

finden sie oft in Situationen Einsatz, in denen aus ästhetischen Gründen die Nutzung<br />

anderer Absorptionsmechanismen unerwünscht ist.<br />

13


2 Bauakustik<br />

2.1 Einleitung<br />

Die Bauakustik beschäftigt sich mit der Schall- und Schwingungsausbreitung in<br />

Gebäuden sowie mit der Beurteilung des Schallschutzes in Gebäuden. Dabei ist<br />

Luftschall und Körperschall hinsichtlich der Anregung und der Fortpflanzung in<br />

Gebäude zu unterscheiden. Beispielsweise würde eine laut eingestellte Hifi-<br />

Anlage zunächst Luftschall im „Senderaum“ abstrahlen. Die Schallübertragung in<br />

den sog. „Empfangsraum“, der ein schutzbedürftiger Raum im Sinne des baulichen<br />

Lärmschutzes sein kann (z.B. ein Schlafzimmer in fremdem Wohnbereich)<br />

erfolgt dann über vielfältige Wege, z.B. als Luftschall über Lüftungskanäle, als<br />

Körperschall direkt über die Trennwand oder als Umwandlungen von Luft- in Körperschall<br />

und umgekehrt. Körperschall, der durch Gehen auf Decken erzeugt wird,<br />

nennt man „Trittschall“. Ebenfalls von Interesse ist Körperschall aus haustechnischen<br />

Anlagen (Frisch- und Abwasserinstallation, Klimaanlagen, etc.) sowie die<br />

Schalldämmung gegen Außenlärm (Industrielärm, Straßen- und Luftverkehrslärm).<br />

2.2 Luftschalldämmung<br />

Eine wichtige Größe ist das Schalldämmmaß R = -10log τ mit dem Transmissionsgrad<br />

τ = Id/I0. In der Praxis werden die einfallende und die durchgelassene Schallintensität<br />

allerdings nicht unmittelbar gemessen, sondern die Messung des Schalldämmmaßes<br />

erfolgt zwischen zwei Räumen mit einem indirekten Verfahren. Dann<br />

gilt:<br />

R S E<br />

= L − L + 10log<br />

S / A<br />

Gl. 2-1<br />

(LS = Senderaum-Schalldruckpegel, LE = Empfangsraum-Schalldruckpegel, S =<br />

Trennbauteilfläche, A = äquivalente Absorptionsfläche des Empfangsraumes)<br />

L S<br />

L E<br />

Messungen dieser Art werden in Gebäuden durchgeführt, um festzustellen, ob der<br />

gesetzlich vorgeschriebene Mindestschallschutz gewährleistet ist. Andererseits<br />

gibt es Labor-Prüfverfahren, die auf ähnlichen messtechnischen Grundlagen stehen<br />

und die dazu dienen, die Schalldämmung von Bauteilen oder Baukonstruktio-<br />

14<br />

I o<br />

Ir<br />

Iw<br />

Id


nen zu ermitteln. Letztere Daten können verwendet werden, um bereits bei der<br />

Planung von Bauten die schalltechnische Eignung nachzuweisen.<br />

Der wesentliche physikalische Unterschied<br />

dieser beiden Betrachtungsweisen<br />

liegt in der Tatsache, dass im Prüfstand<br />

nur jeweils eine Konstruktion beurteilt<br />

wird, dass aber im fertigen<br />

Gebäude alle Übertragungswege über<br />

alle trennenden und flankierenden Bauteile<br />

eine Rolle spielen. Letztere Tatsache<br />

kennzeichnet man dadurch, dass<br />

man das Schalldämmmaß mit einem<br />

Apostroph (R' statt R) versieht.<br />

Die Ergebnisse der Schalldämmmaße<br />

werden im Frequenzbereich von 100 Hz<br />

– 3,15 kHz in Terzen dargestellt und<br />

beurteilt. Einfacher und letztlich relevant<br />

ist das sog. bewertete Schalldämmmaß<br />

Rw (oder R'w), welches durch einen Vergleich<br />

der gemessenen Schalldämm-<br />

Kurve mit einer international genormten<br />

Bezugskurve ergibt.<br />

2.3 Berechnung der Schalldämmmaße einzelner Bauteile<br />

a) einschalige Bauelemente<br />

p<br />

R = 10 log( 2<br />

p<br />

2<br />

ein<br />

durch<br />

Bau-Schalldämm-Maß R'<br />

90<br />

dB<br />

80<br />

70<br />

60<br />

50<br />

40<br />

30<br />

Frequenzbereich entsprechend der Kurve<br />

der Bezugswerte<br />

63 125 250 500 1000 2000 Hz 4000<br />

Frequenz f<br />

m‘<br />

ρ0c ρ0c<br />

Die Einfachwand und ihr elektrisches Analogon<br />

⎛ ω m'<br />

⎞ ⎛ ωm'<br />

⎞<br />

) = 10 log1+<br />

⎜<br />

⎟ ≈ 20 log<br />

⎜<br />

⎟<br />

⎝ 2Z<br />

0 ⎠ ⎝ 2Z<br />

0 ⎠<br />

2<br />

Gl. 2-2<br />

Dieses sog. „Massegesetz“ gilt <strong>für</strong> biegeweiche Bauteile, wobei ω die Kreisfrequenz,<br />

m' die flächenbezogene Masse und Z0 = ρ0c die Kennimpedanz von Luft<br />

ist. Bei Schalleinfall unter dem Winkel ϑ wird das Argument des Logarithmus mit<br />

dem Faktor „cos ϑ“ ergänzt. R steigt um 6 dB pro Oktav (doppelte Frequenz) oder<br />

pro Masseverdopplung an.<br />

15


) zweischalige Bauelemente<br />

m‘ 1<br />

m‘2<br />

ρ0c<br />

n‘<br />

ρ0c<br />

Die Doppelwand und ihr elektrisches Analogon<br />

Bei zweischaligen Elementen wird das Massegesetz von einem wesentlich stärkeren<br />

Effekt überlagert, der auf das Zusammenwirken zweier Masse-Schalen auf einer<br />

Luftschicht, die als Feder wirkt, zurückzuführen ist.<br />

3 ⎡ω<br />

dm'1<br />

m'<br />

R = 20 log⎢<br />

2 3<br />

⎢⎣<br />

2ρ<br />

o c<br />

2<br />

⎤<br />

⎥ ,<br />

⎥⎦<br />

Schalldämmmaß einer Doppelwand<br />

ω =<br />

0<br />

m ' + m'<br />

1<br />

n'<br />

m'<br />

16<br />

1<br />

2<br />

m'<br />

2<br />

Gl. 2-3<br />

Dabei tritt zwar bei der Resonanzfrequenz<br />

ω0 eine Verschlechterung ein, aber<br />

im eigentlichen Nutzbereich steigt<br />

das Schalldämmmaß steil (18 dB/Oktav)<br />

an, bis die Wellenlänge so klein wird,<br />

dass statt der Federwirkung der Luftschicht<br />

stehende Wellen im Zwischenraum<br />

auftreten. In der Praxis findet man<br />

„Doppelwände“ bei Haustrennwänden,<br />

Leichtbauwänden (z.B. Gipskartonplatten),<br />

im Fertighausbau, bei Fenstern und<br />

bei Vorsatzschalen zur Verbesserung<br />

der Schalldämmung. Wichtig sind eine<br />

gute Körperschallentkopplung der Schalen<br />

(keine Schallbrücken!) und eine geeignete<br />

Füllung des Hohlraums mit absorbierendem<br />

Material zur Dämpfung<br />

des Resonanzeinbruches.


3 Binaurales Hören<br />

3.1 Dreidimensionale Schallwahrnehmung<br />

Die Richtung eines Schallereignisses kann von normalhörenden Menschen aufgrund<br />

charakteristischer Merkmale identifiziert werden. Betrachtet wird zunächst<br />

das Schallfeld einer einzelnen Schallquelle im Freifeld, also ohne weitere Reflexionen<br />

von Wänden oder sonstigen Hindernissen. Ist in diesem Feld eine einzelne<br />

Person vorhanden, wird die sonst ungehinderte Ausbreitung des Schallfeldes<br />

durch Reflexionen und Beugungseffekte an Rumpf, Schulter, Kopf und Ohrmuschel<br />

gestört, das Schallsignal der Quelle wird auf dem Weg in die beiden Ohren<br />

dadurch linear verzerrt. Diese Verzerrungen sind insbesondere abhängig von der<br />

Einfallsrichtung des Schalls bezogen auf den Körper und dessen Abstand zur<br />

Schallquelle.<br />

Der Schall einer seitlich angeordneten Schallquelle erreicht beide<br />

Ohren nach unterschiedlicher Laufzeit, weil der Schall zum abgewandten<br />

Ohr einen längeren Weg zurücklegen muss als zum zugewandten.<br />

Außerdem wird das abgewandte Ohr durch den Kopf<br />

akustisch abgeschattet. Die Schalldrücke an beiden Ohren unterscheiden<br />

sich also. Die beiden Abweichungen werden durch die „Interaurale Laufzeitdifferenz“<br />

und die „Interaurale Pegeldifferenz“ quantifiziert. Bei tiefen Frequenzen<br />

ist der Einfluss auf die Schallausbreitung weniger ausgeprägt, da der Kopf<br />

gegenüber der Wellenlänge klein ist, die Pegelunterschiede sind dann eher gering.<br />

Daher wird <strong>für</strong> tiefe Frequenzen eher die Laufzeitdifferenz ausgewertet, bei höheren<br />

Frequenzen ist dann die Pegeldifferenz entscheidend.<br />

Liegt die Schallquelle aber in der Medianebene, d.h. in der Ebene senkrecht durch<br />

den Kopf, auf der die Ohrachse senkrecht steht, dann treten die oben genannten<br />

Effekte nicht auf (unter Annahme eines symmetrischen Kopfes). Aber auch in dieser<br />

Ebene ist die Schallquellenlokalisation möglich.<br />

Die Laufzeiten der Reflexionen von Kopf, Rumpf, Schulter und Ohrmuschel sind<br />

abhängig vom Elevationswinkel, dem Winkel zwischen der Einfallsrichtung und der<br />

horizontalen Ebene. Daraus ergibt sich ein charakteristisches Frequenzverhalten<br />

des Übertragungsweges von der Schallquelle bis zum Trommelfell. Dieses wird<br />

von Gehirn ausgewertet um auf den Elevationswinkel zu schließen.<br />

Die oben beschriebenen linearen Verzerrungen auf dem Weg von der Schallquelle<br />

bis zum Trommelfell des linken und rechten Ohrs lassen sich <strong>für</strong> verschiedene<br />

Richtungen in reflexionsarmer Umgebung messen. Man erhält dann eine Sammlung<br />

von kopfbezogenen Übertragungsfunktionen, die man nach ihrer englischen<br />

Bezeichnung auch HRTF nennt (Head-Related Transfer Function). Wird das Signal<br />

einer Schallquelle mit der HRTF <strong>für</strong> eine bestimmte Einfallsrichtung gefiltert,<br />

und anschließen geeignet wiedergegeben (siehe weiter unten), wird die Schall-<br />

17


quelle unter der entsprechenden Richtung wahrgenommen. Das funktioniert allerdings<br />

nur, wenn die Person mit den verwendeten HRTFs kompatibel ist.<br />

3.2 Außenohr-Übertragungsfunktionen: HRTF Head-Related Transfer<br />

Function)<br />

Das System „Außenohr“ kann als LTI-System behandelt werden. Dementsprechend<br />

wird es mit Hilfe einer Stoßantwort oder einer komplexen Übertragungsfunktion<br />

eindeutig beschrieben. Die Außenohr-Übertragungsfunktion enthält die<br />

Information über die linearen Verzerrungen, die durch das Vorhandensein des<br />

Körpers, des Kopfes, der Ohrmuschel, des Gehörganges usw. hervorgerufen werden.<br />

Frontalebene Medianebene<br />

Horizontalebene<br />

Einige Anteile sind richtungsabhängig, andere nicht. Als Bezugsschallfeld dient im<br />

einfachsten Fall eine ebene Schallwelle, die von vorne auf den Kopf einfällt. Zur<br />

exakten Angabe der Richtung muss man jedoch genauere Angaben machen, wobei<br />

man sich eines kopfbezogenen Koordinatensystems bedient.<br />

18


Die Horizontalebene wird von einem um den Kopf laufenden Kreis von ϕ = 0 o bis<br />

360 o und ϑ = 0 o aufgespannt; die Medianebene entsprechend bei ϕ = 0 o und von<br />

ϑ = 0 o bis ϑ = 360 o . Zur vollständigen Beschreibung einer Schalleinfallsrichtung<br />

reicht somit die Angabe zweier Winkel aus. Die oben erwähnte „Vorne“-Richtung<br />

wird durch ϕ = 0 o und ϑ = 0 o festgelegt.<br />

dB<br />

20<br />

VP 1<br />

VP 2<br />

VP 3<br />

VP 4<br />

Kopfbezogenes Koordinatensystem<br />

0.5 1 2 5 10 kHz<br />

Einige typische Außenohr-Übertragungsfunktionen (HRTF) von vier Versuchspersonen,<br />

gemessen <strong>für</strong> die „vorne“-Richtung.<br />

3.3 Kunstkopftechnik<br />

Die Messung binauraler Signale muss nach dem zuvor Gesagten alle richtungsabhängigen<br />

Anteile einer Außenohr-Übertragungsfunktion beinhalten, denn richtungsunabhängige<br />

Anteile, die von Komponenten hinter dem Ohrkanal-Eingang<br />

stammen, können auch durch elektrische (typischerweise digitale) Filter nachgebildet<br />

werden. Für Laborzwecke ist es daher zunächst möglich, mit einer Versuchspersonengruppe<br />

(evtl. auch gezielt individuell) und Gehörgangs-<br />

Miniaturmikrofonen oder Sondenmikrofonen zu arbeiten. Hierbei werden typischerweise<br />

Mittelwerte über eine Anzahl von Versuchspersonen gewonnen und<br />

ausgewertet. Für die objektive binaurale Geräuschmesstechnik ist jedoch der Ersatz<br />

der Versuchspersonengruppen durch ein spezielles zweikanaliges Richtmikrofon<br />

wichtig, wodurch der Zeit- und Kostenaufwand sinkt und die Reproduzierbarkeit<br />

der Messergebnisse erhöht wird. Ein solches Richtmikrofon heißt „Kunstkopf“<br />

oder auch „Kopf- und Rumpfsimulator“.<br />

Die Entwicklung eines Kunstkopfes bedarf zahlreicher Detailuntersuchungen der<br />

Formen von Kopf, Rumpf, Ohrmuschel usw. Entweder versucht man, eine mittlere<br />

Geometrie zu finden, oder man stellt einen repräsentativen Kopf- und Rumpfsimulator<br />

her, der einer typischen Versuchsperson ähnelt. Die genaue Ausführung des<br />

Gehörganges und die Positionierung der Mikrofone sind <strong>für</strong> die richtungsabhängigen<br />

Anteile der Außenohr-Übertragungsfunktion nicht relevant. Eine geeignete<br />

19


Entzerrung der Ohrsignale ist <strong>für</strong> verschiedene Anwendungen ohnehin notwendig,<br />

sei es <strong>für</strong> Kopfhörerwiedergabe oder <strong>für</strong> messtechnische Zwecke in vorgegebenen<br />

Schallfeldern.<br />

Drei Ausführungen standardisierter Kopf- und Rumpfsimulatoren<br />

Geeignete Bezugsschallfelder sind speziell das „Freifeld“ und das „Diffusfeld“.<br />

Dementsprechend meint man bei einem freifeldentzerrten Kunstkopf, dass sein<br />

Übertragungsmaß bei Beschallung unter ϕ = 0 o und ϑ = 0 o horizontal verläuft (d.h.<br />

unabhängig von der Frequenz konstant ist). Diese Eigenschaft ist daher auch ein<br />

wichtiges Prüfkriterium bei Eignungstests von Kunstköpfen. Unter Bezug auf die<br />

„Vorne-Richtung“ können nämlich die Übertragungsfunktionen anderer Einfallsrichtungen<br />

oder auch das Übertragungsmaß <strong>für</strong> diffuse Beschallung beurteilt und<br />

<strong>für</strong> Qualifikationstests verwendet werden.<br />

Die Geometrie und das Übertragungsverhalten von Kunstköpfen im freien und diffusen<br />

Schallfeld ist in internationalen Normen festgelegt (ISO TR 959 und ITU<br />

p.58). Beispiele <strong>für</strong> Anwendungsbereiche sind Messungen von Hörgeräten und<br />

von Telefonen (Hören und Sprechen) sowie die Raumakustik und der wichtige Bereich<br />

„Sound Quality“, der in der Industrie mehr und mehr an Bedeutung gewinnt<br />

(z.B. im Fahrzeugbau und bei Haushaltsgeräten).<br />

3.4 Binaurale Messgrößen<br />

Binaurale Messungen haben oft nicht nur den Schalldruckpegel oder das Trommelfell-Schalldruckspektrum<br />

zum Ziel, sondern zunehmend auch komplexere<br />

Funktionen, die spezielle Eigenschaften des menschlichen Gehörs beschreiben<br />

sollen. Als Beispiele <strong>für</strong> binaurale Messgrößen seien hier nur einige Parameter<br />

erwähnt:<br />

• ILD, ITD (Interaural Level Difference, Interaural Time Difference): werden allgemein<br />

als die wesentlichen Merkmale binauraler Schallreize angesehen. Die<br />

an den beiden Ohren auftretende Pegel und Laufzeitunterschiede werden im<br />

20


neuronalen System in verschiedenen Entscheidungsstufen ausgewertet. Spezielle<br />

Nervenzellen sind insbesondere in der Lage, „Gleichzeitigkeit“<br />

festzustellen bzw. die Zeitbezüge zwischen „links“ und „rechts“ zu messen, so<br />

dass aus ITD unmittelbar die azimutale Schalleinfallsrichtung ermittelt werden<br />

kann.<br />

• BMLD (Binaural Masking Level Difference): Pegelschwelle, bei welcher ein<br />

Testsignal unter binauralen Abhörbedingungen (evtl. mit einem Maskierer) unterschiedlich<br />

wahrgenommen wird. Die Variationen des Testschallfeldes können<br />

sehr vielfältig sein, z.B. können die Maskierer aus unterschiedlichen Richtungen<br />

einwirken, oder sie können einem Diffusfeld entsprechen.<br />

• IACC (Interaural Cross Correlation Coefficient): Die interaurale Kreuzkorrelation<br />

wird in der Raumakustik als Maß da<strong>für</strong> verwendet, zu quantifizieren wie viel<br />

Schallanteile am Ort des Zuhörers aus der Medianebene einfallen. Bei<br />

Schalleinfall aus der Medianebene ist bekanntlich die Korrelation (Ähnlichkeit)<br />

zwischen den Ohrsignalen sehr groß (im Idealfall ist die Korrelation gleich Eins<br />

bei τ = 0). Seitlicher Schalleinfall bedeutet eine Verkleinerung und Verschiebung<br />

des Korrelationsmaximums. Das Maximum der Korrelationsfunktion zwischen<br />

-1 ms < τ < 1 ms wird als Wert des IACC angegeben. Ein geringer I-<br />

ACC bedeutet, dass die Akustik eines Raumes durch einen hohen „Räumlichkeitseindruck“<br />

gekennzeichnet ist.<br />

21


4 Raumakustische Auralisation<br />

4.1 Binaurale Raumimpulsantworten<br />

Impulsantworten, die <strong>für</strong> die Hörbarmachung des simulierten Schallfeldes geeignet<br />

sind, müssen eine Abtastrate von typischerweise 44,1 kHz aufweisen. Daher sind<br />

nur Spiegelschallquellenansätze oder gemischte Verfahren einsetzbar.<br />

Natürlich muss „Auralisation“ das zweiohrige (binaurale) Hören berücksichtigen.<br />

Monophone Signale können zwar einen Eindruck über das verhallte Signal verschaffen,<br />

aber erst das räumliche Hören vermittelt den Klangeindruck in seiner<br />

Gesamtheit. Die Binauraltechnik erlaubt mit Hilfe der sog.<br />

„Außenohrübertragungsfunktionen“ HRTF (siehe Abschn. 3.1) oder den<br />

zugehörigen HRIRs (head-related impulse responses) eine Simulation der<br />

einzelnen Schalleinfallsrichtungen. HRTF-Daten werden normalerweise an<br />

Versuchspersonen oder an Kunstköpfen gemessen.<br />

Schließlich kann so eine binaurale Schalldruck-Impulsantwort aus der Summe der<br />

einzelnen Reflexionen (und dem Direktschall) erzeugt werden. Die binaurale<br />

Raumimpulsantwort setzt sich aus den Beiträgen des Direktschalls, falls dieser<br />

hörbar ist, und aus den Beiträgen der hörbaren Spiegelschallquellen zusammen.<br />

Die Formulierung der Superposition der Spiegelschallquellenbeiträge stellen wir<br />

zunächst im Frequenzbereich auf. Dazu wird der Begriff der Raumübertragungsfunktion<br />

verwendet. Die Erzeugung der Impulsantwort geschieht also mittelbar über<br />

die Erzeugung einer Frequenzfunktion.<br />

Liegt von einem System die Impulsantwort h(t) vor, so kann diese Funktion mit der<br />

Fourier-Transformation<br />

F { h ( t)<br />

} = H ( f ) bzw.<br />

h(<br />

t)<br />

H ( f )<br />

Gl. 4-4<br />

in die Übertragungsfunktion H(f) überführt werden und mit der inversen fouriertransformation<br />

entsprechend umgekehrt. Die Transformationsgleichung ist<br />

durch das Fourierintegral gegeben. Somit können LTI-Systeme vollständig entweder<br />

im Zeitbereich oder im Frequenzbereich charakterisiert werden, und an mehreren<br />

Stellen ist mittels der Fouriertransformation ein Übergang zwischen den Bereichen<br />

in beide Richtungen möglich.<br />

4.1.1 Übertragungsfunktion<br />

Die Übertragungseigenschaften des Raumes bzw. der einzelnen Reflexionen lassen<br />

sich im Frequenzbereich durch sog. Frequenzfunktionen H(f) darstellen, und<br />

22


zwar entweder durch die Komponenten Real- und Imaginärteil (Re{Hf)} bzw.<br />

Im{H(f)}) oder in der äquivalenten Form als Betrag und Phase (|H(f)| bzw. ϕ(f))<br />

jϕ<br />

( f )<br />

{ H ( f ) } + j Im{<br />

H ( f ) } = H ( f ) ⋅ e<br />

H ( f ) = Re<br />

Gl. 4-5<br />

Das Spektrum des Direktschalls wird dabei über folgende Formel gebildet:<br />

H f = H f<br />

v<br />

r ⋅ H f , d ⋅ H<br />

v<br />

f , r Gl. 4-6<br />

direkt<br />

( ) ( ) ( ) ( )<br />

Sender<br />

, S Luft<br />

Empf<br />

Dabei ist HSender das Spektrum der Senderrichtcharakteristik und ist abhängig von<br />

der Richtung, in die der Schallstrahl vom Sender aus startet. HLuft ist das Spektrum<br />

der Luftdämpfung, abhängig von der zurückgelegten Strecke des Schallstrahls,<br />

was beim Direktschall gleichbedeutend mit der Entfernung vom Sender ist. HEmpf<br />

ist schließlich das komplexe Spektrum der jeweiligen binauralen Außenohrübertragungsfunktion<br />

und ist abhängig von der Richtung, aus welcher der Schallstrahl<br />

des Direktschalls beim Empfänger eintrifft. Diese Richtung ist beim Direktschall<br />

identisch mit der Richtung, in die der Schallstrahl am Ort des Senders startet.<br />

Der Beitrag der j´ten gültigen Spiegelschallquelle ist:<br />

H<br />

j<br />

− jkrj<br />

e<br />

=<br />

r<br />

j<br />

H<br />

Sender<br />

H<br />

Empf<br />

H<br />

n j<br />

Luft∏<br />

i=<br />

1<br />

H<br />

i<br />

E<br />

Gl. 4-7<br />

wobei rj den Abstand zwischen Spiegelschallquelle und Empfänger, k die Wellenzahl<br />

= 2πf/c, HSender die Richtcharakteristik der Quelle, HEmpf die „HRTF“ (des rechten<br />

oder des linken Ohres, siehe Abschn. 3.1), HLuft die Luftabsorption und Hi die<br />

Reflexionsfaktoren der betroffenen Wände in der Spiegelschallquellenkette bedeutet.<br />

Die komplette binaurale Impulsantwort gewinnt man dann durch Addition aller<br />

Spiegelschallquellenbeiträge (r, l = rechtes, linkes Ohr) und durch inverse Fourier-<br />

Transformation:<br />

h<br />

total, r, l<br />

⎧<br />

N<br />

−1<br />

( t)<br />

= F ⎨H<br />

direkt<br />

+ ∑ H<br />

⎩<br />

j=<br />

1<br />

j,<br />

r, l<br />

4.2 Verarbeitung trockener Signale<br />

⎫<br />

⎬<br />

⎭<br />

Gl. 4-8<br />

Sobald die relevanten Funktionen, welche die Übertragung des Schalls im Raum<br />

beschreiben (Raumimpulsantwort) bekannt sind, und auch die Eigenschaften der<br />

23


Empfänger in Form der Außenohr-Übertragungsfunktionen HRTF und HRIR richtungstreu<br />

angewendet wurden, ist das System Quelle – Raum – Empfänger vollständig<br />

repräsentiert. Dessen Übertragungseigenschaften können nun mit beliebigen<br />

Anregungssignalen verarbeitet werden. Wird der Raum als lineares zeitinvariantes<br />

„LTI-System“ aufgefasst, so darf man <strong>für</strong> den Fall der rückwirkungsfreien<br />

Signalübertragung die Filterung des Signals durch die Raumeigenschaften durch<br />

eine Faltung vollziehen.<br />

4.2.1 Eingangssignale<br />

Das Eingangssignal s(t) sollte möglichst gut einem realistischen „Quellsignal“ entsprechen.<br />

Ein Quellsignal kann beispielsweise von einem Musikinstrument, von<br />

einem Sprecher oder von einer lärmerzeugenden Maschine stammen. In diesem<br />

Zusammenhang bedeutet „Rückwirkungsfreiheit“, dass die Leistungsabgabe der<br />

Quelle unabhängig von den Raumeigenschaften ist. In der Praxis ist das in der<br />

raumakustischen Auralisation immer erfüllt, ganz im Gegensatz zur Körperschallquellen<br />

und deren Auralisation.<br />

Ein Quellsignal <strong>für</strong> die raumakustische Auralisation kann leicht in reflexionsfreier<br />

Umgebung aufgenommen und gespeichert werden. Es ist allerdings darauf zu<br />

achten, dass sich die Mikrofonposition bei der Aufnahme im Fernfeld befindet,<br />

damit keine Nahfeldeffekte und damit verbundene Verzerrungen in das Quellsignal<br />

gelangen. Derartige Aufnahmen sind <strong>für</strong> Musikstücke, <strong>für</strong> Sprache und auch <strong>für</strong><br />

typische Lärmbeispiele verfügbar. Sie werden „trockene Signale“ genannt, da sie<br />

vollkommen nachhallfrei (und somit unnatürlich) klingen. Aufnahmen in relativ gedämpften<br />

Raumumgebungen wie z.B. in Tonstudios können als Eingangssignale<br />

verwendet werden, sofern der Rest-Nachhall im Signal wesentlich geringer ist als<br />

der Hall des zu auralisierenden Raumes.<br />

4.2.2 Der Begriff der Faltung<br />

Wird ein LTI-System mit einem Eingangssignal<br />

s(t) gespeist, so kann ausgangsseitig<br />

ein Signal g(t) empfangen werden, <strong>für</strong><br />

welches gilt:<br />

∞<br />

= ∫<br />

-∞<br />

g( t)<br />

s(<br />

τ ) h(<br />

t −τ<br />

) dτ<br />

= s(<br />

t)<br />

∗ h(<br />

t)<br />

s(t) h(t) g(t)<br />

Gl. 4-9<br />

wobei h(t) die Impulsantwort (oder Stoßantwort) des Systems genannt wird und<br />

das Integral eine Faltungsoperation ausdrückt. Diese allgemeine und sehr wichtige<br />

Formel ist die Grundlage <strong>für</strong> alle theoretischen Betrachtungen an LTI-Systemen.<br />

Sie erlaubt insbesondere die Konstruktion von Filtern und die digitale Filterung beliebiger<br />

Eingangssignale mit Impulsantworten h(t). Die Beschreibung von Filtern ist<br />

aber nach 4.1.1 ebenso im Frequenzbereich möglich. Sollen die Übertragungseigenschaften<br />

eines Systems bezüglich der Frequenz dargestellt werden, ist besonders<br />

die Information von Interesse, um wel-<br />

S(f) H(f) G(f)<br />

24


ches Maß ein eingespeistes Signal einer bestimmten Frequenz von dem System<br />

gedämpft oder verstärkt wird. Die Faltung wird im Frequenzbereich durch eine<br />

Multiplikation ersetzt:<br />

G( f ) = S(<br />

f ) ⋅ H ( f )<br />

Gl. 4-10<br />

s(t)<br />

h(t)<br />

g(t)<br />

F LTI F<br />

S(f)<br />

*<br />

.<br />

H(f)<br />

Ob die Faltung im Zeitbereich „zu Fuß“ oder mit Hilfe der Fouriertransformation im<br />

Frequenzbereich durchgeführt wird, ist <strong>für</strong> das Resultat unerheblich. Es kommt<br />

letztlich nur darauf, welche Methode schneller ist.<br />

G(f)<br />

4.3 Freifeld-Verfahren: Binauraler Richtungsmischer<br />

Schon unter Freifeldbedingungen gibt es interessante Anwendungen der Echtzeit-<br />

Auralisation. Eine elementare Aufgabe besteht darin, eine Schallquelle „in den<br />

Raum zu stellen“, d.h. eine Quelle (mono) ohne Richtungs- und Entfernungsinformation<br />

im dreidimensionalen Raum außerhalb des Kopfes in einer gewissen Entfernung<br />

zu platzieren. Ein derartiger „Richtungsmischer“ muss dem mehr Signal<br />

Merkmale aufprägen als einer einfacher Balance-Regler, der in der Stereobreite<br />

Verschiebungen hervorrufen kann. Vielmehr sind die aus Abschn. 3.1 bekannten<br />

HRTF zu verwenden, siehe Bild.<br />

HRTF<br />

Richtung<br />

HRTF<br />

Richtung<br />

rechtes Ohr<br />

mono in stereo out<br />

linkes Ohr<br />

Ebenso können Richtungsinformationen in Signalen manipuliert, d.h. in der Richtung<br />

geändert werden.<br />

Mit der Möglichkeit, Schallereignisse in den 3D-Raum zu platzieren und zu bewegen,<br />

ist das wichtigste Element der virtuellen Akustik bereits beschrieben. Alle akustischen<br />

und algorithmischen Details sind nun im Prinzip bekannt und müssen<br />

„nur“ in Echtzeit realisiert werden.<br />

Die notwendigen Blocklängen der HRTF-Filter liegen im Bereich von 128. Typischerweise<br />

reichen FIR-Filter (Transversalfilter) aus, auch ohne den Einsatz von<br />

DSP.<br />

25


4.4 Erstellung der binauralen Raumimpulsantworten<br />

Die binaurale Synthese ist auch <strong>für</strong> Schallfelder in Räumen einsetzbar, wobei die<br />

Anteile jeder Reflexion (Spiegelschallquelle) nach Gleichung 4.10 bzw. in der<br />

Summe nach 4.11 berechnet werden. Zu beachten ist dabei, dass die entsprechenden<br />

HRTF nicht pauschal, sondern <strong>für</strong> jede Reflexion spezifisch richtungsabhängig<br />

eingehen müssen.<br />

26


5 Integration von Binauraltechnik in virtuelle Umgebungen<br />

Die Computersimulation akustischer Szenen ist eine wichtige Grundlage <strong>für</strong> das<br />

Rendering. Die 3D-fähige Wiedergabeeinheit, sozusagen das „Audio-Frontend“<br />

oder die „Mensch-Audio-Schnittstelle“, ist jedoch ebenfalls ein sehr kritisches Element,<br />

welches hohe Qualitätsansprüchen hinsichtlich Klangtreue und Lokalisation<br />

erfüllen muss, und zwar ähnlich hoch wie bei modernen Shutterbrillen und entsprechenden<br />

Stereo-Projektionsflächen mit Auflösungen von mindestens 2000 x<br />

1600 Pixel. Ein derartiges Wiedergabesystem darf man durchaus als Super-HiFi-<br />

Anlage bezeichnen, wobei allerdings im Vergleich mit Techniken im Consumer-<br />

Hifi-Bereich völlig andere Synthese- (Aufnahme-) Techniken beachtet werden<br />

müssen. Steht bei einer Tonstudio- oder Liveaufnahme ein guter „Sound“ und eine<br />

ansprechende räumliche Abbildung in der Stereobasis im Vordergrund, so muss<br />

bei der Virtuellen Realität (VR) nicht nur ein Stereo-Effekt, sondern eine korrekte<br />

3-D-Abbildung erzielt werden. Eine im Frequenzgang neutrale Wiedergabe ist natürlich<br />

ohnehin vorausgesetzt.<br />

5.1 Kopfhörer-basierte Wiedergabetechnik<br />

Naheliegend ist die Verwendung von Kopfhörern, die auch weit verbreitet ist. Leider<br />

sind mit der Kopfhörerwiedergabe einige Nachteile verbunden. Es kann insbesondere<br />

zu „Im-Kopf-Lokalisation“ kommen. Da die Wahrnehmung einer Schallquelle<br />

im Kopf in der Realität nicht vorkommt, kommt es in einem solchen Fall unweigerlich<br />

zu Diskrepanzen zwischen den Wahrnehmungen der verschiedenen<br />

Sinne.<br />

Die Entzerrung von Kopfhörern ist weitaus schwieriger als die Entzerrung von<br />

Lautsprechern. Sowohl die Herstellung einer repräsentativen Strahlungsimpedanz<br />

in Form eines „künstlichen Ohres“ (wie auch in der Audiometer-Kalibrierung verwendet)<br />

als auch eine reproduzierbare Anpassung des Kopfhörers an das künstliche<br />

oder an natürliche Ohren bergen große Messunsicherheiten. Selbst bei idealen<br />

Messbedingungen, guten Ergebnissen und wirkungsvoller digitaler Signalverarbeitung<br />

zur Entzerrung der linearen Übertragungseigenschaften ist nicht gewährleistet,<br />

dass die Bedingungen beim erneuten Aufsetzen des Kopfhörers oder<br />

beim Wechsel der Abhörperson bestehen bleiben.<br />

5.2 Lautsprecher-basierte Wiedergabetechnik<br />

Die Erzeugung räumlicher Schallfelder mit Lautsprechern kann prinzipiell auf zwei<br />

verschiedene Arten erfolgen. Zum einen kann versucht werden, mit Lautsprechern<br />

„ohrgerechte“ Signale zu erzeugen, ohne auf die speziellen Eigenschaften des<br />

Schallfeldes im Abhörraum zu achten. Dies ist zulässig, denn das Hörempfinden<br />

hängt ausschließlich (jedenfalls sehr weitgehend) vom Schalldruck am Trommelfell<br />

ab und nicht vom großräumigen Wellenfeld. Zum anderen kann jedoch ver-<br />

27


sucht werden, in einem bestimmten Raumvolumen das zu simulierende Schallfeld<br />

tatsächlich nachzubilden. Eine sehr einfache Variante, die auf die Abbildung von<br />

Schallquellen in der horizontalen Ebene beschränkt ist und keine echte Schallfeldnachbildung,<br />

sondern nur eine Näherung über „Phantomschallquellen“, ist Dolby-<br />

Surround. Diesem Verfahren deutlich überlegen, aber auf mit extrem hohen Aufwand<br />

verbunden, ist die Wellenfeldsynthese (Wave Field Synthesis, WFS). Hier<br />

wird tatsächlich ein realistisches Schallfeld erzeugt, das bei Beschränkung auf eine<br />

agierende Person auch kopfnahe Schallquellen abbilden kann. Leider wird eine<br />

immense Zahl von Lautsprechern und DSP-Filterkanälen benötigt, so dass dieses<br />

Verfahren nur schwer große Verbreitung finden kann. Es gibt allerdings Ansätze<br />

<strong>für</strong> Kinobeschallung und High-End Audio. Ein guter Kompromiss <strong>für</strong> eine räumliche<br />

Wiedergabe ist das Verfahren „Ambisonics“, eine Art Abbildung des Wellenfeldes<br />

aus Kugelfunktionen.<br />

5.2.1 Kopfbezogene Verfahren<br />

Mit deutlich weniger Aufwand kann eine dreidimensionale Schallfeldwahrnehmung<br />

mit binauralen Techniken (siehe Kapitel 7) erzeugt werden. Dieses Verfahren beruht<br />

auf der direkten Berechnung des Schalldrucks am Trommelfell unter Verwendung<br />

der oben bereits genannten HRTFs. Durch die Wiedergabeeinrichtung muss<br />

dann aber da<strong>für</strong> gesorgt werden, dass das Signal <strong>für</strong> das linke Ohr auch nur beim<br />

linken Ohr ankommt und ebenso das <strong>für</strong> das rechte.<br />

Y L<br />

H LL<br />

X L<br />

H LR<br />

binaurale Signale<br />

Übersprechkompensation<br />

Z L<br />

Alternativ zu Kopfhörern können binaurale Signale nämlich auch über zwei Lautsprecher<br />

wiedergegeben werden. Zunächst hat man dann aber das Problem, dass<br />

ohne weiteres keine hinreichende Kanaltrennung erreicht wird, weil beide Lautsprecher<br />

von beiden Ohren gehört werden können. Die Kanaltrennung muss erst<br />

durch eine geeignete Signalverarbeitung hergestellt werden. Dazu wird das Übersprechen<br />

vom abgewandten Lautsprecher durch ein geeignet gefiltertes Signal<br />

vom zugewandten Lautsprecher durch destruktive Interferenz am Ohr ausgelöscht.<br />

Die auf Interferenz beruhende Übersprechkompensation ist sehr empfindlich<br />

gegen Phasenfehler, die durch geringe Unterschiede in der Laufzeit der Signale<br />

von rechtem und linkem Lautsprecher resultieren.<br />

28<br />

Z R<br />

H RL<br />

X R<br />

H RR<br />

Y R


Sind die Übersprechkompensationsfilter statisch <strong>für</strong> einen Punkt eingemessen,<br />

dann muss sich die Person genau an dem Punkt befinden, <strong>für</strong> den eingemessen<br />

wurde. Bereits bei einer seitlichen Abweichung von unter zwei Zentimetern konnten<br />

von Versuchspersonen in Hörtests Unterschiede bei der Lokalisation oder der<br />

Klangfarbe wahrgenommen werden.<br />

Bei der dynamischen Übersprechkompensation wird das System auf die jeweilige<br />

Position der Ohren adaptiert. Dies erfordert eine aufwendige und schnelle Datenverarbeitung.<br />

Die Positionsdaten werden von einem Head-Tracker-System übermittelt,<br />

welches in typischen VR-Systemen <strong>für</strong> die stereoskopische Projektion ohnehin<br />

integriert ist. Interessant ist dieses Verfahren, weil es die Vorteile eines binauralen<br />

Verfahrens ohne „Im Kopf Lokalisation“ und ohne die Verwendung von<br />

Kopfhörern erlaubt, die einen unnatürlichen Einflussfaktor auf die Immersion in die<br />

virtuelle Umgebung darstellen. Sofern diese Technik <strong>für</strong> die Wiedergabe binauraler<br />

Szenen aus Kunstkopfaufnahmen verwendet wird, arbeitet sie nicht anders als<br />

ein Kopfhörer: Bei Kopfdrehung dreht sich das Schallereignis mit.<br />

Ein kombinierter Ansatz, welcher schließlich die head-getrackte Wiedergabeeinheit<br />

mit der binauralen Synthese koppelt, stellt das Ideal dar. Somit lassen sich<br />

raumfeste Quellen realisieren. Erst dann ist gewährleistet, dass trotz vollständiger<br />

Bewegungsfreiheit die akustische Szene mit der visuellen Szene gekoppelt und im<br />

3D-Raum fixiert ist.<br />

29


Elektroakustik<br />

Herbert Hudde / Elektroakustik<br />

1. Einleitung<br />

2. Elektrodynamischer Lautsprecher<br />

2.1 Aufbau und Grundprinzip<br />

2.2 Ersatzschaltbild unter Verwendung der elektromechanischen und elektroakustischen<br />

Analogien<br />

2.3 Schallabstrahlung, Kugelstrahler nullter Ordnung<br />

2.4 Betriebsverhalten des eingebauten Lautsprechers<br />

3. Kondensatormikrofon<br />

3.1 Aufbau und Ersatzschaltbild<br />

3.2 Betriebsverhalten<br />

4. Richtwirkung<br />

4.1 Richtwirkung durch Interferenz<br />

4.2 Druck- und Druckgradientenempfänger<br />

Anhang: Kleine Schallsender und -empfänger <strong>für</strong> Hörgeräte<br />

1. Einleitung<br />

Grundlage der Elektroakustik sind Komponenten, mit denen (a) Schall aufgrund einer elektrischen<br />

Anregung erzeugt werden kann oder (b) akustische Messgrößen - meist Schalldrücke<br />

- in proportionale elektrische Signale verwandelt werden. In das Fachgebiet der Elektroakustik<br />

gehören auch alle Anwendungen solcher Komponenten zur Schallaufnahme, Speicherung<br />

und Schallwiedergabe. Dies umfasst die Erfassung von Schallfeldern mit vielen gemeinsam<br />

ausgewerteten Mikrofonsignalen (Mikrofon-Arrays) oder etwa Kunstköpfen und die<br />

Schallwiedergabe über Surround-Systeme oder die Beschallung von Räumen mit einer Vielzahl<br />

geeignet angesteuerter Lautsprecher oder. Die Elektroakustik ist daher ein sehr umfangreiches<br />

Fachgebiet.<br />

In diesem Kurs können nur einige Grundlagen besprochen werden. Die Basis der meisten<br />

elektroakustischen Komponenten sind elektromechanische Wandler, die über eine schwingungsfähige<br />

Membran an ein Schallfeld angekoppelt sind. In den meisten Fällen arbeiten die<br />

so entstehenden elektroakustischen Wandler annähernd linear, zeitinvariant und reziprok. Die<br />

Reziprozität beinhaltet, dass die Wandler in beide Richtungen, also als Schallsender und -<br />

empfänger, betrieben werden können, und dass zwischen beiden Betriebsrichtungen wohldefinierte<br />

Beziehungen bestehen. In aller Regel wird ein elektroakustischer Wandler aber<br />

selbstverständlich <strong>für</strong> eine gewünschte Betriebsrichtung entworfen und dimensioniert.<br />

Neben zwei speziellen Wandlern, dem elektrodynamischen Lautsprecher und dem Kondensatormikrofon,<br />

wird die Erzeugung von Richtcharakteristiken betrachtet.<br />

2. Elektrodynamischer Lautsprecher<br />

Zur Realisierung von Lautsprechern wird mit Abstand am häufigsten ein elektrodynamischer<br />

Wandler eingesetzt. Bei einem solchen Wandler bewegt sich eine Spule im Luftspalt<br />

eines Magnetkreises. Neben dem dynamischen Wandlerprinzip gibt es noch ein zweites<br />

Wandlerprinzip, das auf Wirkungen von Magnetfeldern beruht. Dieses "elektromagnetische<br />

Wandlerprinzip", bei dem die stromdurchflossene Spule unbewegt bleibt, wird hier nicht be-<br />

31


sprochen.<br />

2.1 Aufbau und Grundprinzip<br />

In Abb. 2-1 ist ein Schnitt durch einen rotationssymmetrischen dynamischen Lautsprecher<br />

dargestellt. Das Kernstück ist ein Magnetkreis, der einen Permanentmagneten und<br />

Weicheisen zur Führung der magnetischen Feldlinien enthält. Auf diese Weise wird im Luftspalt<br />

eine magnetische Induktion B erzeugt, die eine elektrische Spule der Länge l senkrecht<br />

durchsetzt. Die Grundgleichungen, die den dynamischen Wandler charakterisieren, beschreiben<br />

die Lorentzkraft auf einen stromdurchflossenen Leiter und das Induktionsgesetz.<br />

Abb. 2-1: Schnitt durch einen elektrodynamischen Lautsprecher<br />

Verhindert man eine Bewegung der Schwingspule durch "Festbremsen", so gelten die<br />

aus der Elektrotechnik bekannten Gleichungen. Ein Strom i erzeugt eine proportionale Lorentzkraft<br />

F = i⋅ ( l× B), bzw. F = Bli=<br />

Mi (2-1)<br />

Man überzeuge sich anhand der Abb. 1 und der Vektorbeziehung in Gl. (1), dass die erzeugte<br />

Kraft die Spule tatsächlich in die gewünschte Richtung bewegt.<br />

Die Größe M = Bl charakterisiert die Stärke des Wandlers. Sie wird als Wandlerkonstante<br />

bezeichnet. Die Luftspaltinduktion B und die Leiterlänge l sollten also prinzipiell möglichst<br />

groß sein, wobei große Leiterlängen zu großen Schwingspulenmassen und zu großen<br />

Luftspalten führen, die die Luftspaltinduktion wiederum verkleinern. Man benötigt also vor<br />

allem eine große Luftspaltinduktion B an, so dass die Leiterlänge nicht zu groß gemacht werden<br />

muss. Die erreichbare Größenordnung der Wandlerkonstanten beträgt einige N/A.<br />

Versetzt man nun umgekehrt die Schwingspule durch eine externe Kraft in Bewegung,<br />

so entsteht an den Enden der elektrisch leerlaufenden Spule eine induzierte Spannung<br />

u = l⋅ ( v× B), bzw. u = Blv=<br />

Mv (2-2)<br />

Man überzeuge sich wieder davon, dass die Richtung der beteiligten Vektoren so ist, dass<br />

tatsächlich eine Spannung induziert wird.<br />

2.2 Ersatzschaltbild unter Verwendung der elektromechanischen und elektroakustischen<br />

Analogien<br />

Mit den beiden Gleichungen wird der so genannte "innere Wandler" bereits erfasst. Er<br />

32


enthält das idealisierte Grundprinzip, ohne die bei der Realisierung zwangsläufig auftretenden<br />

elektrischen und mechanischen Zusatzeffekte zu erfassen. Der reale Wandler besitzt darüber<br />

hinaus weitere elektrische und mechanische Eigenschaften: die Spule hat elektrisch gesehen<br />

eine Induktivität und einen Verlustwiderstand; die Schwingspule zusammen mit der<br />

Schall abstrahlenden Membran hat eine Masse und muss federnd aufgehängt werden. Dies<br />

kann durch Hinzufügen einer elektrischen und einer mechanischen Impedanz im Ersatzschaltbild<br />

(Abb. 2-2) approximiert werden.<br />

Abb. 2-2: Ersatzschaltbild eines elektrodynamischen Wandlers. Der Index iw kennzeichnet die Größen<br />

am inneren Wandler. Die Schnelle viw am inneren Wandler ist gleichzeitig die Membranschnelle<br />

vM.<br />

Die zusätzlichen elektrischen Zusatzeigenschaften ergeben sich bei Festbremsung der<br />

Spule. Dann lässt sich eine komplexe elektrische Eingangsimpedanz Zel messen, die näherungsweise<br />

durch die Reihenschaltung eines ohmschen Widerstandes R und einer Induktivität<br />

L beschrieben werden kann.<br />

Z = R+ jωL<br />

(2-3)<br />

el<br />

Auch die zusätzlichen mechanischen Eigenschaften lassen sich mit Netzwerkelementen<br />

beschreiben, da die mechanischen Grundeigenschaften, gegeben durch Masse, Steife und<br />

Reibung zu Gleichungen führen, die zu elektrischen Elementgleichungen analog sind. Hierzu<br />

benötigt man die Beziehungen zwischen Elongation ξ, Schnelle (Schwinggeschwindigkeit) v<br />

und Beschleunigung a:<br />

2<br />

dξdvd ξ<br />

v= , a=<br />

= (2-4)<br />

2<br />

dt dt<br />

dt<br />

bzw. in komplexer Schreibweise<br />

2<br />

v= j ωξ , a= jωv=<br />

− ω ξ<br />

(2-5)<br />

Die gewünschten analogen Beziehungen ergeben sich, wenn man die mechanischen Gesetze<br />

durch Kräfte und Schnellen beschreibt. Aus dem Newtonschen Gesetz F = m a wird<br />

F = ma= jωm⋅<br />

v<br />

(2-6)<br />

Man kann somit eine mechanische Impedanz Zm = F / v definieren, die bei der Masse jω m<br />

beträgt.<br />

Die naheliegende Wahl, dass man bei der elektromechanischen Analogie entsprechend<br />

der Impedanz die Kraft F als Analogon der elektrischen Spannung u und die Schnelle v als<br />

Analogon de Stroms i ansieht, ist zwar möglich, führt aber zu der Schwierigkeit, dass die<br />

Struktur der elektrischen Ersatzschaltung dual zu der mechanischen Struktur ist. Das bedeutet,<br />

dass in Netzwerken Knoten- und Maschengleichungen vertauscht werden, also z. B. Rei-<br />

33


henschaltungen und Parallelschaltungen gegenüber der originalen mechanischen Struktur<br />

vertauscht werden.<br />

Abb. 2-3: Zur Wahl der translatorischen mechanischen Analogiebeziehungen<br />

Abb. 2-3 soll veranschaulichen, dass man die Wahl der Analogiepaare gemäß<br />

F ⇔i, v⇔u<br />

treffen muss, wenn man strukturelle Übereinstimmung zwischen analogen<br />

mechanischen und elektrischen Netzwerken erreichen will. Will man eine Kraft messen, die<br />

auf ein mechanisches System wirkt, so muss man die Verbindung auftrennen und einen<br />

Kraftmesser in den Zweig schalten. Die Kraft entspricht strukturell also einem elektrischen<br />

Strom. Die Schnelle einer schwingen Masse muss relativ zu einem Bezugspunkt gemessen<br />

werden. Dies entspricht einer Spannung zwischen zwei Klemmen, also einem Potenzial mit<br />

Bezug auf eine Bezugsklemme. Die Komplikation dieser Wahl besteht darin, dass nun elektrische<br />

Impedanzen mechanischen Admittanzen und umgekehrt entsprechen, was etwas gewöhnungsbedürftig<br />

ist.<br />

Nach dieser strukturtreuen Wahl der Analogie wird eine Masse nicht durch nach Gl. (2-<br />

6) nahe liegende Induktivität, sondern durch eine Kapazität dargestellt.<br />

Die Elongation einer idealen Feder mit der Steife s ist kraftproportional ( ξ = F / s).<br />

Drückt man dies wieder durch die Schnelle v aus und geht von der Steife zum Kehrwert<br />

"Nachgiebigkeit" n= 1/ s über, so erhält man bei der gewählten Analogie eine mechanische<br />

Induktivität.<br />

1 1<br />

F = ξ = ⋅v (2-7)<br />

n jωn<br />

Schließlich ist mechanische Reibungskraft häufig annähernd der Schnelle proportional,<br />

was auf einen mechanischen Wirkwiderstand w führt.<br />

F = w⋅ v<br />

(2-8)<br />

Im Fall der Schwingspule ist die Schnelle bzw. Auslenkung <strong>für</strong> die beteiligten Elemente<br />

Masse, Nachgiebigkeit und Reibung identisch. Die Gesamtkraft in Abb. 2 ist somit<br />

⎛ 1 ⎞<br />

F = Fiw = ⎜w+ jωm+<br />

⎟⋅<br />

v= ZmechvM (2-9)<br />

⎝ jωm<br />

⎠<br />

Danach ist die mechanische Gesamtimpedanz die Summe aller Teilimpedanzen. Dies<br />

bestätigt die genannte Dualität zwischen elektrischen und mechanischen Netzwerken: bei<br />

mechanischen Netzwerken sind bei Parallelschaltung die Teilimpedanzen zu addieren!<br />

Die drei Grundelemente der strukturtreuen elektromechanischen Analogie sind in der<br />

folgenden Abbildung zusammen gefasst.<br />

34


Abb. 2-4: Masse, Feder und Reibungswiderstand und ihre Entsprechungen gemäß der strukturtreuen<br />

mechanischen Analogie<br />

Aus der Wahl der strukturtreuen Analogie folgt, dass die Grundgleichungen des inneren<br />

Wandlers einem elektrischen Übertrager entsprechen, der die Gln. (2-2) repräsentiert. Dieser<br />

wurde bereits in Abb. 2-2 verwendet.<br />

Strahlt der dynamische Wandler Schall ab, so addiert sich noch eine der akustischen Belastung<br />

entsprechende Impedanz zu Zmech. Um im Ersatzschaltbild nach Abb. 2 auch die akustische<br />

Last zu berücksichtigen, muss man die akustische Impedanz Zak = p/ q auf die mechanische<br />

Seite transformieren. Die akustische Impedanz ist definiert als Verhältnis von<br />

Schalldruck p zu Schallfluss q. Die Umrechnung der akustischen Größen in mechanische ergibt<br />

sich aus der wirksamen Membranfläche A gemäß<br />

F = pA, v= q/ A<br />

(2-10)<br />

Da man bei der akustischen Analogie sinnvollerweise die struktur- und impedanztreuen<br />

p ⇔ u und ( q i benutzt, während ja mechanisch die Paare v⇔u Analogiepaare ( )<br />

(F ⇔ i)<br />

⇔ )<br />

( )<br />

und angewandt wurden, stellt sich das verkoppelnde Element nicht als Übertrager,<br />

sondern als Gyrator heraus. Formal muss man also das Ersatzschaltbild nach Abb. 2-2 wie<br />

folgt ergänzen (Abb. 2-5).<br />

Abb. 2-5: Vollständiges Ersatzschaltbild des dynamischen Wandlers inklusive einer akustischen Belastung<br />

Zrad (Abstrahlimpedanz, radiation impedance).<br />

Die ins Mechanische umgerechnete akustische Belastung lässt sich einfach angeben<br />

Frad prad A 2<br />

Zmrad , = = = AZrad<br />

(2-11)<br />

v q / A<br />

M rad<br />

35


Die gesamte wirksame mechanische Impedanz, die den Wandler belastet, ist also<br />

Z = Z + Z = Z + A Z , (2-12)<br />

2<br />

mech, ges mech m, rad mech rad<br />

wobei Zak die so genannte Abstrahlimpedanz des Lautsprechers ist. Allerdings spielt die<br />

akustische Lastimpedanz bei Lautsprechern hinsichtlich der Wandlerbelastung meist keine<br />

wesentliche Rolle. Sie nimmt jedoch einen erheblichen Einfluss auf den abgestrahlten Schall.<br />

Um das Betriebsverhalten eines elektrodynamischen Lautsprechers untersuchen zu können,<br />

benötigt man zunächst eine Abschätzung der wirksamen Abstrahlimpedanz.<br />

2.3 Schallabstrahlung, Kugelstrahler nullter Ordnung<br />

Die Abstrahlimpedanz eines Lautsprechers nach Abb. 2-1 hängt in komplizierter Weise<br />

von den geometrischen Details der Anordnung ab. Für den nicht eingebauten Lautsprecher<br />

müsste man berücksichtigen, dass Schall auf Vorder- und Rückseite der Membran abgestrahlt<br />

wird; man müsste also zumindest zwei getrennte Abstrahlimpedanzen annehmen. Eine einfache<br />

Abschätzung ergibt sich nur, wenn der Lautsprecher in eine Box eingebaut wird. Die<br />

rückwärtige Schallabstrahlung wird dadurch unterbunden. Damit erhält man ein einseitig<br />

Schall abstrahlendes Element. Solche Elemente arbeiten bei niedrigen Frequenzen fast wie<br />

ein Kugelstrahler, der Schall völlig gleichmäßig in alle Richtungen abstrahlt. Die Entstehung<br />

angenäherter Kugelwellen ergibt sich aus den Grundgleichungen der linearen Akustik bzw.<br />

aus dem Huygens-Fresnelschen Prinzip. In idealisierter Form entspricht danach der eingebaute<br />

Lautsprecher bei niedrigen Frequenzen einem Kugelstrahler nullter Ordnung, den man sich<br />

als eine "atmende Kugel" vorstellen kann.<br />

Für diese Idealisierung erhält man bei Abstrahlung ins freie Schallfeld einen mit dem<br />

Abstand r gemäß<br />

p<br />

pr () e<br />

r<br />

+ − jβ0r<br />

= . (2-13)<br />

abklingenden Schalldruck. In der Gleichung bedeutet p+ eine zur Amplitude der abgestrahlten<br />

Schalldruckwelle proportionale Konstante und β0 die Wellenzahl, <strong>für</strong> die folgende Zusammenhänge<br />

mit Wellenlänge λ, Schallgeschwindigkeit c, Frequenz f und Kreisfrequenz ω gelten<br />

2π2π f<br />

β0<br />

= = =<br />

λ c c<br />

ω . (2-14)<br />

Die Schallschnelle ergibt sich nach der akustischen Eulergleichung gemäß ( ρ = bezeichnet<br />

die Ruhedichte der Luft)<br />

1 ∂p<br />

p 1 jβ<br />

v r =− =− − −<br />

(2-15)<br />

+<br />

−jβ0r 0 −jβ0r<br />

() ( e e )<br />

2<br />

jωρ= ∂r<br />

jωρ=<br />

r r<br />

Um auf akustische Impedanzen überzugehen, benötigt man den zugehörigen Schallfluss<br />

2<br />

an der Kugeloberfläche, der sich durch Multiplikation mit der Kugeloberfläche Ar ( ) = 4πr<br />

⎡ 1 1 ⎤ − jβ00<br />

r p ⎡ 1 1 ⎤<br />

+<br />

qr ( 0) = Ar ( 0) vr( r0) = Ar ( 0) p+ ⎢ + e Ar ( 2 ⎥ = 0)<br />

⎢ + ⎥<br />

⎣r0⋅ρ= c jωρ= r0 ⎦ r0 ⎣ρ= c jωρ=<br />

r0⎦<br />

0 0<br />

(2-16)<br />

Damit erhält man <strong>für</strong> die akustische Impedanz an der Kugeloberfläche, also die Abstrahlimpedanz<br />

der Kugel<br />

36


Z ( r )<br />

rad<br />

0<br />

pr ( ) 1 ρ c 1 ρ c 1<br />

( ) ( ) ( )<br />

+<br />

ρ c jωρ<br />

r<br />

( )<br />

1+ jωr ( ) 1<br />

1+<br />

jβr<br />

0<br />

= =<br />

= = = =<br />

qr Ar 0 0 Ar0 Ar c<br />

0<br />

Ar0<br />

= = 0<br />

0 0 0<br />

. (2-17)<br />

Um dieses Ergebnis zu interpretieren, benötigen wir die Elemente der elektroakustischen<br />

Analogie. Die sind in Abb. 2-6 dargestellt.<br />

Abb. 2-6: Elektroakustische Analogie: Ein abgeschlossenes Volumen bewirkt eine Nachgiebigkeit, die<br />

einem elektrischen Kondensator entspricht. Die akustische Masse in einem (engen) Röhrchen entspricht<br />

einer Induktivität, ein absorbierendes Element kann im einfachsten Fall durch einen Widerstand<br />

gekennzeichnet werden.<br />

Abb. 2-7: Abstrahlimpedanz eines Kugelstrahlers nullter Ordnung.<br />

Die Impedanz nach Gl. (2-17) lässt sich somit als Parallelschaltung einer Masse (Induktivität)<br />

und eines Widerstandes (akustische Feldimpedanz des freien Schallfeldes) interpretieren.<br />

Bei niedrigen Frequenzen "schließt die Induktivität den Widerstand fast kurz". Die Abstrahlimpedanz<br />

ist dann fast nur durch die mitschwingende akustische Masse mak (Induktivität)<br />

mit der akustischen Impedanz j ak m ω gegeben.<br />

37


2.4 Betriebsverhalten des eingebauten Lautsprechers<br />

Nun liegen alle Elemente vor, um das Betriebsverhalten des Lautsprechers berechnen zu<br />

können. Um von der elektrischen Spulenimpedanz unabhängig zu werden, betrachten wir den<br />

Fall einer Stromspeisung des Lautsprechers. Der von einem Spulenstrom i hervorgerufene<br />

Schalldruck p lässt sich aus dem Ersatzschaltbild nach Abb. 2-5 leicht berechnen.<br />

Z AF BlAZ BlAZ<br />

p = Zradq= Zrad Av= = ⋅i≈ ⋅ i.<br />

(2-18)<br />

Z A Z Z A Z Z<br />

rad i rad rad<br />

mech +<br />

2<br />

rad mech +<br />

2<br />

rad mech<br />

Dies ist der tatsächlich vor der Membran auftretende Druck. Offenbar ist es günstig, die<br />

Wandlerkonstante M = Bl und die abstrahlende Fläche A groß zu wählen.<br />

Meist interessiert man sich nicht <strong>für</strong> den unmittelbar an der Membran auftretenden<br />

Schalldruck, sondern <strong>für</strong> die ins Fernfeld abgestrahlte Leistung bzw. den dort auftretenden<br />

Schalldruck. Dazu muss man die akustische Wirkleistung betrachten. Für diese ist nicht die<br />

gesamte Abstrahlimpedanz, sondern nur ihr Realteil verantwortlich.<br />

1 1 ⎧⎪ ρ c A() r ⎫⎪<br />

1 ρ c 1<br />

P= q { Z } = q = q ⋅<br />

2 2 ⎩ 1 1 j ⎭ 2 ( ) 1 1<br />

2 2 = 2 =<br />

Re rad Re ⎨ ⎬<br />

⎪ 0 ⎪<br />

0<br />

[ + β r] A r + ( β r)<br />

2<br />

(2-19)<br />

Bei niedrigen Frequenzen ist die abgestrahlte Wirkleistung nur sehr gering. Aus Gl. (2-<br />

19) ergibt sich die Näherung<br />

1 c 1<br />

P q ( r) q<br />

2 ( ) 2 4<br />

2<br />

ρ ρ=<br />

≈ ⋅ =<br />

A r πc<br />

2 =<br />

2 2<br />

β0 ω<br />

.<br />

(2-20)<br />

Die Schallabstrahlung ist also bei niedrigen Frequenzen sehr schlecht. Die abgestrahlte<br />

Wirkleistung steigt proportional mit dem Quadrat der Frequenz. Die schlechte Schallabstrahlung<br />

bei niedrigen Frequenzen lässt sich physikalisch so interpretieren, dass hier vor allem<br />

nur eine akustische Masse ohne Transport von Wirkleistung hin und her bewegt wird. Die<br />

Abstrahlimpedanz ist fast rein imaginär. Erst mit wachsender Frequenz wird auch der Realteil<br />

größer. Trotz eines hohen Schalldrucks vor der Membran kommt niederfrequent kaum<br />

Schallabstrahlung zustande.<br />

Offenbar besteht die einzige Möglichkeit, die Schallabstrahlung zu vergrößern, darin,<br />

den erzeugenden Schallfluss q so groß wie möglich zu machen. Das bedeutet: man braucht<br />

große Membranflächen und große Auslenkungen der Membranen, um niedrige Frequenzen<br />

abzustrahlen ("Tieftöner").<br />

Für das Fernfeld wird nur der Teil des Membrandrucks wirksam der mit der Membranschnelle<br />

in Phase ist. Dies lässt sich über den Realteil der Abstrahlimpedanz ausdrücken. Der<br />

im Fernfeld wirksame Anteil des Membranschalldrucks ist demnach<br />

M, Fern rad rad<br />

mech, ges<br />

2<br />

( ρ 4πc)<br />

⋅ω<br />

ω 1/ ( ω )<br />

Bli<br />

p = q⋅ Re{ Z } = A Re{<br />

Z } ≈ BlA i<br />

Z w+ j m+ j n<br />

(2-21)<br />

Bei sehr niedrigen Frequenzen steigt dieser Druckanteil mit der dritten Potenz der Frequenz,<br />

oberhalb der mechanischen Resonanz des Lautsprechers linear mit der Frequenz. Unterhalb<br />

der mechanischen Resonanz ist die Schallabstrahlung also denkbar schlecht. Der<br />

Lautsprecher muss also so tief abgestimmt werden, dass der gewünschte Frequenzbereich<br />

oberhalb der Resonanzfrequenz liegt. Dies bedeutet eine relativ weiche Lagerung der Membran,<br />

da die Resonanzfrequenz gemäß<br />

f<br />

0<br />

1<br />

=<br />

2π<br />

⋅ m⋅n 38<br />

(2-22)


von der Nachgiebigkeit abhängt. Die Masse wird man nicht unnötig groß machen, da dies die<br />

Schallabstrahlung bei hohen Frequenzen verschlechtern würde.<br />

Die Zusammenhänge werden in Abb. 2-8 veranschaulicht. Die Schnelle der Membran<br />

folgt der mechanischen Admittanz. Der massebestimmte Abfall proportional 1/ω oberhalb<br />

der Resonanz führt wegen des Anstiegs des Realteils der Abstrahlimpedanz mit ω 2 zu einem<br />

ansteigenden Druckanteil <strong>für</strong> das Fernfeld. Erst wenn die Abstrahlimpedanz allmählich zunehmend<br />

reell wird, fällt der Druck. Man beachte die große Differenz zwischen dem tatsächlich<br />

vor der Membran auftretenden Druck und dem Fernfeldanteil. Ferner erkennt man, dass<br />

die abgestrahlte Schallleistung im mittleren Frequenzbereich in etwa frequenzunabhängig ist.<br />

Abb. 2-8: Schallabstrahlung beim elektrodynamischen Lautsprecher bei frequenzunabhängigem Speisestrom.<br />

Die schlechte Schallabstrahlung bei niedrigen Frequenzen kann durch verschiedene<br />

Maßnahmen verbessert werden. Hier sind neben den bereits genannten großen Membranschallflüssen<br />

vor allem eine tiefe mechanische Resonanzabstimmung und Bassreflexöffnungen<br />

zu nennen, bei denen der rückwärtige Schallanteil der Membran durch geeignete Phasendrehung<br />

zu einer Schallverstärkung genutzt werden kann.<br />

Strahlt der Schallsender nicht in den freien Raum, sondern z. B. direkt in den Gehörgang,<br />

so wird er durch eine völlig andere Impedanz als ein Kugelstrahler nullter Ordung belastet.<br />

Ein Kopfhörer oder ein Hörgeräte-Wandler arbeitet auf ein mehr oder minder geschlossenes<br />

Volumen. Dies hat den positiven Effekt, dass die Schallabstrahlung bei den tiefen Frequenzen<br />

kein großes Problem ist. In einem kleinen Volumen lassen sich mit geringen Flüssen bereits<br />

große Schalldrücke erzeugen. Ein Volumen V ist im Rahmen der elektroakustischen Analogie<br />

(Abb. 2-6) durch eine Nachgiebigkeit nak (Kondensator) gegeben, der entsprechend<br />

der Gleichung<br />

q<br />

p= , nak<br />

= 2<br />

jωn<br />

ρ = c<br />

V (2-23)<br />

ak<br />

bei geringen Volumina und niedrigen Frequenzen hohe Schalldrücke erzeugt.<br />

39


3. Kondensatormikrofon<br />

3.1 Aufbau und Ersatzschaltbild<br />

Bei dielektrischen Wandlern wird die Änderung eines elektrischen Feldes ausgenutzt.<br />

Das elektrische Feld befindet sich in einem Dielektrikum zwischen zwei metallisch leitenden<br />

Elektroden. Es wird also ein elektrischer Kondensator wirksam. Wie später gezeigt wird, ist<br />

das dielektrische Wandlerprinzip grundsätzlich nichtlinear. Man benötigt daher eine Linearisierung<br />

<strong>für</strong> kleine Signale um einen einzustellenden Arbeitspunkt herum. Die Spannung am<br />

Kondenstor muss also einen Gleichanteil enthalten, der viel größer als die Signalspannung<br />

ist. Den Gleichanteil nennt man Polarisationsspannung. Die Polarisationsspannung kann extern<br />

durch eine geeignete Gleichspannungsquelle erzeugt werden. Alternativ kann man Elektretfolien<br />

verwenden, die vorpolarisiert wurden. Die Polarisationsspannung ist dann sozusagen<br />

"bereits eingebaut".<br />

Die Wandlerkonstante N des dielektrischen Mikrofons erhält man durch Berechnung der<br />

Kraft im Kondensator. Diese wiederum erhält man am einfachsten aus der gespeicherten Energie<br />

1 1 Q<br />

W Cu<br />

2 2 C<br />

2<br />

=<br />

2<br />

= . (3-1)<br />

Im leerlaufenden Kondensator (keine Änderung der Ladung) mit einem Dielektrikum der<br />

Dielektrizitätszahl ε entsteht aufgrund der elektrischen Feldstärke eine Kraft F, die vom Plattenabstand<br />

x abhängt.<br />

2 2 2 2<br />

dW d 1 Q Q d x Q C0 2 C0<br />

F( x) u u<br />

d d 2 ( ) 2 d 2 2 2<br />

2<br />

⎧ ⎫ ⎧ ⎫<br />

= = ⎨ ⎬= ⎨ ⎬=<br />

≈ =<br />

x x⎩ C x ⎭ x⎩εA⎭ εA εA<br />

x<br />

(3-2)<br />

Der Zusammenhang zwischen Spannung und Kraft ist offenbar nicht linear, sondern<br />

quadratisch, annähernd gültig <strong>für</strong> den Kondensator C0 in Ruheposition der Platten ( x = d ).<br />

Für eine Spannung mit Gleichanteil U P (Polarisationsspannung) wird daraus<br />

( ) 2<br />

C0 2 C0 C0 CU 0 P<br />

F = u = ⋅ UP + u~ ⇒ F~ ≈ ⋅ 2UPu~<br />

= u~ = Nu<br />

~<br />

(3-3)<br />

2d 2d 2d<br />

d<br />

Mit der Polarisationsspannung U P kann der Arbeitspunkt gut eingestellt werden. Die<br />

Wandlerkonstante des linearisierten inneren Wandlers ist<br />

N<br />

CU<br />

d<br />

0 P = . (3-4)<br />

Für den verlust- und speicherfreien inneren Wandler ist das Verhältnis von Kraft zu<br />

Spannung mit dem von Strom zu Schnelle identisch. Zusammengefasst gilt also <strong>für</strong> den inneren<br />

dielektrischen Wandler<br />

CU 0 P<br />

F = Nu, v= i/ N , mit N = . (3-5)<br />

d<br />

Der Begriff "Kondensatormikrofon" ist eigentlich mit dem Begriff "dielektrisches Mikrofon"<br />

identisch. Man spricht jedoch meist nur dann von Kondensatormikrofonen, wenn<br />

hochwertige Mikrofone gemeint sind. Messmikrofone werden aus Gründen der Langzeitstabilität<br />

vorwiegend mit externer Polarisationsspannung, jedoch auch mit Elektretfolie hergestellt.<br />

Im letzteren Fall wird die Elektretfolie ausschließlich auf die feste Gegenelektrode geklebt<br />

("Rückplatten-Elektretmikrofone"). Hochwertige Studiomikrofone sind häufig als Elektretmikrofone<br />

ausgeführt. Dielektrische Mess- und Studiomikrofone zeichnen sich vor<br />

40


allem durch ihren extrem glatten Frequenzgang aus. Diese ergibt sich - wie im Verlauf dieses<br />

Abschnitts deutlich werden wird - aus der typischerweise sehr geringen Membranmasse, wodurch<br />

Trägheitseffekte erst bei sehr hohen Frequenzen relevant werden. Der glatte Frequenzgang<br />

ist auch der Grund <strong>für</strong> die Herstellung von besonders hochwertigen dielektrischen<br />

Kopfhörern.<br />

Unter dem Begriff "Elektretmikrofone" werden meist kleine, wenig aufwändig hergestellte,<br />

relativ billige Mikrofone verstanden. Derartige Mikrofone kosten inklusive des integrierten<br />

Impedanzwandlers ca. 100 €. Hochwertige Kondensatormikrofon-Kapseln kosten dagegen<br />

500-1500 €, hinzu kommt der Mikrofonvorverstärker und ein Mikrofonspeisegerät, das<br />

die Betriebsspannung <strong>für</strong> den Vorverstärker und evtl. die Polarisationsspannung liefert. Elektretmikrofone<br />

werden als Industriemikrofone, aber auch als Labormikrofone vielfach verwendet,<br />

wenn die Anforderungen an die Qualität (Glätte des Frequenzgangs, Unempfindlichkeit<br />

gegenüber Umwelteinflüssen wie Temperatur und Luftfeuchtigkeit, Langzeitstabilität,<br />

Klirrfaktor, etc.) nicht sehr hoch sind. Bei geeigneter Betriebsweise und mit sorgfältiger Kalibrierung<br />

lassen sich mit den Billig-Mikrofonen durchaus sehr genaue Messungen durchführen.<br />

Da Elektretmikrofone sich gut miniaturisieren lassen, werden sie auch in Hörgeräten<br />

verwendet.<br />

Kondensatormikrofone kann man auch in der so genannten Hochfrequenzschaltung<br />

betreiben. Dabei bildet die Kondensatormikrofon-Kapsel den Kondensator eines Schwingkreises.<br />

Man wertet bei dieser Betriebsart die Amplitudenschwankungen eines hochfrequenten<br />

Trägers durch die Kapazitätsänderungen aus. Die Hochfrequenzschaltung hat insbesondere<br />

dann Vorteile, wenn man sehr niederfrequente Schallsignale erfassen will oder auch unter<br />

Bedingungen, bei denen elektrische Störungen eine Rolle spielen. Diese können durch die<br />

Trägerfrequenztechnik weitgehend ausgefiltert werden. Hier wird aber nur die wesentlich<br />

häufiger verwendete NF-Schaltung besprochen. Eine typische Kapselausführung zeigt die<br />

nächste Abbildung.<br />

Die Membran bildet eine der beiden Elektroden (Abb. 3-1). Sie muss also metallisch und<br />

sehr dünn sein. Als Dielektrikum dient die Luft im Raum zwischen den beiden Elektroden.<br />

Der Abstand muss sehr schmal sein, um eine hinreichend große Kapazität C0 zu erhalten, er<br />

beträgt z.B. 20 μm. Damit das Kondensatormikrofon linear arbeitet, muss neben dem Vorhandensein<br />

einer Polarisationsspannung sichergestellt sein, dass die Membranauslenkungen<br />

nicht in die Größenordnung des Abstands kommen, sie sind also auf etwa 1 μm begrenzt.<br />

Dieser Wert entspricht dem Maximalpegel. Bei einer typischen Dynamik von etwa 120 dB<br />

und mehr liegt also die Auslenkung an der unteren Messgrenze bei 1 pm!<br />

Abb. 3-1: Aufbau einer Kondensatormikrofon-Kapsel<br />

Die Druckausgleichsöffnung dient dem statischen Druckausgleich. Ohne sie würden<br />

Schwankungen des statischen Drucks zu einer Vorspannung der Membran und damit zu einer<br />

Reduzierung der Empfindlichkeit führen. Allerdings wirkt sich die Druckausgleichsöffnung<br />

auch auf sehr niederfrequenten Schall aus. Die Öffnung wird daher äußerst klein gemacht,<br />

41


um nicht ungewollt ein Druckgradienten-Mikrofon zu bauen. Sie bewirkt eine untere Grenzfrequenz<br />

des Mikrofons, die man meist etwas unter die elektrische Grenzfrequenz legt, die<br />

durch die elektrischen Eigenschaften der Mikrofonkapsel und des Vorverstärkers bestimmt<br />

wird.<br />

3.2 Betriebsverhalten<br />

Abb. 3-2: Verschaltete Mikrofonkapsel (Ersatzschaltbild)<br />

Die elektrische Verschaltung der Mikrofonkapsel inklusive der unvermeidlichen Ersatzelemente<br />

zeigt Abb. 3-2. Die maßgebliche Kapazität Ct () = C0+Δ Ct () liegt in der Größenordung<br />

von mehreren pF. Sie ist also extrem klein, so dass der Anschluss eines Kabels die<br />

Kapazität stark verändert. Daher ist es notwendig, einen Impedanzwandler unmittelbar hinter<br />

die Kapsel zu schalten. Dieser drückt sich im Ersatzschaltbild als Eingangsimpedanz des<br />

Vorverstärkers aus (CV, RV). Eine unerwünschte Streukapazität Cs, die zwar kleiner als C(t)<br />

ist, aber durchaus die Größenordnung von einem pF erreicht, ist unvermeidlich.<br />

16<br />

Der Isolationswiderstand R0 kann mit großem Aufwand auf etwa 10 Ω gebracht werden.<br />

Der Vorwiderstand RP<br />

der Polarisationsspannungsquelle und der Eingangswiderstand<br />

des Verstärkers liegen typischerweise im GΩ-Bereich. Die Polarisationsspannung UP weist in<br />

der Regel Werte zwischen 30 und 500 V auf.<br />

Der Kondensator CK ist eine "Koppelkapazität", die der Auskopplung der Polarisationsspannung<br />

dient. Die gewünschte Ausgangsspannung ist ja nur die gegenüber der Polarisationsspannung<br />

UP äußerst kleine Wechselspannung u~ (gute Linearisierung). Die Koppelkapazität<br />

kann so groß gewählt werden, dass sie nicht stört (sinnvolle untere Grenzfrequenz).<br />

Die Kapselkapazität ändert sich mit der Auslenkung gemäß<br />

εA εA 1 ⎛ ξ(<br />

t)⎞<br />

Ct () = = ≈C0⎜1− ⎟<br />

d + ξ() t d 1 + ξ()/<br />

t d ⎝ d ⎠<br />

(3-6)<br />

wobei die Näherung <strong>für</strong> hinreichend kleine Auslenkungen gilt. Eine Analyse des Ersatzschaltbildes<br />

nach Abb. 3-2 ergibt <strong>für</strong> die Ausgangsspannung bei harmonischer Anregung,<br />

genähert <strong>für</strong> kleine Kapazitätsänderungen<br />

R0<br />

ξ<br />

jωC0U ξ<br />

P<br />

jωCU<br />

R 0<br />

0 + R P<br />

P d d jωNξ<br />

u ≈ ≈ = (3-7)<br />

1 1 1 1 1<br />

+ + + j ω( C + C + C ) + jωC + jωC<br />

0 s V<br />

R0RP RV R R<br />

mit den Abkürzungen R R0 RP RV<br />

= und C C0CsCV = + + . Offensichtlich tritt durch alle<br />

elektrischen Elemente zusammen eine untere Grenzfrequenz fu = 12πRC<br />

auf.<br />

Man legt die elektrische Grenzfrequenz des Mikrofons natürlich so tief wie möglich (R<br />

möglichst groß). Oberhalb dieser Grenzfrequenz gilt<br />

jωNξ<br />

N UC P 0 ξ<br />

u ≈ = ξ =<br />

j ωC<br />

C ( C + C + C ) d<br />

0<br />

s V<br />

42<br />

(3-8)


Das Mikrofon arbeit dann als Elongationswandler (u ξ ). Die Gleichung zeigt ferner,<br />

dass die Streukapazität und die Kapazität des Vorverstärkers die Empfindlichkeit reduzieren.<br />

Man darf also nicht etwa die Grenzfrequenz durch Vergrößerung von CV absenken, sondern<br />

durch großes R (der niedrigste Teilwiderstand ist maßgeblich!). Wenn man bei sehr niedrigen<br />

Frequenzen im Infraschallbereich messen muss, benötigt man Mikrofone in Hochfrequenzschaltung.<br />

Damit können sogar statische Auslenkungen gemessen werden.<br />

Gl. 3-7 lässt sich auf der elektrischen Seite des inneren Wandlers als Beschaltung mit einer<br />

Parallelschaltung aus R und C deuten. Insgesamt ergibt sich damit folgendes Ersatzschaltbild<br />

des Kondensatormikrofons.<br />

Abb. 3-3: Ersatzschaltung eines dielektrischen Mikrofons. Rechts: Vereinfachung <strong>für</strong> den Fall einer<br />

bereits bekannten Schnelle-Anregung.<br />

Abb. 3-4: Kondensatormikrofon-Kapseln mit Vorverstärker.<br />

Wie bereits gesagt, muss der Vorverstärker (als Impedanzwandler) direkt hinter die Mikrofonkapsel<br />

geschaltet werden. Ein längeres Anschlusskabel würde durch seine parallel geschaltete<br />

Kapazität die Empfindlichkeit des Mikrofons nach Gl. 3-8 stark herabsetzen. Ferner<br />

würden Störfelder aufgrund des hohen Impedanzniveaus leicht in den Vorverstärker eindringen<br />

können. Die Verbindung vom Mikrofon zum Vorverstärker wird daher stets gut gekapselt<br />

und abgeschirmt ausgeführt. Die Baugröße des Mikrofons wird meist im Wesentlichen<br />

durch den Vorverstärker (mit Heizung zur Vermeidung des Temperatureinflusses) bestimmt<br />

(Abb. 3-4).<br />

Aus dem Ersatzschaltbild liest man <strong>für</strong> elektrischen Leerlauf ab<br />

N⋅Z A⋅N⋅Z u = Zel ⋅ ii= Zel ⋅N⋅ vi= ⋅ F = ⋅ p.<br />

(3-9)<br />

2<br />

Z N Z Z N Z<br />

el el<br />

mech +<br />

2<br />

⋅ el mech + ⋅ el<br />

2<br />

Bei realen Ausführungen ist im Nenner die transformierte elektrische Impedanz N ⋅ Zel<br />

gegenüber<br />

der mechanischen Impedanz vernachlässigbar. Dann lässt sich die Gleichung oberhalb<br />

der elektrischen Grenzfrequenz schreiben<br />

43


( ω )<br />

( )<br />

A⋅N⋅ 1j C A⋅N⋅n/ C<br />

1<br />

u = ⋅ p= ⋅ p mit f =<br />

w+ m+ n + nw− f f mn<br />

2<br />

0<br />

jω 1 jω 1 j ω ( / 0)<br />

2π<br />

(3-10)<br />

Diese Gleichung zeigt, dass man mit Hochabstimmung, also mit einer Resonanzfrequenz<br />

f 0 oberhalb des gewünschten Frequenzbereichs einen äußerst glatten Frequenzgang erreichen<br />

kann. Da auch der Reibungswiderstand w problemlos gering gehalten werden kann, ist die<br />

elektrische Spannung u im Messfrequenzbereich nur durch den konstanten Zähler bestimmt.<br />

Die Hochabstimmung liegt wegen der geringen Membranmasse von Kondensatormikrofonen<br />

konstruktiv ohnehin nahe. Die zu einer Hochabstimmung notwendige steife Membraneinspannung<br />

(geringe Nachgiebigkeit n) steht allerdings im Widerspruch zu einer hohen Empfindlichkeit<br />

(Abb. 3-5).<br />

Abb. 3-5: Frequenzgänge eines Kondensatormikrofons mit veränderlicher Steife der Membran. Eine<br />

Erniedrigung der Membransteife erhöht zwar die Mikrofonempfindlichkeit, jedoch wird die mechanische<br />

Resonanzfrequenz herabgesetzt. Bei den drei gezeigten Verläufen liegt jeweils ein Faktor 10 zwischen<br />

den Membransteifen. Die angenommene Güte der mechanischen Resonanz beträgt 50.<br />

Die Umwandlung eines Schalldrucks in eine proportionale elektrische Spannung ist offenbar<br />

mit einem Kondensatormikrofon nahezu ideal realisierbar. Größere Fehler treten jedoch<br />

durch die Rückwirkung des Mikrofons auf das Schallfeld auf. Das Mikrofon bewirkt<br />

durch seine Anwesenheit Beugungs- und Streuungseffekte, die wesentlich von der Baugröße<br />

abhängen.<br />

Bei Messungen im freien Schallfeld bzw. in einem reflexionsarmen Raum, bei denen der<br />

Schall von nur einer Schallquelle auf das Mikrofon gelangt, kann man daher eine deutliche<br />

Richtungsabhängigkeit des resultierenden Frequenzgangs beobachten (Abb. 3-6). Bei dem<br />

betrachteten Mikrofon handelt es sich um ein so genanntes "Druckmikrofon", weil es eine<br />

druckproportionale Ausgangsspannung mit flachem Frequenzgang liefert. Bei Schalleinfall<br />

von vorne in der Mittelachse der Mikrofonmembran entsteht ein deutlicher Druckstau-Effekt<br />

bis zu etwa 12 dB. Dies ist weit mehr als der Druckstau vor einer schallharten Wand (Druckverdopplung<br />

entspricht 6 dB).<br />

44


Abb. 3-6: Frequenzgänge eines "Druckmikrofons" <strong>für</strong> verschiedene Schalleinfallsrichtungen. (Verhältnis<br />

zwischen dem Schalldruck an der Mikrofonmembran und dem Druck, der an der gleichen Stelle<br />

ohne Vorhandensein des Mikrofons auftreten würde.)<br />

Neben den "Druckmikrofonen" werden auch "Freifeld-Mikrofone" angeboten, deren<br />

Empfindlichkeit bei hohen Frequenzen durch akustomechanische Maßnahmen so abgesenkt<br />

wird, dass der durch Beugung und Streuung hervorgerufene Anstieg möglichst gut kompensiert<br />

wird. Dies lässt sich selbstverständlich nur <strong>für</strong> eine Richtung, nämlich <strong>für</strong> frontalen<br />

Schalleinfall realisieren. Freifeld-Mikrofone werden hauptsächlich <strong>für</strong> Messungen im freien<br />

Schallfeld (z. B. im reflexionsarmen Raum) eingesetzt, wenn man eindeutig eine Schallausbreitungsrichtung<br />

definieren kann. Natürlich muss man darauf achten, dass das Mikrofon tatsächlich<br />

in Richtung der Ausbreitung ausgerichtet wird. Wie Abb. 3-6 weiterhin zu entnehmen<br />

ist, sind die Frequenzgang-Abweichungen bei diffusem Schalleinfall relativ gering. Man<br />

wird also bei Messungen in diffusen Schallfeldern (z. B. im Hallraum) auch Druck-<br />

Mikrofone verwenden.<br />

4. Richtwirkung<br />

4.1 Richtwirkung durch Interferenz<br />

Als einfachsten Fall betrachten wir Wandler, die entlang einer Linie angebracht sind. Bei<br />

Schallsendern bedeutet das eine Lautsprecherzeile, bei Empfängern ein entlang einer Linie<br />

angeordnetes Mikrofonarray. Im Folgenden wird die Richtwirkung anhand einer kontinuierlichen<br />

Belegung der Linie mit Schallstrahlern betrachtet. Aus der Reziprozität akustischer Systeme<br />

lässt sich folgern, dass die Richtcharakteristik einer Anordnung erhalten bleibt wenn<br />

man zwischen Sende- und Empfangsbetrieb wechselt. Die hier zunächst <strong>für</strong> den Sendebetrieb<br />

erhaltenen Richtcharakteristiken gelten also genauso <strong>für</strong> den Schallempfang.<br />

Die Belegung der Linie mit Schallstrahlern beschreibt man am besten durch Punktstrahler<br />

mit gegebenen Quellschallflüssen, die man auch als Ergiebigkeit der Strahler bezeichnet.<br />

Durch Reduzierung des Kugelstrahlers nullter Ordnung auf einen Punkt erhält man aus der<br />

hier wiederholten Gleichung <strong>für</strong> den Kugelstrahler nullter Ordnung<br />

45


p<br />

pr () e<br />

r<br />

+ − jβ0r<br />

= . (2-13)<br />

den Schalldruckverlauf <strong>für</strong> einen Punktstrahler nullter Ordnung mit der Ergiebigkeit q0.<br />

jωρ<br />

q<br />

pr () e<br />

4π<br />

r<br />

= 0 − jβ0r<br />

= . (4-1)<br />

Abb. 4-1: Zur Interferenz beim Linienstrahler in einem weit entfernten Aufpunkt. Der Linienstrahler<br />

hat die Gesamtlänge L und besitzt einen längenbezogenen Ergiebigkeitsbelag q0( ′ x)<br />

. Der Ausdruck<br />

x cosθ<br />

bezeichnet die ortsabhängige Abweichung der Weglänge von der mittleren Weglänge.<br />

Betrachtet man nun eine Linienstrahler endlicher Länge L, der einen längenbezogenen ,<br />

i. A. ortsabhängigen Ergiebigkeitsbelag q0( ′ x)<br />

besitzt, so kann man an einem weit entfernten<br />

Aufpunkt durch Integration die Beiträge aller differentiell kleinen Punktstrahler überlagern<br />

("Huygens-Fresnelsches Prinzip").<br />

L/2 −j 0( r0−xcos ) L/2<br />

j 0xcos<br />

jωρ= e jωρ= − jβ<br />

e<br />

00 r<br />

0 = ′ 0 =<br />

′ 0<br />

r - L/2 0 −x r - L/2<br />

0 −x<br />

β θ β θ<br />

∫ ∫ (4-2)<br />

p( r , θ ) q ( x) dx e q ( x)<br />

dx<br />

4π cosθ 4π cosθ<br />

Da wir einen Aufpunkt im Fernfeld betrachten, sind die Amplitudenänderungen aufgrund<br />

der unterschiedlichen Weglängen nur gering (also der Nenner im Integranden). Hingegen<br />

bleiben die Laufzeitdifferenzen trotzdem wichtig, weil sich die Laufzeit in der Phase widerspiegelt,<br />

die modulo 2π wirksam wird. Die lange Grundstrecke mit der zugehörigen Phase<br />

β 0r0 entspricht einer konstanten Laufzeit und ist ist <strong>für</strong> die Richtcharakteristik uninteressant.<br />

Für die Interferenz werden nur die Phasendifferenzen β0x cosθ<br />

wirksam. Mit der genannten<br />

Näherung erhalten wir<br />

L/2 L/2<br />

jωρ= −jβ00 r jβ0xcosθ jωρ=<br />

−jβ00<br />

r jkx<br />

0 θ = ′ 0<br />

=<br />

′ 0<br />

4πr0 4πr<br />

- L/2 0 - L/2<br />

p( r , ) e ∫ q ( x)e dx e ∫ q ( x)e dx<br />

(4-3)<br />

Die Größe<br />

k = β cosθ = 2π cos θ / λ . (4-4)<br />

0<br />

bezeichnet man als Ortswellenzahl oder "Raumfrequenz".<br />

Die zuletzt genannte Bezeichnung ergibt sich daraus, dass Gl. 4-3 zeigt, dass der entstehende<br />

Schalldruck aus dem Ergiebigkeitsbelag durch eine Fourier-Transformation hervorgeht.<br />

Der Ergiebigkeitsbelag q0( ′ x)<br />

spielt darin die Rolle der Zeitfunktion. Der Druck ist pro-<br />

46


portional zu einer Fourier-Transformierten, wobei die Rolle der Frequenz von der Ortswellenzahl<br />

(Raumfrequenz) übernommen wird. Die Berechnung von Schalldruckverteilungen<br />

aus Ergiebigkeitsbelägen mit Hilfe der Fourier-Transformation wird als "Fourier-Akustik"<br />

bezeichnet.<br />

f() t ⇔ F(j ω)<br />

⇐⇒ q′ () x ⇔ p( −j<br />

k)<br />

L /2<br />

∫<br />

- L /2<br />

′ 0<br />

+jkx<br />

0<br />

= β0 2π<br />

θ =<br />

λ<br />

θ (4-5)<br />

pk ( ) q( x)e d x , k cos cos<br />

Um daraus den Richtfaktor zu erhalten, muss man auf den Druck in der Richtung der<br />

größten Schallabstrahlung beziehen, so dass der Maximalwert 1 wird und alle Vorfaktoren<br />

herausfallen. Für den Linienstrahler mit konstantem Ergiebigkeitsbelag q′ 0 ergibt das Integral<br />

entsprechend der Fourier-Transformierten des Rechteckpulses eine Spaltfunktion ("Sinus<br />

cardinalis" si(x) oder auch sinc(x)), so dass man <strong>für</strong> den Betrag des Richtfaktors erhält<br />

0<br />

( )<br />

( )<br />

sin( kL / 2) sin ⎡β0⋅ L / 2 ⋅cosθ⎤<br />

⎧β0L⎫ ⎧ L ⎫<br />

D(<br />

θ ) = =<br />

⎣ ⎦<br />

= si⎨ ⋅ cosθ⎬ = si⎨π cosθ⎬<br />

kL /2 β ⋅ L /2 ⋅cosθ ⎩ 2 ⎭ ⎩ λ ⎭<br />

(4-6)<br />

Abb. 4-2: Richtcharakteristik eines Linienelements mit konstantem Ergiebigkeitsbelag q'0 der Länge L<br />

<strong>für</strong> den Fall L = 2λ<br />

.<br />

Mit der Lautsprecherzeile bzw. dem Mikrofonarray kann man also eine deutliche Richtwirkung<br />

erzielen. Mit längeren Linienelementen wird die "Hauptkeule" schärfer, aber es entstehen<br />

immer mehr "Nebenkeulen".<br />

Eine wichtige Anwendung kann man sich durch Anwendung einer bekannten Regel der<br />

Fouriertransformation überlegen:<br />

ω<br />

f()e t ⇔ F(jω− j ω ) bzw. q′ ( x)e ⇔ D( k− k ) = D(cosθ<br />

−cos θ ) (4-8)<br />

j 0t -jk0x<br />

0 0 0<br />

Durch Belegung der Lautsprecherzeile mit einer linearen Phase gemäß Gl. 4-8 kann also der<br />

Bezugswinkel θ 0 verändert werden. Die Richtcharakteristik wird kann somit durch das Hinzufügen<br />

des Phasenverlaufs kontinuierlich geschwenkt werden, was <strong>für</strong> die Beschallungstechnik<br />

sehr hilfreich ist. Das "elektronische Schwenken" wird durch entsprechend verzöger-<br />

47<br />

0


te Ansteuerung von Lautsprechern realisiert, so dass der Ergiebigkeitsbelag durch die<br />

Teilstrahler den gewünschten Phasenverlauf über der Länge der Lautsprecherzeile hat. Da die<br />

D(cosθ cos θ )<br />

D cos( θ − θ ) ist, ändert die Richtcharakteris-<br />

Abhängigkeit 0<br />

tik dabei etwas ihr Aussehen.<br />

− , nicht jedoch [ ]<br />

Abb. 4-3: Schwenken der Richtcharakteristik einer Lautsprecherzeile durch Laufzeitketten.<br />

Die entsprechenden Möglichkeiten zum Schwenken der Richtcharakteristik kann man<br />

auch <strong>für</strong> linienförmig angeordnete Mikrofonarrays ("Beamforming") anwenden. Hier<strong>für</strong> werden<br />

bei Hörgeräten bis zu drei Mikrofone verwendet.<br />

Die hier nur <strong>für</strong> Linienstrahler- und empfänger dargestellten Möglichkeiten lassen sich<br />

auf flächenhafte Elemente übertragen. Dies läuft auf eine räumliche Fouriertransformation<br />

hinaus. Richtcharakteristiken lassen sich damit beliebig im Raum schwenken.<br />

4.2 Druck- und Druckgradientenempfänger<br />

Einfache Richtcharakteristiken kann man auch dadurch erzielen, dass man Schall nicht<br />

nur auf die Vorderseite einer Membran auftreffen lässt, sondern in konstruktiv definierter<br />

Weise auch auf die Rückseite.<br />

Zunächst betrachten wir aber den Fall, dass der Schall tatsächlich nur von einer Seite auf<br />

eine Mikrofonmembran treffen kann. Damit hat man einen einseitig Schall aufnehmenden<br />

Empfänger realisiert, der dem einseitig Schall abstrahlenden Sender entspricht. Wie dieser<br />

hat er niederfrequent eine kugelförmige Richtcharakteristik nullter Ordnung, die keine Richtung<br />

bevorzugt ("omnidirektionales" Mikrofon). Ein solches Mikrofon nennt man auch<br />

Druckempfänger.<br />

Lässt man nun den Schall auch von der Rückseite auf das Mikrofon treffen, so wird das<br />

Ausgangssignal des Mikrofons xmic proportional zur Druckdifferenz Δp. Geht man vereinfachend<br />

davon aus, dass das Schallfeld durch die Anwesenheit des Mikrofons nicht gestört<br />

wird, ergibt sich bei einer endlichen effektiven Länge Δx des Mikrofons folgender Zusammenhang<br />

∂p<br />

xmic Δp≈ ⋅Δx.<br />

(4-9)<br />

∂x<br />

Es wird also der räumliche Druckgradient als akustisches Eingangssignal wirksam. Daher<br />

bezeichnet man solche Mikrofone als Druckgradientenmikrofone.<br />

In einem rein fortschreitenden ebenen Schallfeld bzw. im Fernfeld eines Kugelstrahlers,<br />

das aus einem Winkel ϑ gegenüber der Mittelachse durch die Membran einfällt, erhält man<br />

den Druckgradienten wie folgt<br />

∂p<br />

p= p ⇒ =− β ϑ⋅ p ω<br />

∂x<br />

− jβ0xcosϑ + e j 0 cos j cos<br />

0<br />

ϑ,<br />

(4-10)<br />

Man erhält eine dem Term cosϑ entsprechende Richtcharakteristik. Diese hat die Form einer<br />

48


liegenden Acht und wird deswegen auch als Achtercharakteristik bezeichnet. Räumlich entspricht<br />

die "Acht " zwei Kugeln, die mit entgegengesetzter Phasenlage empfangen.<br />

Abb. 4-4: Achter-Charakteristik eines Druckgradientenempfängers (Kugelschallempfänger erster<br />

Qrdnung)<br />

Gl. (4-10) zeigt, dass die Empfindlichkeit bei niedrigen Frequenzen sehr gering ist. Dies<br />

erklärt sich dadurch, dass die Drücke auf beiden Seiten der Membran fast identisch sind. Sie<br />

unterscheiden sich niederfrequent ja fast nur durch die (kleine) Phase.<br />

Durch Kombination eines Druck- und eines Druckgradienten-Empfängers lassen sich<br />

weitere Richtcharakteristiken einstellen. Man kann eine Linearkombination beider Anteile<br />

bilden, indem man entweder elektrisch die Ausgangssignale eines Druck- und eines Druckgradienten-Empfängers<br />

addiert oder indem man nur ein einziges Mikrofon verwendet, bei<br />

dem der rückwärtige Schalleinlass nur teilweise wirksam wird.<br />

Dadurch erhält man Ausgangssignale, die einen Druck- und einen Druckgradientenanteil<br />

besitzen<br />

x = c p+ c<br />

mic<br />

1 2<br />

∂p<br />

. (4-11)<br />

∂ r<br />

Damit erzeugt man die Richtcharakteristik<br />

xmic ( ϑ) c1+ c2cosϑ<br />

D(<br />

ϑ)<br />

= =<br />

x ( ϑ)<br />

c + c<br />

mic<br />

max<br />

1 2<br />

(4-12)<br />

So lässt sich ein bevorzugt aus einer Seite empfangendes Mikrofon realisieren. Für gleiche<br />

Gewichtung, also c c erhält man die "Nierencharakteristik" ("Kardioide")<br />

1 = 2<br />

D = 0.5 (1+ cos ϑ)<br />

. (4-13)<br />

Abb. 4-53: Bildung einer Nierencharakteristik aus Kugel- und Achtercharakteristik<br />

49


Durch Variation der Koeffizienten lassen sich auch andere Nierenformen bilden. So unterscheidet<br />

man z. B. die Superniere und die Hyperniere. In der Realität lassen sich solche<br />

Idealformen allerdings nur approximieren. Reale Richtcharakteristiken sind immer deutlich<br />

frequenzabhängig.<br />

Abb. 4-6: Verschiedene Nierencharakteristiken.<br />

Verschiedenartige Richtcharakteristiken bei Verwendung einer einzigen Membran werden<br />

durch akustische Filter erzeugt, die den rückwärtigen Schalleintritt frequenzabhängig<br />

variieren. Ein Beispiel ist in Abb. 4-7 dargestellt. Allerdings ist diese Darstellung eher als<br />

Prinzipschema zu sehen, praktische Ausführungen sind meist aufwändiger.<br />

Abb. 4-7: Richtmikrofon mit akustischen Filtern<br />

Anhang: Kleine Schallsender und -empfänger <strong>für</strong> Hörgeräte<br />

Im Folgenden sind <strong>für</strong> einige besonders kleine Schallsender und -empfänger, wie sie in Hörgeräten<br />

verwendet werden, die erreichbaren Empfindlichkeiten angegeben. Neben den hier<br />

gezeigten Eigenschaften sind selbstverständlich weitere Daten von Interesse. Dazu zählt insbesondere<br />

das Rauschverhalten.<br />

50


Elektromagnetische Sender<br />

Knowles electromagnetic receiver BK (Dimensions: 7.87mm x 5.59mm x 4.04mm)<br />

Angaben in dB re 20μPa, also als sound pressure level (SPL) <strong>für</strong> Stromspeisung mit 1 mA<br />

Knowles electromagnetic mini receiver FFH (Dimensions: 5.09mm x 2.80mm x 2.59mm)<br />

Bauform eines miniaturisierten elektromagnetischen Hörgeräte-Schallsenders (Hörer). Die beiden<br />

Spulen erzeugen gegenphasige Induktionen im oberen und unteren Teil, wodurch eine Wechselkraft<br />

auf den Anker ausgeübt wird. Diese wird über ein Koppelelement auf die Membran übertragen. Der<br />

Schallauslass ist rechts zu sehen.<br />

51


Elektretmikrofone<br />

Knowles electret microphone EA (5.56 mm x 3.98 mm x 2.21 mm)<br />

-60 dB re 1V/0.1 Pa = -60 dB re 10 4 mV/Pa entspricht 10 mV/Pa<br />

Knowles electret microphone FG (dimensions: 2.59 mm diameter x 2.59 mm)<br />

52


-<br />

Das periphere Hörorgan – Funktionsweise und Modellbildung<br />

Herbert Hudde / Bochum<br />

Außenohr<br />

Akustische Modellierung des Gehörgangs<br />

Der Gehörgang bildet eine akustische Leitung. Dadurch kann in bestimmten Frequenzbereichen<br />

eine (passive) Schalldruckverstärkung realisiert werden. Nur bei niedrigen Frequenzen<br />

(unter 1 kHz) kann der Gehörgang als Volumen angesehen werden, in dem überall fast der<br />

gleiche Schalldruck herrscht.<br />

Abb. 1: Grundmodell des Gehörgangs. pecE: Quellschalldruck des äußeren Schallfelds am Eingang E<br />

des Gehörgangs. ZecE: Innenimpedanz der äußeren Quelle, identisch mit der Abstrahlimpedanz des<br />

Gehörgangs aus Ebene E. ZD: „Trommelfellimpedanz“ in der Ebene D, K: akustische Kettenmatrix<br />

des Gehörgangs.<br />

Impedanzen, Übertragungsfunktionen, Resonanzen<br />

Abb 2: Übertragungsfunktionen verschiedener Gehörgänge von einer äußeren Schallquelle zum<br />

Trommelfell. Die Anhebungen entstehen aufgrund des harten Trommelfells bei Frequenzen, bei denen<br />

der Gehörgang etwa eine bzw. drei viertel Wellenlängen lang ist.<br />

Die Übertragungsfunktion Quelle bis Trommelfell zeigt Gehörgangsresonanzen:<br />

pD<br />

p<br />

=<br />

1+ YZ ′ ′ ⋅ cos β l<br />

1<br />

+ j Y′ + Z′ ⋅sin<br />

β l<br />

( ) ( ) ( ) ( )<br />

ecE D ecE 0 ec D ecE 0 ec<br />

′ = ′ = = ⋅ .<br />

cos β l = 0 , sin β l =<br />

1<br />

mit ZecE ZecE / ZL YD1/( ZD/ ZL) YDZL Hauptresonanzen bei: ( ) ( )<br />

0 ec 0 ec<br />

53


-<br />

Das sind die λ/4-Resonanz und (schwächer) die 3λ/4-Resonanz. Sie treten auf, weil der Gehörgang<br />

am Ende ziemlich hart (Trommelfellimpedanz) und am Eingang ziemlich weich<br />

(Abstrahlimpedanz) abgeschlossen ist.<br />

Modellierung von Außenohr-Übertragungsfunktionen<br />

Man benötigt allgemeine numerische Verfahren <strong>für</strong> Schallfeldberechnungen im Außenraum<br />

eines Kopfes. Da sich HRTFs auf Beschallung aus dem Fernfeld beziehen, ist die Verwendung<br />

von Randelementen (Boundary Element Method, BEM) besonders vorteilhaft.<br />

Zusammenfassung Außenohr<br />

• Funktional gesehen gehören nicht nur die Pinna, sondern der gesamte Kopf und sogar der<br />

Rumpf (zumindest die Schultern) zum Außenohr, weil alle genannten Elemente die richtungsabhängige<br />

Schalleinkopplung in den Gehörgang beeinflussen.<br />

• Der Gehörgang bietet Schutz vor Verletzungen des Mittelohres.<br />

• Der Gehörgang bildet einen Leitungsresonator, der im <strong>für</strong> die Sprachkommunikation<br />

wichtigen Frequenzbereich zwischen 2 und 5 kHz eine Anhebung des Schalldrucks um bis<br />

zu etwa 15 dB bewirkt.<br />

• Die Übertragungsfunktionen des Gehörgangs werden vor allem durch seine Länge, aber<br />

auch durch seine gesamte Form individuell beeinflusst.<br />

Eindimensionale Modellierung<br />

Mittelohr<br />

Abb. 3: Einfachste Grundstruktur eines Mittelohrmodells ohne Berücksichtigung von elastischen Elementen<br />

und Massen: Mittelohr als Hebelübertrager mit Hebelverhältnis h. Die Impedanz Zcav beschreibt<br />

die (geringe) Wirkung der Paukenhöhle. Hingegen bestimmt die akustische Eingangsimpedanz<br />

ZC der Cochlea, auf die die Stapesfußplatte arbeitet, wesentlich die Mittelohrübertragungsfunktionen<br />

mit.<br />

Wenn man annimmt, dass das Mittelohres mechanisch durch einen einfachen Hebelübertrager<br />

mit dem Hebelverhältnis h charakterisiert werden kann, so ergibt sich aus dem Ersatzschaltbild<br />

folgender Zusammenhang zwischen den akustischen Ein- und Ausgangsgrößen<br />

(am Trommelfell bzw. hinter der Stapesfußplatte).<br />

⎛ AF<br />

⎞<br />

0<br />

pD 1 AD 0 1 h 0 AF<br />

0 p<br />

⎜<br />

C h A<br />

⎟<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⋅ D ⎛ pC⎞<br />

⎜ ⎟= ⎜ ⎟⋅ qD 0 A<br />

⎜ ⎟⋅⎜<br />

⎟⋅<br />

⎜ ⎟= ⎜ ⎟⋅⎜<br />

⎟<br />

⎝ ⎠ ⎝ D⎠ ⎝ 0 h⎠ ⎝ 0 1 AF<br />

⎠ ⎝qC ⎠ ⎜ h⋅AD⎟ qC<br />

0<br />

⎝ ⎠<br />

⎜<br />

A<br />

⎟<br />

⎝ F ⎠<br />

Das gesamte wirksame Übertragungsverhältnis ist danach durch das Flächenverhältnis<br />

Trommelfell zu Stapesfußplatte und das Hebelverhältnis gegeben. Da das Hebelverhältnis<br />

jedoch nahe bei 1 liegt, wird hauptsächlich das Flächenverhältnis wirksam.<br />

54


-<br />

Übertragungsverhalten<br />

Die Annahme, dass das Mittelohr mechanisch ein Hebelübertrager sei, ist viel zu grob, um<br />

die tatsächlichen Verhältnisse richtig zu beschreiben. Die elastischen Elemente (Trommelfell,<br />

Bänder, Muskeln) und die vor allem durch ihre Massenträgheit wirksamen Ossikel führen<br />

dazu, dass die vereinfachte Betrachtung eines Hebelübertragers allenfalls im Bereich der<br />

Hauptresonanz des Mittelohres näherungsweise anwendbar ist. Eine realistischere Beschreibung<br />

des Mittelohres führt auf folgende Übertragungsfunktionen.<br />

Abb. 4: Schalldruckübertragungsfunktion von einer äußeren Quelle (pecE) zur Cochlea (pC) <strong>für</strong> verschiedene<br />

Fälle im Vergleich zu einem theoretischen Optimum, das der (unrealistischen) Annahme<br />

entspricht, dass dem äußeren Schallfeld die maximale Leistung entnommen und vollständig in die<br />

Cochlea übertragen wird.<br />

Die tatsächlich auftretenden Schwingungen können von den üblichen eindimensionalen<br />

Netzwerkmodellen des Mittelohres nicht erfasst werden. Mit verallgemeinerten Netzwerkmodellen<br />

oder mit finiten Elementen können realistischere Vorhersagen gemacht werden.<br />

Dabei zeigt sich, dass die Ossikel in verschiedenen Frequenzbereichen recht unterschiedlich<br />

schwingen. Trotzdem entstehen ähnliche Übertragungsfunktionen wie bei eindimensionalen<br />

Modellen.<br />

Abb. 5: Stapesauslenkung bei Anregung mit einem Schalldruck von 1 Pa als Funktion der Frequenz.<br />

Dieser Frequenzgang wurde mit einem verallgemeinerten Netzwerkmodell berechnet, das räumliche<br />

Schwingungen der Ossikel erfasst. Die Schwingungsformen ändern sich stark mit der Frequenz.<br />

55


-<br />

Besondere Merkmale und Mechanismen des Mittelohrs<br />

• Existenz einer besonders empfindlichen Vorzugsrichtung.<br />

• Sehr flexibles Incudostapedial-Gelenk.<br />

• Hohe Flexibilität der gesamten Ossikelkette.<br />

• Seitlich aus dem Übertragungsweg vom Manubrium zum ovalen Fenster ausgelagertes<br />

Massenzentrum (Malleus-Kopf und Incus-Hauptkörper).<br />

• Konisch eingezogene Form des Trommelfells.<br />

• Überlastschutz im Incudomallear-Gelenk.<br />

• Breitbandige Luftschall-Übertragung auch unter ungünstigen Bedingungen.<br />

• Allgemein geringe Parameter-Empfindlichkeit.<br />

• Erhöhte Stoß-Isolation.<br />

Zusammenfassung Mittelohr:<br />

• Das Mittelohr bildet im Bereich seiner Hauptresonanz bei etwa 800-1000 Hz einen Anpassungsübertrager<br />

zur Verbesserung der Energieübertragung von der Luft im Gehörgang in<br />

die Flüssigkeiten des Innenohres. Das theoretische Optimum wird allerdings um etwa 20<br />

dB verfehlt.<br />

• Das Übertragerverhältnis wird vorwiegend durch das Flächenverhältnis Trommelfell/Stapes-Fußplatte<br />

gebildet.<br />

• Bei niedrigen und bei hohen Frequenzen bestimmen allerdings weitgehend die elastischen<br />

Elemente (Trommelfell und Bänder) und die Massen (Ossikel) das Übertragungsverhalten.<br />

Daher ist die Abweichung vom Optimum dort viel größer (60 dB bei 160 Hz, 50 dB bei<br />

16 kHz).<br />

• In Kombination mit der Druckverstärkung durch den Gehörgang entsteht im Frequenzbereich<br />

zwischen 800 Hz und 4 kHz eine gute Annäherung an das Optimum (bis auf etwa<br />

20 dB).<br />

• Das "biomechanische Design" des menschlichen Mittelohrs macht aus der Not eine Tugend:<br />

Die mangelnden Möglichkeiten, präzise Lager und Führungen zu realisieren, werden<br />

ausgeglichen durch einen ausgeklügelten Einsatz von Flexibilität und Massenverteilung.<br />

• Dadurch werden u. A. eine gute Isolation vor Stößen auf den Kopf und eine insgesamt<br />

geringe Parameterempfindlichkeit erzielt.<br />

Innenohr<br />

Abb. 6: Das Innenohr besteht aus dem Gleichgewichtsorgan und der Cochlea. Nur die Cochlea ist <strong>für</strong><br />

das Hören zuständig. Im Inneren der Cochlea befindet sich ein flüssigkeitsgefülltes System mit drei<br />

von einander getrennten Kanälen (Scalen).<br />

56


-<br />

Das Kanalsystem in der Cochlea windet sich in etwa zweieinhalb Windungen von der Basis<br />

bis zum Apex. Für die mechanische Funktionsweise spielt die Reissnersche Membran nur<br />

eine untergeordnete Rolle. Daher bilden Scala vestibuli und Scala media zusammen einen<br />

oberen Kanal und die Scala tympani allein einen unteren Kanal. Die beiden Kanäle werden<br />

getrennt durch die Basilarmembran (BM) mit dem darauf befindlichen Corti-Organ. Die mechanische<br />

Abstimmung der inhomogenen Basilarmembran führen zu einer Wanderwelle entlang<br />

dieser Membran von der Basis zum Apex. Die Abstimmung erfolgt im Wesentlichen<br />

durch die mechanische Nachgiebigkeit der BM, die von Apex bis zur Basis immmer weicher<br />

wird. Die Wanderwelle bildet an einer von der Anregungsfrequenz abhängigen Stelle ein<br />

Maximum aus. Zu jedem Ort gehört also eine Bestfrequenz. Bei Anregung mit breitbandigen<br />

Signalen findet dadurch eine spektrale Aufspaltung in der Weise statt, dass bestimmte Frequenzbereiche<br />

bestimmten Abschnitten auf der Basilarmembran entsprechen. In diesem Sinne<br />

arbeitet die Cochlea als eine Art Fourieranalysator.<br />

Abb. 7: Querschnitt (A) durch die gesamte Cochlea und (B) durch eine Windung. Im rechten Teilbild<br />

erkennt man die Lage der Basilarmembran (BM) mit dem darauf liegenden Corti-Organ.<br />

Eindimensionale Modellierung der in das Kanalsystem eingebetteten Basilarmembran<br />

(passives Modell)<br />

Abb. 8: Boxmodell der zwischen flüssigkeitsgefüllten Räumen eingebetteten abgewickelten Basilarmebran.<br />

57


-<br />

Setzt man voraus, dass die BM wie folgt durch einen auf die Membranfläche bezogenen Impedanz-<br />

Z''(z) beschrieben werden kann<br />

p( z) =Δ pBM ( z) = Z′′ ( z) ⋅ vBM ( z)<br />

,<br />

so findet man folgende Differenzialgleichung<br />

2<br />

∂ p( ω,<br />

z) b<br />

+ 2j ωρ Y′′ ( ω, z) ⋅ p( ω,<br />

z)<br />

= 0 .<br />

2<br />

∂z<br />

A<br />

Hierin bedeuten p(ω, z) Schalldruckdifferenz zwischen Ober- und Unterseite der BM bei einer<br />

Kreisfrequenz ω und an einem Ort z auf der BM, Y"(ω, z) flächenbezogener Admittanzbelag<br />

der BM (Kehrwert des Impedanzbelags), ρ die Dichte, b die Breite der BM und A die<br />

Querschnittsfläche beiden Kanäle. Gemäß Frequenz und Ort auf der BM bestimmt entweder<br />

der nachgiebigkeitsbestimmte oder der reibungsbestimmte Teil des Admittanzbelags die Differenzialgleichung.<br />

Man findet <strong>für</strong> die beiden Teile sehr große Unterschiede im Verhalten.<br />

Nachgiebigkeitsbestimmter Bereich:<br />

2<br />

∂ p b 2 ε z<br />

− 2ρ n′′ 2 0ω<br />

e p=<br />

0<br />

∂z<br />

A<br />

Reibungsbestimmter Bereich:<br />

2<br />

∂ p b 1<br />

+ 2jρ ωp=<br />

0<br />

2<br />

∂ z A w′′<br />

Im letzteren Fall ist der auftretende Koeffizient imaginär, im Gegensatz zum rellen Koeffizienten<br />

in der oberen Gleichung. Dies führt auf die beiden Lösungsanteile, die dem Anstieg<br />

und dem raschen Abfall der folgenden Kurven entsprechen.<br />

Abb. 9: Örtliche Schnelleverteilung entlang der BM bei Anregung mit sinusförmigen Stapesschnellen.<br />

Die als Parameter angegebenen Zahlenwerte sind Frequenzen in kHz.<br />

Im nachgiebigkeitsbestimmten Bereich wächst die Schwingungsamplitude der einlaufenden<br />

Wanderwelle an, wobei die Welle abgebremst wird. Gemäß der Differenzialgleichung entsteht<br />

am Übergang in den reibungsbestimmten Bereich ein Maximum, danach ein steiler Abfall<br />

Richtung Apex. Der charakteristische Ort (maximaler Erregung bei einer gegebenen Frequenz)<br />

tritt danach am Übergang vom nachgiebigkeits- zum reibungsbestimmten Bereich auf.<br />

Wie man sieht, bilden sich die hohen Frequenzen am Apex und die niedrigeren Frequenzen<br />

näher am Apex statt (die niederfrequentere Wanderwelle dringt tiefer ein). Die ungefähre<br />

Lage der Bestfrequenzen geht aus folgender Abbildung hervor.<br />

58


-<br />

Abb. 4.1-4: Die Basilarmembran nimmt in ihrer Breite von der Basis zum Apex hin zu, obwohl die<br />

räumlichen Verhältnisse immer beengter werden. Die Bestfrequenzen (in Hz) entlang der Basilarmembran<br />

nehmen wegen der immer größer werdenden Steife entsprechend zu.<br />

Kontinuumsmodell der Basilarmembran<br />

Das eindimensionale Modell ist ein Langwellenmodell: es setzt voraus, dass die Wellenlängen<br />

so groß (die Frequenzen so niedrig) sind, dass nur die Schwingungen senkrecht zur Basilarmembran<br />

beachtet werden müssen. Berechnungen mit einem Finite-Elemente-Modell der<br />

Basilarmembran zeigen jedoch, dass tatsächlich Quermoden auf der Basilarmembran eine<br />

wesentliche Rolle spielen, weil dadurch die Basilarmembran effektiv noch nachgiebiger wird.<br />

Tatsächlich wird die Lage des charakteristischen Ort nicht durch den Übergang zu einem reibungsbestimmten<br />

Bereich, sondern durch den Übergang von eindimensionaler Wellenausbreitung<br />

zu Ausbreitung mit Quermoden gebildet wird.<br />

Abb. 10: Betrag der Auslenkung in nm bei Anregung mit 1 Pa im Vestibulum bei 2 kHz<br />

59


-<br />

Corti-Organ und aktive Cochlea<br />

Das auf der BM aufliegende Corti-Organ enthält die inneren und die äußeren Haarzellen<br />

(IHC, OHC). Der Mensch besitzt ca. 3500 IHCs und mehr als dreimal so viele OHCs (die<br />

OHC sind wie in Abb. 11 ersichtlich in Dreierreihen angebracht). Von den 25.000 afferenten<br />

Nervenfasern, die Information von der Cochlea in die Hörbahn einspeisen, sind 95% an den<br />

IHC angeschlossen. Offensichtlich sind also die IHC die eigentlichen Sensoren in der Cochlea,<br />

die die bereits spektral aufgespaltenen Signale in Form von Aktionspotenzialen weiterleiten.<br />

Die weitaus größere Zahl der OHCs dient als eine Art Hilfsmotor. Der bis heute nicht<br />

genau verstandene Mechanismus führt zu einer Empfindlichkeitssteigerung des Gehörs bei<br />

niedrigen Pegeln. Er wird daher auch als cochleärer Verstärker bezeichnet. Gleichzeitig bewirkt<br />

er ein deutlich schärferes Tuning. Das bedeutet, dass die in Abb. 11 gezeigten örtlichen<br />

Schnelleverteilungen ein noch schärferes Maximum aufweisen. Dies führt zu entsprechend<br />

verschärften Frequenzgängen (Tuningkurven), also zu einer Erhöhung der Frequenzauflösung<br />

bei niedrigen Pegeln.<br />

Abb. 11: Corti-Organ mit inneren (IHC) und äußeren (OHC) Haarzellen. Die inneren Haarzellen<br />

bilden die eigentlichen Sensoren, obwohl die Anzahl der in Dreierreihen angeordneten<br />

äußeren Haarzellen viel größer ist.<br />

Der Hilfsmotor der OHC beruht auf der Fähigkeit dieser Haarzellen, aktiv ihre Länge zu ändern,<br />

und zwar gesteuert durch das Rezeptorpotenzial, also die elektrischen Potenzialänderungen<br />

im Inneren der Haarzelle. Ohne im Einzelnen zu verstehen, wie dies zu einer Zusatzanregung<br />

führt, kann man die gemessenen Eigenschaften des cochleären Verstärkers in etwa<br />

durch eine sehr einfache Annahme erfassen. Nach dieser schon 1986 veröffentlichten Idee<br />

von Neely & Kim bewirken die Schwingungen der OHC am Ort z der Haarzellen eine additive<br />

Zusatzanregung pOHC(z). Anstelle der "passiven" Beziehung<br />

p( z) =Δ pBM ( z) = Z′′ ( z) ⋅ vBM ( z)<br />

zwischen Druckdifferenz an der BM und der Schnelle der BM, die durch den Impedanzbelag<br />

gegeben war, fordert man nun<br />

p( z) + pOHC ( z) = Z′′ ( z) ⋅ vBM ( z)<br />

wobei der zusätzlich eingespeiste, die BM also zusätzlich antreibende Druckdifferenz durch<br />

60


-<br />

die Schnelle der Stereocilien der OHC gesteuert wird. Wenn dieser zusätzliche Anteil mit der<br />

richtigen Phasenlage eingespeist wird, führt dies zu einer Entdämpfung des Impedanzbelags<br />

der BM, was die gewünschte Verschärfung der Tuningkurve erklären kann.<br />

Abb. 12: Verschärfung der Tuningkurven der Cochlea bei niedrigen Anregungspegeln. Dargestellt<br />

ist die an einem bestimmten Ort auf der BM gemessene BM-Auslenkung als Funktion<br />

der Frequenz. Man beachte, dass sich mit abnehmendem Pegel nicht nur die Tuningschärfe<br />

verändert, sondern auch die Frequenz verschiebt, bei der das Maximum auftritt.<br />

Die Wirkung des cochleären Verstärkers ist auf niedrige Pegel begrenzt, weil die aktiven<br />

Längenänderungen bereits bei einem Pegel von 40-50 dB über der Hörschwelle in die Sättigung<br />

gehen. Bei einer weiteren Steigerung des Pegels wird daher der relative Anteil des<br />

cochleären Verstärkers immer geringer. Dies wird durch die folgende Abbildung bestätigt.<br />

Abb. 13: Auslenkung der Basilarmembran als Funktion des Eingangspegels in der Nähe der<br />

jeweiligen Bestfrequenz (Messergebnisse und Interpretation von Johnstone et al. 1986)<br />

Offensichtlich wird durch diese Kennlinie beschrieben, dass die Ausgangsdynamik kleiner<br />

61


-<br />

als die Dynamik der eingespeisten Signale ist. Der cochleäre Verstärker liefert also einen wesentlichen<br />

Beitrag zur Kompression der Signaldynamik im Verlauf der Signalverarbeitung<br />

durch unser Gehör. Die richtige Nachbildung dieser Kompression spielt auch in Modellen,<br />

die die auditive Wahrnehmung beschreiben, eine wichtige Rolle.<br />

Zusammenfassung Cochlea<br />

• Die Cochlea realisiert eine spektrale Zerlegung der vom Mittelohr kommenden Signale<br />

durch die abgestimmte Basilarmembran (Erhöhung der Elastizität und der Breite entlang<br />

des Wegs von der Basis zum Apex).<br />

• Der im Vestibulum erzeugte Schalldruck löst Wanderwellen auf der inhomogenen Basilarmembran<br />

aus. Wellen in den Flüssigkeiten spielen dagegen nur eine untergeordnete<br />

Rolle, weil die Wellenlängen in den Flüssigkeiten, außer bei den höchsten Audiofrequenzen,<br />

viel länger als die Kanäle sind.<br />

• Die Wanderwelle wird auf dem Weg von der Basis zum Apex durch die zunehmende<br />

Nachgiebigkeit abgebremst, so dass sich an einem durch die anregende Frequenz bestimmten<br />

"charakteristischen Ort" zeitlich aufeinander folgende Wellenzüge überlagern.<br />

• Dadurch entsteht am charakteristischen Ort bei der zugehörigen "Bestfrequenz" eine maximale<br />

Antwort auf die Erregung.<br />

• Zu einem Ort auf der Basilarmembran gehört daher ein bestimmtes Filter, das eine "Tuningkurve"<br />

mit Maximum bei der Bestfrequenz besitzt.<br />

• Das auf der Basilarmembran aufgesetzte Corti-Organ trägt ca. 3500 innere und etwa 3.5<br />

mal so viele äußere Haarzellen (IHC und OHC), die durch ihren Ort bestimmten Frequenzen<br />

zugeordnet sind.<br />

• Die IHC sind Schwingungssensoren, die ihre Signale an das zentrale Hörorgan weiterleiten.<br />

• Die äußeren Haarzellen (OHC) bewirken eine Verstärkung, die auf niedrige Pegel beschränkt<br />

ist (cochleärer Verstärker). Sie erhöhen somit die Hörschwelle.<br />

• Die OHC bewirken bei niedrigen Pegeln gleichzeitig eine Verschärfung der Tuningkurven.<br />

62


Psychoakustik und Sprachperzeption bei Normal- und Schwerhörigen<br />

Birger Kollmeier / <strong>Oldenburg</strong><br />

1. Wahrnehmungs-Grundgrößen<br />

Das menschliche Gehör ist in faszinierender Weise optimal an das Empfangen von<br />

akustischen Signalen aus der Umwelt angepaßt, insbesondere an das Verstehen von<br />

Sprache. Weil das akustische Sprachsignal sich zeitlich stark ändert und<br />

unterschiedliche Frequenzanteile aufweist, benötigt das Ohr <strong>für</strong> die<br />

Sprachwahrnehmung die Fähigkeit, zu jedem Zeitpunkt die Intensität wahrzunehmen,<br />

mit der jede Frequenz momentan vorliegt. Wesentliche Grundgrößen der Wahrnehmung<br />

sind daher die Umsetzung verschiedener Schallintensitäten in subjektiv empfundene<br />

Lautheit, die Umsetzung verschiedener Frequenzen in subjektiv empfundene<br />

Tonhöhen, die Umsetzung verschiedener Zeitdauern und Rhythmen in subjektiv<br />

empfundene Zeitmuster, die Umsetzung von akustischen Signalen in subjektiv<br />

empfundene Klänge, und das Trennen verschiedener Klänge (z. B. Nutzsignal vom<br />

störenden Hintergrundsignal). Diese Beziehungen zwischen dem akustischen Reiz und<br />

der subjektiven Wahrnehmung, die durch psychologische Meßmethoden erfaßt werden<br />

können, werden in der Psychoakustik untersucht.<br />

1.1 Intensitätsabbildung (Lautheit) und Intensitätsauflösung<br />

Als Ruhehörschwelle wird der Pegel eines soeben wahrnehmbaren Sinustons bei einer<br />

vorgegebenen Frequenz in Ruhe (d. h. ohne Vorliegen störender Signale) bezeichnet.<br />

Bei niedrigen und bei hohen Frequenzen muß ein wesentlich höherer Schalldruckpegel<br />

erzeugt werden als bei mittleren, damit der Ton von normalhörenden Menschen<br />

schwellenhaft wahrgenommen werden kann (vgl. Abbildung 1). Wenn ein Sinus-Ton im<br />

Pegel kontinuierlich erhöht wird, nimmt die Versuchsperson nach Überschreiten der<br />

Ruhehörschwelle einen immer lauteren Ton wahr. Der Grad, in dem diese<br />

Lautheitswahrnehmung mit zunehmenden Tonpegel ansteigt, hängt von der Frequenz<br />

ab (vgl. Abbildung.1): Ausgehend von einem Sinus-Ton bei 1000 Hz kann man bei jeder<br />

Frequenz denjenigen Tonpegel bestimmen, der zum gleichen Lautheitseindruck führt.<br />

Diese Kurve wird als Isophone oder Kurve gleicher Pegellautstärke bezeichnet.<br />

Während die 10 Phon-Isophone bei 1000 Hz genau 10 dB über der Ruhehörschwelle ist<br />

und zu niedrigen und hohen Frequenzen ähnlich steil ansteigt wie die Ruhe-<br />

Hörschwelle, flachen die zu höheren Pegeln gehörenden Isophonen zunehmend ab, so<br />

daß die 120 Phon-Isophone, die ungefähr der Schmerzschwelle bei Normalhörenden <strong>für</strong><br />

alle Frequenzen entspricht, etwa den gleichen Schalldruck <strong>für</strong> alle Frequenzen angibt.<br />

63


Abbildung 1: Ruhehörschwelle und Isophonen<br />

Um den Lautheitsanstieg mit zunehmendem Pegel zu bestimmen, d. h. beispielsweise<br />

die Pegelerhöhung, die <strong>für</strong> eine Verdopplung der empfundenen Lautheit notwendig ist,<br />

bedient man sich verschiedener subjektiver Skalierungsmethoden. Bei der freien<br />

Größenschätzung nach Stevens und Mitarbeitern (Stevens, 1957) soll die<br />

Versuchsperson die jeweils empfundene Lautheit mit einer beliebigen Zahl<br />

kennzeichnen. Trägt man nun die von der Versuchsperson gegebenen Zahlenwerte<br />

über die angebotenen Pegel auf, erhält man die nach Stevens benannte<br />

Potenzfunktion<br />

N[ sone]<br />

I<br />

=<br />

I<br />

⎛ ⎞<br />

⎜ ⎟<br />

⎝ ⎠<br />

0<br />

α<br />

. (8.1)<br />

Dabei bezeichnet N die Lautheit in der Einheit „sone“, I die Intensität des Testtons und I0<br />

die Intensität des Referenz-Sinustons bei 1 kHz mit einem Pegel von 40 dB SPL, der<br />

genau der Lautheit 1 sone entspricht. Der Exponent α nimmt im Mittel über viele<br />

Versuchspersonen und Experimente den Wert von etwa 0,3 an. Das bedeutet, daß bei<br />

einer Erhöhung der Schallintensität um 10 dB die Lautheit ungefähr um den Faktor 2<br />

ansteigt (da 10 dB eine Verzehnfachung der Intensität bedeutet und 10 0,3 ≅ 2 ist). Die<br />

Lautheit hängt damit in anderer Weise von der Schallintensität ab als der Schallpegel.<br />

Die Lautheit in sone darf auch nicht mit der Lautstärke (in Phon) verwechselt werden, da<br />

der erste Begriff die Größe einer subjektiven Empfindung kennzeichnet und der zweite<br />

Begriff einen Pegel bezeichnet (d. h. eine physikalische Reizgröße), die zu einer<br />

vorgegebenen Lautheitsempfindung führt (nämlich zu der Lautheit, die <strong>für</strong> alle<br />

Lautstärken auf einer Isophonen gleich ist). Daher wird der zweite Begriff in der<br />

Normung auch als „Pegellautstärke“ bezeichnet.<br />

64


Eine andere Möglichkeit zur Bestimmung der subjektiven Lautheitsempfindung besteht<br />

bei der kategorialen Skalierung darin, daß der Versuchsperson eine gewisse Zahl von<br />

Lautheitskategorien (z. B. „sehr leise“, „leise“, „mittel“, „laut“ und „sehr laut“) als<br />

Antwortmöglichkeiten vorgegeben wird. Bei dem Verfahren der „Würzburger<br />

Hörfeldskalierung“ nach Heller (1985) wird jede dieser groben Kategorien in einem<br />

zweiten Schritt in 10 feinere Kategorien unterteilt. Bei der „<strong>Oldenburg</strong>er<br />

Hörflächenskalierung“ (Hohmann und Kollmeier, 1995), die sich insbesondere <strong>für</strong><br />

Messungen mit schwerhörigen Patienten eignet, werden neben den fünf<br />

Hauptkategorien vier Zwischenkategorien und die Grenzfälle „nicht gehört“ und „zu laut“<br />

vorgegeben, so daß die Gesamtzahl der Antwortkategorien nicht 50, sondern 11 beträgt.<br />

Trägt man die Antwort der Versuchsperson in Kategorial-Einheiten über dem Pegel des<br />

Testschalls auf, erhält man im mittleren Pegelbereich eine Gerade, d. h. die<br />

empfundene Kategorial-Lautheit ist dort proportional zum Logarithmus der Intensität<br />

(vgl. Abbildung 2). Abweichungen zu der im logarithmischen Maßstab aufgetragenen<br />

Lautheit in sone treten bei sehr niedrigen und bei sehr hohen Pegeln auf:<br />

Abbildung 2: Sone-Skala und Kategorial-Skala über den Pegel<br />

Bei sehr niedrigen Pegeln stehen <strong>für</strong> die relativ grobe Kategorial-Skalierung nicht genügend<br />

Antwortalternativen zur Verfügung, so daß die Kurve erst bei mittleren Pegeln ansteigt, während die<br />

Lautheit in sone gegen Null geht und ihr Logarithmus dementsprechend steil abfällt. Bei sehr hohen<br />

Pegeln ist der Antwortbereich der Kategorial-Lautheit ebenfalls begrenzt, so daß hier ein Sättigungseffekt<br />

auftritt, während der Logarithmus der Lautheit in sone weiter linear ansteigt. Dieser Effekt ist auf den<br />

„Logarithmic Response Bias“ (Poulton, 1989) zurückzuführen, d. h. die Versuchspersonen beurteilen bei<br />

der Erhöhung einer großen Zahl nicht mehr den absoluten Zuwachs dieser Zahl, sondern das Verhältnis<br />

der neuen Zahl zur alten Zahl. Damit tendieren die Versuchspersonen bei hohen Pegeln bei der absoluten<br />

Größenschätzung dazu, ihre Empfindungsgröße mit dem Logarithmus der angenommenen, großen<br />

Zahlen zu beschreiben. Dieser Effekt tritt bei der Kategorial-Skalierung mit einer wesentlich kleineren Zahl<br />

von Antwortalternativen nicht auf, so daß die ungefähre Proportionalität zwischen dem Logarithmus der<br />

Lautheit in sone und dem absoluten Wert der Kategorial-Skala plausibel erscheint (paralleler Verlauf der<br />

Kurven in Abbildung 2 über einen relativ großen Pegelbereich).<br />

65


Eine logarithmische Beziehung zwischen der Reizgröße (in unserem Fall die Intensität I)<br />

und der Empfindungsgröße E folgt auch aus dem Weber-Fechner’schen Gesetz, das<br />

eines der ersten und wichtigsten Gesetze der Psychophysik darstellt. Weber und<br />

Fechner konnten nachweisen, daß der Reizunterschied ΔI, der zu einer eben<br />

wahrnehmbaren Änderung der Empfindung ΔE führt, proportional zu der absoluten<br />

Größe I des Reizes ist, so daß der sogenannte Weber-Bruch ΔI<br />

<strong>für</strong> alle Werte von I<br />

I<br />

annähernd konstant sein muß und proportional der kleinsten wahrnehmbaren<br />

Empfindungsänderung ΔE ist:<br />

ΔI<br />

ΔE=<br />

k⋅<br />

(8.2)<br />

I<br />

Durch Aneinanderreihen von eben merklichen Unterschieden ΔE (was mathematisch<br />

der Aufintegration von Gleichung 8.2 entspricht) läßt sich nun eine Beziehung zwischen<br />

der Empfindungsgröße E und der Reizgröße I herleiten:<br />

E= k'log ⋅ 10 I+ k''<br />

(8.3)<br />

k’ und k’’ sind Konstanten, die aus den Randbedingungen festgelegt werden. Diese<br />

logarithmische Abhängigkeit der Wahrnehmungsgröße von der Reizgröße entspricht<br />

gerade dem Zusammenhang zwischen Kategorial-Lautheit und Tonpegel, d. h. dem<br />

Logarithmus der Intensität. Dieses Gesetz entspricht auch der sone-Skala unter der<br />

Annahme, daß die empfundene Lautheit durch den Logarithmus der von der<br />

Versuchsperson angegebenen Zahl, und nicht durch die Zahl selber wiedergegeben<br />

wird.<br />

Neben der bisher behandelten absoluten Wahrnehmung der Schallintensität interessiert<br />

auch die differentielle Wahrnehmung, d. h. die kleinste wahrnehmbare Änderung einer<br />

Schallintensität. Sie wird auch als JND („just noticeable difference“) bezeichnet und tritt<br />

als ΔI im Weber-Fechner’schen Gesetz (Gleichung 8.2) auf. Für die meisten Schalle<br />

beträgt die JND etwa 1 dB, d. h.<br />

1dB<br />

ΔI+ I ΔI<br />

10 = 10 ⇒ = 0, 259<br />

(8.4)<br />

I<br />

I<br />

In der Tat mußte die erste logarithmische Pegelskala, deren Einheit das Bel ist (nach<br />

Alexander Graham Bell, der unabhängig von Philip Reis das Telefon erfand und zu<br />

einem kommerziellen Erfolg führte, 1 Bel = log10 (Ι/Ι0)) in eine 10-fach feinere Skala, das<br />

Dezibel (dB) unterteilt werden. Damit entspricht eine Einheit dieser Skala gerade einem<br />

kleinsten hörbaren Pegelunterschied. Während bei breitbandigen Signalen über einen<br />

66


weiten Pegelbereich Webers Gesetz gültig ist und der kleinste wahrnehmbare<br />

Pegelunterschied 1 dB beträgt, ist bei schmalbandigen Signalen (wie Sinustönen) dieser<br />

Unterschied bei kleinen Pegeln größer als 1 dB und nimmt mit zunehmendem Pegel<br />

stetig ab. Diese Abweichung wird als „near miss to Weber’s law“ bezeichnet und hängt<br />

mit der speziellen Anregung der Basilarmembran bei Sinustönen zusammen.<br />

1.2 Tonhöhe und Frequenzauflösung<br />

Wird die Frequenz eines Sinustons erhöht, führt dies zu der Wahrnehmung einer<br />

ansteigenden Tonhöhe. Wenn diese Tonhöhenwahrnehmung dem Weber-<br />

Fechner’schen Gesetz entsprechend proportional zum Logarithmus der Frequenz wäre,<br />

entspräche dies genau der musikalischen Tonhöhenempfindung: Eine Oktave<br />

(Frequenzverhältnis 2:1) würde als doppelt so hoch empfunden werden, unabhängig<br />

von der jeweiligen Frequenz. Tatsächlich folgt die Tonhöhenwahrnehmung dieser<br />

Gesetzmäßigkeit nur in einem begrenzten Bereich mittlerer Frequenzen, der bei<br />

musikalisch ausgebildeten Versuchspersonen sich noch etwas erweitern läßt. Läßt man<br />

Versuchspersonen jedoch unabhängig von musikalischen Intervallen die empfundene<br />

Tonhöhe im Vergleich zum Referenzton bei 1 kHz angeben, so erhält man die Mel-Skala<br />

als subjektive Tonhöhenempfindungskala. Sie entspricht ungefähr der Frequenz-Orts-<br />

Transformation auf der Basilarmembran, bei der die verschiedenen Frequenzen zu einer<br />

maximalen Auslenkung an unterschiedlichen Orten führen (gepunktete Linie in Abb. 3).<br />

Die gleiche Beziehung zwischen subjektiver Tonhöhe und objektiver Frequenz liefert die<br />

in Abb. 3 dargestellte Bark-Skala (benannt nach dem deutschen Physiker und Akustiker<br />

Heinrich Barkhausen), die auf dem Konzept der Frequenzgruppe beruht (Zwicker und<br />

Mitarb. 1957).<br />

Abbildung 3: Mel-Skala, Bark-Skala, ERB-Skala<br />

Sie basiert auf der Frequenzabhängigkeit der Lautheitswahrnehmung und der<br />

Maskierung: Bei der Lautheitssummation wird die empfundene Lautheit eines<br />

schmalbandigen Signals (z. B. eines Schmalbandrauschens) bei gleicher Leistung, aber<br />

verschiedener Bandbreite bestimmt (vgl. Abbildung 4). Wenn dieselbe Leistung auf<br />

67


einen größeren Frequenzbereich verteilt wird, steigt die wahrgenommene Lautheit auf<br />

etwa das Doppelte an (entspricht ungefähr 10 dB Lautstärkengewinn). Bleibt die<br />

Leistung jedoch in einem Frequenzbereich, der kleiner als die Frequenzgruppenbreite<br />

ist, hängt die wahrgenommene Lautheit nicht von der Bandbreite ab, so daß aus dieser<br />

Bandbreitenabhängigkeit auf die Größe der Frequenzgruppe geschlossen werden kann.<br />

Die Frequenzgruppenbreite beträgt etwa 100 Hz unterhalb von 500 Hz und etwa 1/5 der<br />

Frequenz oberhalb von 500 Hz (vgl. Abbildung 3).<br />

Abbildung 4: Bandbreitenabhängigkeit der Lautheit<br />

Anschaulich versteht man unter der Frequenzgruppe diejenige Bandbreite im Gehör,<br />

innerhalb derer sämtliche Signale gemeinsam verarbeitet und zu einem<br />

„Erregungspegel“ zusammengefaßt werden, der der Lautheitswahrnehmung zugrunde<br />

liegt. Wenn das Signalspektrum in verschiedene Frequenzgruppen fällt, wird nicht mehr<br />

die Leistung aufsummiert, sondern die Teil-Lautheiten in den verschiedenen<br />

Frequenzgruppen.<br />

Abbildung 5: Erregungspegelmuster<br />

Eine Vorstellung zum Zustandekommen der Frequenzgruppe und der Frequenzauflösung im<br />

auditorischen System ist die Erregungsverteilung auf der Basilarmembran (vgl. Abbildung 5). Bei einem<br />

Sinus-Ton mit f1 wird die Basilarmembran nicht nur bei dieser Frequenz, sondern im schwächerem Maße<br />

auch bei den darüber- bzw. darunterliegenden Frequenzen angeregt. Wenn auf der x-Achse die Frequenz<br />

in Bark aufgetragen ist, kann diese Verbreiterung der Erregung als ein dreieckförmiges Muster dargestellt<br />

werden, dessen Flanken zu tiefen Frequenzen mit etwa 25 dB pro Bark ansteigen und zu hohen<br />

Frequenzen mit etwa 10 dB pro Bark abfallen. Bei hohen Pegeln werden diese Flanken flacher. Wird nun<br />

ein weiterer Sinus-Ton mit einer Frequenz f2 mit einem Pegel angeboten, der unterhalb dieses<br />

68


Erregungspegels bei der Frequenz f2 liegt, wird dieser zusätzliche Ton vom ersten Ton vollständig<br />

maskiert, d. h. der zweite Ton wird im Beisein des ersten Tons nicht mehr gehört. Durch derartige<br />

Verdeckungsexperimente kann die Form und Steilheit der Erregungspegel-Verteilung über der Frequenz<br />

ausgemessen werden.<br />

Um aus derartigen Experimenten auf die Frequenz-Gruppe zu schließen, wird meist ein<br />

Notched-Noise verwendet, bei dem ein Rauschen nur unterhalb einer Grenzfrequenz fu<br />

und oberhalb einer Frequenz fo vorliegt. Je schmaler die zwischen fu und f0 liegende<br />

spektrale Lücke („notch“) ist, desto höher liegt die Mithörschwelle eines in diesem<br />

Frequenzbereich liegenden Tons, d. h. der Pegel des Tons muß relativ hoch sein, damit<br />

er gehört wird. Aus der Abnahme dieser Mithörschwelle mit zunehmender Breite der<br />

spektralen Lücke kann auf die Frequenzgruppenbreite geschlossen werden, die in<br />

Einheiten einer „equivalent rectangular bandwidth“(ERB) nach Moore und Glasberg<br />

(1987) gemessen wird. Darauf beruht die ebenfalls in Abb. 3 angegebene ERB-Skala,<br />

die sehr ähnlich der Bark-Skala ist.<br />

Die Verteilung der Erregungspegel über der Frequenz kann <strong>für</strong> die Berechnung der<br />

Lautheit verwendet werden, wobei die sich überlappenden Bereiche des<br />

Erregungspegel-Verlaufs <strong>für</strong> verschiedene Frequenzen nur einmal berücksichtigt<br />

werden. Dazu wird bei jeder Frequenzgruppe der Erregungspegel gemäß dem<br />

Potenzgesetz (Gleichung 8.1) umgeformt. Die Gesamt-Lautheit wird dann durch<br />

Integration (Aufsummation) der spezifischen Lautheiten über sämtliche Frequenzen<br />

gebildet. Diese Berechnung entspricht dem nach Iso 532 B genormten Lautheitsmodell<br />

nach Zwicker, das <strong>für</strong> stationäre Schallsignale die subjektiv empfundene Lautheit in<br />

sone sehr gut berechnen kann. Dabei werden sowohl spektrale Maskierungseffekte als<br />

auch Lautheitssummations-Effekte und Kombinationen dieser Effekte richtig<br />

vorhergesagt. Eine Anwendung auf zeitlich stark schwankende Schall (wie z. B.<br />

Sprache) ist jedoch problematisch, da das Modell <strong>für</strong> stationäre Signale entwickelt<br />

wurde.<br />

Die Frequenzgruppe läßt sich auch mit einer Reihe weiterer Maskierungsexperimente bestimmen, bei<br />

denen sich der maskierende Schall (meistens ein Rauschen) stark im Frequenzbereich ändert, z. B.<br />

sinusförmige Änderung im Frequenzbereich („ripple-noise“), Tiefpaßrauschen oder Hochpaßrauschen.<br />

Für alle Fälle werden ähnliche Frequenzgruppenbreiten gemessen, wobei sich neben der Breite dieser<br />

Frequenzgruppen auch die effektive Form der Filter im Gehör angeben läßt, mit denen jeweils ein<br />

begrenzter Frequenzbereich analysiert und zu einer Frequenzgruppe zusammengefaßt wird. Die<br />

einfachste Form ist rechteckförmig, eine realistischere Filterform ist ein gerundetes Exponentialfilter<br />

dessen Flanken die Verhältnisse im Erregungspegelmuster wiederspiegeln. Man darf sich eine<br />

Frequenzgruppe nicht als eine starre, bei einer festen Frequenz gelegene rechteckförmige Filterung des<br />

Schallsignals vorstellen, sondern eine kontinuierliche, bei jeder Mittenfrequenz auftretende Filterung mit<br />

einer abgerundeten, kontinuierlichen Filterform.<br />

69


Im Gegensatz zu der relativ geringen Frequenzauflösung durch die<br />

Frequenzgruppenfilter bei der Maskierung steht die sehr hohe Frequenzauflösung bei<br />

der Diskrimination verschiedener Frequenzen, die nicht gleichzeitig, sondern in Folge<br />

angeboten werden. Dies bei der Musikwahrnehmung (z. B. beim Stimmen von<br />

Instrumenten) wichtige Phänomen der Tonhöhenunterscheidung ermöglicht einen<br />

kleinsten hörbaren Frequenzunterschied von etwa 3 Hz <strong>für</strong> Frequenzen unterhalb von<br />

500 Hz und etwa 0,6 % <strong>für</strong> Frequenzen über 1000 Hz. Dies entspricht ungefähr 1/30<br />

Bark, d.h. die Tonhöhenunterscheidung ist wesentlich feiner als die Maskierung im<br />

Frequenzbereich. Dies liegt an der massiven Parallelverarbeitung im Gehör: Wenn die<br />

Frequenz eines einzelnen Sinustons um wenige Herz verschoben wird, verschiebt sich<br />

das ganze Erregungsmuster auf der Basilarmembran, so daß im Mittel über sämtliche<br />

beteiligten Nervenfasern selbst ein kleiner Unterschied in der Verschiebung des<br />

Erregungsmusters feststellbar ist, obwohl das von einem einzelnen Ton hervorgerufene<br />

Erregungsmuster selbst relativ breit sein kann. Daher mißt die Frequenzauflösung<br />

(Diskrimination) eine andere Leistung des Gehörs als die Maskierung im<br />

Frequenzbereich, die auch als spektrale Integration bezeichnet werden kann.<br />

1.3 Zeitliche Verarbeitung im Hörsystem<br />

Neben der spektralen Verschmierung (Integration) und Frequenzauflösung spielt die<br />

zeitliche Verarbeitung von akustischen Signalen im auditorischen System eine wichtige<br />

Rolle, die ebenfalls durch eine zeitliche Verschmierung (Zeitintegration) und eine<br />

Zeitauflösung gekennzeichnet werden kann. Die zeitliche Integration bezeichnet dabei<br />

die Fähigkeit, einen lang andauernden, stationären Klang bei gleichem Pegel als lauter<br />

wahrzunehmen als einen kurzen Klang. Diese Eigenschaft kann mit einem<br />

Maskierungsexperiment demonstriert werden (vgl. Abbildung 6), bei der die<br />

Mithörschwelle <strong>für</strong> einen Signalton bestimmt wird, d. h. der Pegel, bei dem der Ton im<br />

Rauschen soeben noch hörbar ist. Sie nimmt mit zunehmender Dauer T des Testtons<br />

ab und erreicht <strong>für</strong> Werte von etwa 200 ms einen stabilen Wert, der durch weitere<br />

Verlängerungen des Tons nicht mehr verändert wird. Diese Eigenschaft kann durch eine<br />

Energieintegration über einen Bereich von 200 ms erklärt werden. Bei<br />

Innenohrschwerhörenden ist diese Energie-Summation gestört, so daß die Schwelle bei<br />

zunehmender Dauer T nicht weiter abnimmt.<br />

70


Abbildung 6: Zeitliche Integration (Schema, s. Text)<br />

Die zeitliche Verschmierung der internen Repräsentation akustischer Signale läßt sich<br />

durch die psychoakustisch meßbaren Phänomene der Nachverdeckung und<br />

Vorverdeckung beschreiben. Bei der Nachverdeckung wird ein Testsignal (z. B. ein<br />

kurzer Testtonpuls) zeitlich nach dem Abschalten eines Maskierungssignals (z. B.<br />

Rauschen) angeboten und der Pegel des Tons wird solange variiert, bis er soeben nicht<br />

mehr hörbar ist (Mithörschwelle). Diese Mithörschwelle nimmt mit zunehmendem<br />

Abstand des Testtons vom Maskierende ab und erreicht bei etwa 200 ms die<br />

Ruhehörschwelle. Dabei ist der Verlauf dieser Nachverdeckungskurve abhängig von der<br />

Maskiererdauer, d. h. vom Adaptationszustand des auditorischen Systems (vgl.<br />

Abbildung 7). Bei der Vorverdeckung wird der Testton dagegen nicht nach dem<br />

Abschalten, sondern zeitlich vor dem Anschalten eines Maskierers angeboten, wobei<br />

sich eine ähnliche Verschmierung der Mithörschwelle als Funktion der Verzögerungszeit<br />

ergibt wie bei der Nachverdeckung. Allerdings ist der Zeitbereich, über den sich die<br />

Vorverdeckung erstreckt, wesentlich kürzer (etwa 10 ms) und es ergibt sich keine<br />

vergleichbar starke Abhängigkeit von der Dauer des Maskierers.<br />

Einen kombinierten Effekt von Vor- und Nachverdeckung beobachtet man bei der<br />

Lückendetektion (Englisch: Gapdetection), bei der die kleinste in einem Rauschen<br />

wahrnehmbare Pausendauer gemessen wird (vgl. Abb. 8). Da aufgrund der zeitlichen<br />

Verschmierung im auditorischen System kleine Lücken im Rauschen nicht<br />

wahrgenommen werden können, liegt bei Normalhörenden bei der Verwendung von<br />

breitbandigen Rauschen die minimal detektierbare Lückendauer bei etwa 8 ms. Da sie<br />

ein einfach und schnell zu bestimmendes Maß <strong>für</strong> die zeitliche Verarbeitung ist, wird sie<br />

oft zur Charakterisierung der gestörten zeitlichen Verarbeitung bei Schwerhörenden<br />

eingesetzt, wobei aufgrund starker interindividueller Schwankungen Werte zwischen 8<br />

und 100 ms auftreten können.<br />

71


Abbildung 7: Nachverdeckung<br />

Abbildung 8: Gap-detection<br />

Eine weitere Eigenschaft der zeitlichen Verarbeitung akustischer Signale ist die<br />

Modulationswahrnehmung, d. h. die Wahrnehmung von Schallen mit einer<br />

aufgeprägten (z. B. sinusförmig variierenden) Einhüllenden (vgl. Abb. 9). Als<br />

Trägersignale können Sinussignale oder Rauschen verwendet werden, während als<br />

Modulationssignale (d. h. Verformung der Einhüllenden) zumeist sinusförmige Signale<br />

mit einer bestimmten Modulationsfrequenz fmod verwendet werden. Eine derartige<br />

Signalform ist sehr ähnlich der Form von Sprache, weil bei der Sprachartikulation ein<br />

Trägersignal (z. B. die Schwingung der Stimmritze) durch den Vokaltrakt in der Intensität<br />

zeitlich stark verändert wird. Im Modulationsfrequenzbereich zwischen 0 und etwa 10 Hz<br />

werden Modulationen als Schwankungen der Lautstärke wahrgenommen, die<br />

Empfindung wird als Schwankungsstärke bezeichnet. Bei Frequenzen zwischen etwa<br />

10 und 20 Hz entsteht ein „knarrender“ Klangeindruck, der auch als R-Rauhigkeit<br />

bezeichnet wird, während Modulationen zwischen etwa 20 Hz und 80 Hz als Rauhigkeit<br />

des Klanges wahrgenommen werden können. Bei noch höheren Modulationsfrequenzen<br />

treten im Frequenzspektrum des akustischen Signals Seitenlinien auf, die aufgrund der<br />

spektralen Verfärbung als Klangänderungen wahrgenommen werden können.<br />

72


Abbildung 9: Moduliertes Signal, PMTF <strong>für</strong> breitbandige Träger, d. h. der kleinste detektierbare<br />

Modulationsgrad als Funktion der Modulationsfrequenz<br />

Als Maß <strong>für</strong> die Zeitauflösung kann die psychoakustische Modulationstransfer-<br />

Funktion bestimmt werden, d. h. <strong>für</strong> jede Modulationsfrequenz derjenige<br />

Modulationsgrad m, der soeben noch wahrgenommen werden kann. Sie zeigt <strong>für</strong><br />

Modulationen von etwa 4 Hz ein Maximum (dies entspricht in etwa der<br />

Sprachsilbenfrequenz und ist daher gut an die zu empfangene Sprache angepaßt) und<br />

<strong>für</strong> zunehmende Modulationsfrequenzen wird die Empfindlichkeit geringer. Diese<br />

Modulations-Tiefpaßcharakteristik des auditorischen Systems korrespondiert zu der<br />

zeitlichen Verschmierung, die in den Vor- und Nachverdeckungsexperimenten<br />

aufgezeigt wurde.<br />

Abbildung 10: Verarbeitungsmodell nach Dau et al.<br />

73


Um die verschiedenen zeitlichen Eigenschaften des Hörsystems (zeitliche Integration,<br />

Vor- und Nachverdeckung, Modulationswahrnehmung) mit möglichst wenig Annahmen<br />

beschreiben zu können, wurden Hörmodelle zur zeitlichen Verarbeitung aufgestellt. Bei<br />

dem in Abbildung 10 schematisch dargestellten Verarbeitungsmodell nach Dau et al.<br />

(1997) wird die Verarbeitung unterschiedlicher Frequenzen zunächst durch eine<br />

Filterbank beschrieben, die das Eingangssignal in verschiedene Frequenzgruppenbreite<br />

Bandpaß-Signale aufteilt. In jedem Bandpaßsignal wird eine Halbwellengleichrichtung<br />

mit Tiefpaßfilterung durchgeführt, das ungefähr der Aktion der Haarzellen entspricht und<br />

eine Extraktion der Einhüllenden bewirkt. Die zeitlichen Verarbeitungs-Eigenschaften<br />

werden durch die nachgeschalteten Adaptations-Schleifen nachgebildet, bei denen das<br />

Eingangssignal durch das tiefpaßgefilterte Ausgangssignal geteilt wird. Dadurch wird<br />

eine gewisse Adaptation an den Mittelwert des Eingangssignals ermöglicht, während<br />

schnelle Änderungen (Fluktuationen) ohne weitere Beeinflussung durchgelassen<br />

werden. Durch Hintereinanderschalten mehrerer dieser Nachregelschleifen mit<br />

unterschiedlichen Zeitkonstanten zwischen 1ms und 500 ms wird approximativ eine<br />

logarithmische Kompression <strong>für</strong> langsame Änderungen im Eingangssignal erreicht und<br />

eine unveränderte Durchlässigkeit <strong>für</strong> schnelle Änderungen im Eingangssignal. Mit<br />

dieser Modellstruktur lassen sich Vor- und Nachverdeckung sowie die Lückendetektion<br />

(Gap detection) bereits sehr gut beschreiben. Die zeitliche Integration von Testtönen<br />

und die Modulationswahrnehmung kann durch Einfügen einer Modulationsfilterbank<br />

erreicht werden, die <strong>für</strong> jede Mittenfrequenz die Einhüllenden-Fluktuationen in<br />

verschiedene Modulationsfrequenzen aufspaltet. Am Ausgang dieser<br />

Modulationsfilterbank steht ein bestimmtes, zeitlich variables Muster zur Verfügung, das<br />

die interne Repräsentation von akustischen Signalen darstellen soll. Mit dieser<br />

internen Repräsentation lassen sich verschiedene Experimente einfach dadurch<br />

beschreiben, daß eine bestimmte, minimale Änderung in dieser Repräsentation zur<br />

Wahrnehmung eines Unterschieds im Klang führt, der gerade zur Detektion des<br />

„gesuchten“ akustischen Stimulus führt.<br />

1.4 Binaurale Interaktion<br />

Neben den bisher beschriebenen Leistungen des Gehörs bei der Intensitäts-, Frequenz-<br />

, und Zeitverarbeitung im auditorischen System ist die binaurale Interaktion, d. h. die im<br />

Gehirn stattfindende vergleichende Verarbeitung der an beiden Ohren anliegenden<br />

Signale von besonderer Wichtigkeit <strong>für</strong> das Hören in natürlicher Umgebung. Es trägt<br />

signifikant zur Hallunterdrückung, zur Ortung (Lokalisation) von Schallquellen im<br />

Raum und zur Unterdrückung von „unerwünschten“ Störgeräuschquellen in realen<br />

akustischen Situationen bei.<br />

74


Abbildung 11: Physikalische Merkmale <strong>für</strong> die Lokalisation<br />

Wenn eine Schallquelle so im Raum angeordnet ist, daß der von ihr ausgesendete<br />

Schall mit einem bestimmten Einfallswinkel auf den Kopf des Hörers fällt, bewirkt dieser<br />

(winkelabhängige) Schalleinfall eine interaurale Zeitverzögerung (d. h. der Schall<br />

erreicht das der Schallquelle zugewandte Ohr eher als das abgewandte Ohr), einen<br />

interauralen Intensitätsunterschied (d. h. das der Schallquelle zugewandte Ohr<br />

empfängt eine höhere Schallintensität), sowie eine von der Einfallsrichtung abhängige<br />

spektrale Verfärbung (d. h. der Frequenzgehalt des empfangenen Schalls wird je nach<br />

Einfallsrichtung unterschiedlich verändert vgl. Abb. 11.). Aufgrund dieser akustischen<br />

Merkmale ist der normalhörende Mensch bei breitbandigen Signalen in der Lage, den<br />

Ort einer Schallquelle aus der Vorne-Richtung mit einer Ungenauigkeit von etwa 1 Grad<br />

bzw. bei seitlichem Einfall oder Schalleinfall von oben mit einer Ungenauigkeit von etwa<br />

5 Grad aufzulösen. Diese erstaunlich hohe Ortungsleistung wird allerdings bei<br />

schmalbandigen Signalen und bei Vorliegen von Nachhall bzw. Echo eingeschränkt.<br />

Dieser Effekt ist darauf zurückzuführen, daß die bei einer bestimmten Frequenz anliegenden interauralen<br />

Intensitäts- und Zeitunterschiede nicht eindeutig zu einer bestimmten Einfallsrichtung gehören, sondern<br />

daß mehrere Schalleinfallsrichtungen bei derselben Frequenz zu denselben interauralen Intensitäts- und<br />

Zeitunterschieden führen können. Beispielsweise führen sämtliche Einfallsrichtungen in der Medianebene<br />

zu einer interauralen Zeit- und Laufzeitdifferenz von ungefähr 0, so daß bei schmalbandigen Signalen<br />

nicht sicher zwischen der Vorne-, Oben-, und Hinten-Einfallsrichtung unterschieden werden kann und es<br />

zu Richtungsverwechselungen kommt. Ein Schalleinfall von vorne links kann in ähnlicher Weise mit<br />

einem Schalleinfall von hinten links und Einfallsrichtungen verwechselt werden, die auf den sogenannten<br />

„Cone of Confusion“ liegen. Bei schmalbandigen akustischen Signalen werden zudem bestimmte<br />

Frequenzen zu bestimmten Schalleinfallsrichtungen zugeordnet („richtungsbestimmende Bänder“<br />

nach Blauert, 1974), so daß hier die spektrale Information teilweise die Information aus den interauralen<br />

Zeit- und Intensitätsunterschieden überschreibt. Erst bei breitbandiger Schalldarbietung kann durch den<br />

Vergleich über mehrere Frequenzen hinweg eine eindeutige, sämtliche Mehrdeutigkeiten bei<br />

schmalbandiger Signaldarbeitung vermeidende Lokalisation durchgeführt werden.<br />

Die Rolle der interauralen Zeit- und Intensitätsdifferenzen <strong>für</strong> die Lokalisation und die<br />

binaurale Verarbeitung kann mit Kopfhörer-Experimenten erforscht werden, bei denen<br />

jeder dieser physikalischen Parameter einzeln variiert werden kann. So stellt sich<br />

75


heraus, daß die interauralen Zeitdifferenzen insbesondere bei niedrigen Frequenzen<br />

(unter 1,5 kHz) eine dominierende Rolle <strong>für</strong> die Lokalisation spielen und der kleinste<br />

wahrnehmbare interaurale Zeitunterschied etwa 20 μs beträgt, während er oberhalb von<br />

1,5 kHz etwa 50 μs beträgt. Die interauralen Intensitäts-Unterschieds-Schwellen<br />

betragen dagegen unterhalb von 1,5 kHz etwa 3 dB und oberhalb von 1,5 kHz etwa<br />

1 dB, so daß sie besonders bei hohen Frequenzen <strong>für</strong> die Lokalisation dominant sind.<br />

Diese bereits von Lord Rayleigh (1877) formulierte Duplex-Theorie des binauralen<br />

Hörens hat ihre physikalische Begründung darin, daß bei niedrigen Frequenzen<br />

aufgrund der (relativ zum Kopfdurchmesser) großen Schallwellenlänge nur geringe<br />

Intensitätsunterschiede zwischen den beiden Ohren auftreten, so daß<br />

Intensitätsunterschiede erst bei hohen Frequenzen veläßlich ausgewertet werden<br />

können. Bei niedrigen Frequenzen können die Neuronen im auditorischen System der<br />

Schallwellenform noch sehr gut folgen und daher interaurale Zeit-Unterschiede gut<br />

detektieren, während bei hohen Frequenzen interaurale Zeit-Differenzen nur im<br />

Einhüllenden-Verlauf der Signale, nicht jedoch in der (von den Neuronen nicht mehr<br />

aufgelösten) Feinstruktur der übertragenden Signale erfaßt werden können.<br />

Abbildung 12: Binaurale Störgeräuschbefreiung<br />

Zur Erfassung der Störgeräuschbefreiung im binauralen System kann ein psychoakustisches<br />

Experiment verwendet werden, bei dem die Detektion von Testtönen im Rauschen zwischen der<br />

binauralen und der monauralen Situation verglichen werden (vgl. Abb. 12). Zunächst wird der<br />

Versuchsperson ein Ton im Rauschen angeboten, dessen Pegel solange verringert wird, bis die<br />

Versuchsperson ihn nicht mehr hört (Mithörschwelle). Wenn anschließend dasselbe Rauschen am<br />

anderen Ohr gleichzeitig angeboten wird, wird die wahrgenommene Lautheit des Rauschens zwar höher,<br />

der Ton wird jedoch wieder hörbar, so daß eine Verringerung der Mithörschwelle gemessen werden kann,<br />

die als binaurale Masking Level Difference (MLD) bezeichnet wird. Ihre Größe hängt von der<br />

interauralen Phasenlage des Testtons und der zwischen den beiden Ohren bestehenden Beziehung<br />

zwischen dem Rauschen ab. Beispielsweise wird die MLD maximal (ca. 14-18 dB), wenn dasselbe<br />

Rauschen und ein um 180 Grad (Phase π) verschobener Sinuston bei etwa 500 Hz verwendet wird. Keine<br />

MLD tritt dagegen auf, wenn <strong>für</strong> das Rauschen und das Signal dieselbe Beziehung an beiden Ohren<br />

vorliegt (z. B. bei identischem Rauschen und identischem Ton an beiden Ohren oder bei<br />

Phaseninvertierung zwischen beiden Ohren).<br />

In einer guten Näherung kann diese Störgeräuschunterdrückung des binauralen Systems durch eine (mit<br />

Restfehlern behaftete) Subtraktion der beiden Ohrsignale aufgefaßt werden, die im Gehirn nach einer<br />

Anpassung der vom rechten und linken Ohr stammenden Signale (z. B. durch entsprechende<br />

Zeitverzögerung und Amplituden-Anpassung) vorgenommen wird. Mit dieser als „Equalization and<br />

Cancellation Theory“ (EC-Theorie) nach Durlach (1972) bezeichneten Modellvorstellung kann bereits eine<br />

76


Vielzahl der binauralen Maskierungsexperimente quantitativ gedeutet werden. Ein eher auf<br />

physiologischen Vorstellungen basierendes Modell der binauralen Signalverarbeitung wurde dagegen von<br />

Jeffress (1948) aufgestellt. Es sieht eine Art neuronales Kreuzkorrelations-Netzwerk vor, bei dem die an<br />

den beiden Ohren ankommenden Signale in einer Laufzeitkette sukzessiv zeitverzögert werden und durch<br />

Koinzidenz-Detektoren die Laufzeitunterschiede zwischen den beiden Ohren jeweils abgegriffen werden.<br />

Auf der Basis dieses Modells wurden in der neueren Literatur eine Reihe weiterer Modelle entwickelt, die<br />

die binaurale Signalverarbeitung einschließlich einer Reihe von Effekten richtig vorhersagen (z. B. die<br />

Lateralisation bzw. Lokalisation von Schallereignissen mit bestimmter interauraler Zeit- und<br />

Pegeldifferenz, das Gesetz der ersten Wellenfront, die MLD <strong>für</strong> verschiedene Signale und Maskierer,<br />

sowie zeitliche und spektrale Eigenschaften dieser Effekte). Da auf diesem Gebiet noch weiter intensiv<br />

geforscht wird, sei auf die weiterführende Literatur von Blauert (1983) und Colburn (1996) verwiesen.<br />

2. Psychoakustik des pathologischen Gehörs<br />

-Intensitätsabbildung<br />

Bei sämtlichen Formen der Schwerhörigkeit tritt ein Hörverlust auf, d. h. eine<br />

Verringerung der Sensitivität des Hörorgans <strong>für</strong> Schall. Der Pegel eines akustischen<br />

Signals muß daher gegenüber Normalhörenden angehoben werden, um eine<br />

Empfindung hervorzurufen, d. h. die Hörschwelle ist angehoben. Die<br />

Frequenzabhängigkeit der Hörschwelle wird im Tonschwellenaudiogramm erfaßt. Bei<br />

weiterer Erhöhung des Pegels ergibt sich ein Anstieg der Lautheit, der bei<br />

Innenohrschwerhörigen in der Regel steiler ist als bei Normalhörenden (Recruitment).<br />

Dieser Effekt führt zu dem bei vielen Schwerhörenden beobachteten Phänomen, daß sie<br />

bei niedrigen Sprachlautstärken nichts verstehen. Wenn der Gesprächspartner<br />

aufgefordert wird, doch etwas lauter zu reden, beklagen sich die Schwerhörigen<br />

darüber, daß es schnell zu laut ist und die Sprecher nicht gleich schreien sollen. Dieses<br />

Phänomen kann mit überschwelligen Tests erfaßt werden. In der Routine-Audiometrie<br />

wird bei seitendifferentem Hörverlust dazu der Fowler-Test verwendet.<br />

Den Lautheitsanstieg mit zunehmenden Pegel kann man <strong>für</strong> jedes Ohr separat mit der<br />

Hörflächenskalierung ermitteln, bei der sich bei Patienten mit Recruitment ein steilerer<br />

Anstieg der Kategoriallautheit ergibt. Die Steigung dieser Lautheitsfunktion ist jedoch<br />

individuell sehr unterschiedlich und kann möglicherweise von dem Verhältnis der<br />

Schädigung innerer und äußerer Haarzellen abhängen (vgl. 3.2). Daher ist der<br />

Kompressionsverlust des auditorischen Systems, der sich in der Steigung der<br />

Hörflächenskalierung ausdrückt, der als eine weitere, vom Hörverlust weitgehend<br />

unabhängige Komponente zu erfassen. Der Kompressionsverlust nimmt mit<br />

zunehmenden Hörverlust zwar tendenziell zu, läßt sich aufgrund der großen<br />

individuellen Schwankungen aber nicht daraus vorhersagen (vgl. Kießling, 1995, Launer<br />

et al, 1996). Bei Schalleitungs-Schwerhörigkeit ist die Pegel-Lautheitsfunktion der<br />

Hörflächenskalierung zu höheren Pegeln hin verschoben. Aufgrund des<br />

Adaptationseffektes ist diese Verschiebung jedoch nicht so groß wie der an der<br />

Schwelle meßbare Hörverlust. Außerdem kann auch die Steigung leicht variieren, so<br />

77


daß die Hörflächenskalierung keine sichere Unterscheidungsmöglichkeit zwischen<br />

Schalleitungs- und Schallempfindungs-Schwerhörigkeit bietet.<br />

Abbildung 13: Intensitäts-JND <strong>für</strong> verschiedene Schwerhörigkeitsformen<br />

Für die Schalleitungs-Schwerhörigkeit verschiebt sich die Pegelabhängigkeit der<br />

Intensitätsauflösung (d. h. der kleinste hörbare Intensitätsunterschied, Intensitäts-Just<br />

Noticeable Difference, JND) <strong>für</strong> Sinustöne zu höheren Pegeln (Abb 13). Bei<br />

Innenohrschwerhörigen mit Recruitment geschieht die Abnahme der Intensitäts-JND<br />

dagegen in einem wesentlich kleineren Pegelbereich. Sie haben bei derselben<br />

wahrgenommenen Lautheit ungefähr die gleiche bzw. eine geringgradig erhöhte<br />

Intensitäts-JND wie Normalhörende. Die früher verbreitete Annahme, daß Innenohr-<br />

Schwerhörende eine kleinere Intensitäts-JND besitzen, weil sie einen steileren<br />

Lautheitsanstieg haben, hat sich als falsch herausgestellt (Hohmann, 1993). Wenn man<br />

die Intensitäts-Diskrimination allerdings knapp oberhalb der Hörschwelle mißt (z. B.<br />

20 dB wie beim SISI-Test in der überschwelligen Audiometrie), können<br />

Innenohrschwerhörige etwas niedrigere Diskriminations-Schwellen erreichen, weil sie<br />

dort eine größere Lautheit wahrnehmen als Normalhörende. Allerdings ist diese<br />

Diskriminationsschwelle sehr variabel, so daß der SISI-Test ein sehr indirektes Maß <strong>für</strong><br />

ein Recruitment darstellt, was sich als sehr unzuverlässig herausgestellt hat. Bei<br />

breitbandigen Signalen (z. B. Rauschen oder Sprache) hängt die Intensitäts-<br />

Diskrimination sehr wenig vom Pegel ab. Innenohrschwerhörige zeigen daher in ihrem<br />

Dynamikbereich eine leicht erhöhte Intensitäts-JND gegenüber Normalhörenden, wobei<br />

jedoch die gleiche (geringere) Pegelabhängigkeit auftritt. Bei hochgradig Schwerhörigen<br />

mit einer sensorineuralen Schwerhörigkeit bzw. bei Patienten mit einer neuralen<br />

Schwerhörigkeit kann die Intensitäts-JND relativ stark erhöht sein, so daß es diesen<br />

Patienten schwerfällt, akustische Signale (wie z. B. Sprache) in ihrem auditorischen<br />

System richtig abzubilden und zu verstehen.<br />

-Frequenz- und Zeitabbildung<br />

Bei Schalleitungsschwerhörigkeit treten keine nennenswerten Abweichungen in den<br />

überschwelligen Funktionen gegenüber Normalhörenden auf, sofern der<br />

Darbietungspegel auf die individuelle Hörschwelle bezogen wird. Im folgenden sollen<br />

daher nur die bei sensorineuralen Schwerhörigkeiten auftretenden Veränderungen der<br />

Frequenz- und Zeitabbildung betrachtet werden:<br />

78


Aufgrund der bei Schädigung der äußeren Haarzellen verringerten Frequenzselektivität<br />

des Gehörs nimmt auch die psychoakustisch meßbare Frequenzauflösung des Gehörs<br />

ab. Dies macht sich in einer Verbreiterung der Frequenzgruppe bemerkbar, d. h. bei<br />

Innenohrschwerhörenden wird ein größerer spektraler Bereich im Gehör<br />

zusammengefaßt, um die Lautheit und die Maskierung zu bestimmen (s. Abb. 14). Die<br />

Verbreiterung der Frequenzgruppe führt zu einem Anstieg der Mithörschwelle im<br />

Rauschen, d. h. ein in einem Rauschen versteckter Testton muß stärker im Pegel erhöht<br />

werden als bei Normalhörenden, um detektiert werden zu können. Dies liegt daran, daß<br />

mehr Energie von benachbarten Frequenzen zur Maskierung des Ziel-Testtons beiträgt.<br />

Allerdings hängt diese Verbreiterung vom Signalpegel ab: Auch bei Normalhörenden tritt<br />

eine Verbreiterung der Frequenzgruppe mit hohem Pegel auf. Daher sollte man die<br />

Frequenzgruppe von Schwerhörenden nicht bei gleichem Pegel über der individuellen<br />

Hörschwelle, sondern bei gleichem absoluten Pegel vergleichen. Dabei ist die<br />

Frequenzgruppe von Schwerhörenden nur geringgradig gegenüber der von<br />

Normalhörenden verbreitert. Bei einer entsprechenden Anhebung des Pegels über die<br />

Hörschwelle des Innenohrschwerhörigen (z. B. durch ein Hörgerät) wird daher der Effekt<br />

der verbreiterten Frequenzgruppe geringer.<br />

Abbildung 14: Frequenzgruppenbreite als Funktion des Pegels <strong>für</strong> Normal- und Innenohrschwerhörende<br />

Die Zeitauflösung bei Innenohrschwerhörigen ist ebenfalls verringert, d. h. man mißt<br />

eine verlängerte Vor- und Nachverdeckung und eine Verlängerung der kleinsten<br />

detektierbaren Pausendauer im Rauschen. Allerdings ist hier genau wie bei der<br />

Frequenzauflösung die Pegelabhängigkeit zu berücksichtigen, da bei den Innenohrschwerhörenden<br />

ein wesentlich kleinerer Pegelbereich zur Verfügung steht als bei<br />

Normalhörenden. Wenn man die Experimente bei dem gleichen Pegel oberhalb der<br />

Ruhehörschwelle (bzw. bei der gleichen wahrgenommenen Lautheit) durchführt und<br />

auch den Effekt des Recruitments berücksichtigt, ist die Zeitauflösung nicht wesentlich<br />

gegenüber der von Normalhörenden gestört. Dies ist auch der Grund, wieso die<br />

psychoakustisch meßbare Modulations-Transferfunktion ungefähr den gleichen<br />

Tiefpaßverlauf wie bei Normalhörenden aufweist. Allerdings ist die Schwelle insgesamt<br />

79


erhöht, so daß Schwerhörende nicht so geringe Modulationstiefen detektieren können<br />

wie Normalhörende.<br />

Im Gegensatz zu den relativ wenig geänderten Zeitkonstanten bei der Zeitauflösung<br />

steht das geänderte Verhalten bei der zeitlichen Integration bei<br />

Innenohrschwerhörigen (s.o.): Während bei Normalhörenden die Wahrnehmbarkeit und<br />

die Lautstärke eines Tones mit zunehmender Tondauer bis zu einer Maximaldauer von<br />

etwa 200 ms zunimmt, tritt dieser Effekt bei Innenohrschwerhörigen nicht in gleicher<br />

Weise auf. Dies ist ein Grund da<strong>für</strong>, daß Signale, die im Rauschen versteckt sind<br />

(maskierte Signale), von Innenohrschwerhörenden erst bei wesentlich höheren Signal-<br />

Rauschverhältnissen detektiert werden können als von Normalhörenden.<br />

-Weitere auditorische Funktionen<br />

Generell zeigt sich bei Innenohrschwerhörenden eine allgemeine Verschlechterung<br />

sämtlicher psychoakustisch meßbarer auditorischer Funktionen im Vergleich zu<br />

Normalhörenden. Zu diesen eingeschränkten Funktionen gehören neben der oben<br />

erwähnten Intensitäts-, Frequenz- und Zeitauflösung auch andersartig gemessene<br />

Detektions- und Diskriminationsleistungen im Zeit- und Frequenzbereich (z. B.<br />

Tonhöhenunterscheidung), komplexere Erkennungs- und Unterscheidungsleistungen,<br />

sowie die binaurale Interaktion (d. h. die Extraktion von Unterschieden zwischen den<br />

Signalen, die an den beiden Ohren anliegen), die zur Ortung von Schallquellen und zur<br />

Trennung zwischen Nutzsignalen und Störsignalen beiträgt. Dabei stellt man fest, daß<br />

sämtliche dieser auditorischen Funktionen primär vom Hörverlust beeinflußt werden. Im<br />

Mittel über alle Patienten verschlechtern sich alle Funktionen mit zunehmendem<br />

Hörverlust. Abgesehen von diesem generellen Effekt gibt es jedoch nur sehr geringe<br />

gegenseitige Abhängigkeiten zwischen den Schädigungen in der Hörfunktion.<br />

Beispielsweise kann die Frequenzauflösung stark gestört sein und das binaurale Hören<br />

relativ intakt (oder umgekehrt). Dies führt zu der Vorstellung, daß sich Innenohr-<br />

Hörstörungen primär durch die zwei Komponenten Hörverlust und<br />

Kompressionsverlust charakterisieren lassen. Die darüber hinausgehenden<br />

Einschränkungen unterliegen einem diffusen, an unterschiedlichen Orten in<br />

verschiedener, nicht vorhersehbarer Weise wirkenden Schädigungsprozeß.<br />

3. Sprachwahrnehmung bei Normal- und Schwerhörigen<br />

Die sprachliche Kommunikation zwischen Menschen ist eine hochspezialisierte und<br />

faszinierende Leistung, die letztendlich die Grundlage unserer Kultur darstellt. Um die<br />

beim Verstehen von Sprache (und ihrer möglichen Störungen) beteiligten Prozesse<br />

verstehen zu können, muß der gesamte Übertragungsweg vom Sender (sprechender<br />

Mensch) über die akustische Darstellung von Sprache bis zum Empfänger (hörender<br />

Mensch) genau betrachtet werden.<br />

80


3.1 Sprachakustik<br />

Wenn das akustische Sprachsignal z. B. mit einem Mikrophon aufgenommen wird, läßt<br />

sich aus dem Zeitverlauf des Signals nur sehr wenig Information über das geäußerte<br />

Sprachelement ableiten. Beispielsweise kann gesehen werden, ob es sich um einen<br />

Vokal (periodisches Signal aufgrund der Stimmlippen-Schwingung) oder einen<br />

stimmlosen Konsonanten mit Rauschanteilen handelt (irreguläres Zeitsignal). Weiterhin<br />

lassen sich mit hoher Zeitauflösung zeitliche Übergänge feststellen (vgl. Abbildung 15).<br />

Eine Möglichkeit, mehr Informationen über die akustische Filterung des Sprachsignals<br />

im Vokaltrakt zu erhalten, bietet die Analyse des Frequenzgehalts des Schallsignal<br />

(Leistungsspektrum). Dabei wird <strong>für</strong> jede Frequenz über die gesamte Dauer des<br />

Signals gemittelt die Energie errechnet, die in das jeweilige Frequenzband fällt (vgl.<br />

Abbildung 15 rechts). Bei einem stationären Signal, das sich nicht zeitlich ändert (z. B.<br />

bei gehaltenen Vokalen) kann man in diesem (Leistungs-)Spektrum sehr gut die<br />

Grundfrequenz (Schwingungsfrequenz der Glottis) mit ihren Obertönen (ganzzahlige<br />

Vielfache der Grundfrequenz) erkennen, sowie die Formanten, d. h. die<br />

Frequenzbereiche, bei denen der Vokaltrakt eine besonders hohe Verstärkung des<br />

akustischen Signals bewirkt. Die Formanten stellen sich damit als Spitzen im Spektrum<br />

dar und sind charakteristisch <strong>für</strong> den jeweils artikulierten Vokal (s. unten).<br />

Abbildung 15: Zeit-Signal (unten), Spektrum (rechts) und Spektrogramm (links oben) des Wortes<br />

„Hörakustik“<br />

Da das Spektrum über eine lange Zeit gebildet wird, ist es ungeeignet zur Beurteilung<br />

der sich zeitlich stark ändernden akustischen Anteile von fließender Sprache. Es hat<br />

allerdings eine große Bedeutung als mittleres Sprachspektrum, d. h. die<br />

Energieverteilung im Frequenzbereich, die im Mittel bei einem männlichen bzw.<br />

weiblichen Sprecher auftritt (vgl. Abbildung 16). Daraus läßt sich ablesen, daß im<br />

81


Bereich der Grundfrequenzen zwischen etwa 300 und 800 Hz am meisten<br />

Sprachenergie vorliegt (Maximum des Spektrums), während zu niedrigen Frequenzen<br />

ein Abfall von etwa 20 dB pro Oktave erfolgt und zu hohen Frequenzen von etwa 10 dB<br />

pro Oktave. Die Langzeitspektren von männlichen und weiblichen bzw. kindlichen<br />

Sprechern unterscheiden sich durch die Lage des Maximums im Frequenzbereich, das<br />

bei Frauen und Kindern deutlich höher liegt als bei Männern. Mit zunehmender<br />

Sprechanstrengung verschiebt sich das spektrale Maximum zu hohen Frequenzen, so<br />

daß sich die Stimme aus dem Hintergrund (mit vorwiegend tieffrequenter Leistung)<br />

deutlicher abgrenzen läßt, ohne daß die akustische Gesamtleistung der Stimme in<br />

gleichem Maß ansteigt.<br />

Abbildung 16: Mittleres Spektrum von männlichen bzw. weiblichen Sprechern<br />

Aufgrund des Spektrums von gehaltenen Vokalen bzw. ausgeschnittenen Vokalen läßt<br />

sich ein Zusammenhang zwischen der Lage des ersten Formantens (d. h. spektrales<br />

Maximum im Bereich zwischen etwa 200 und 800 Hz), dem zweiten Formanten (zweites<br />

spektrales Maximum zwischen etwa 600 und 2.500 Hz), der Stellung der<br />

Artikulationsorgane und dem jeweils geäußerten Vokal aufstellen (Vokaldreieck bzw.<br />

Vokaltrapez, vgl. Abbildung 17).<br />

Abbildung 17: Vokaldreieck. Aufgetragen ist die Frequenz des ersten Formanten F1 (Abzisse) und des<br />

zweiten Formanten F2 (Ordinate) <strong>für</strong> unterschiedliche Vokale (schematisch)<br />

82


3.2 Sprachverständlichkeit<br />

Beim Verstehen von Sprache spielt einerseits die Sprachverständlichkeit eine Rolle,<br />

d. h. die Eigenschaft des Sprachmaterials, von einem durchschnittlichen,<br />

normalhörenden Probanden verstanden zu werden. Andererseits spielt die individuelle<br />

Sprachperzeptionsleistung eine Rolle, d. h. die von dem individuellen Patienten<br />

erbrachten Voraussetzungen zum Sprachverstehen, die mehr oder weniger stark gestört<br />

sein können. In der Sprachaudiometrie mißt man die Verständlichkeit von<br />

standardisiertem Sprachmaterial bei dem individuellen Patienten, um Rückschlüsse auf<br />

dessen Sprachperzeptionsleistungen führen zu können.<br />

3.2.1 Methoden zur Bestimmung der Sprachverständlichkeit<br />

Das <strong>für</strong> Verständlichkeitsmessungen verwendete Sprachmaterial sollte möglichst<br />

repräsentativ sein <strong>für</strong> die Sprache und <strong>für</strong> die zu betrachtende Kommunikationssituation.<br />

Dabei tritt als grundlegendes Problem die hohe Zahl von Variablen auf, <strong>für</strong> die eine<br />

möglichst vernünftige Festlegung erfolgen sollte. Zu diesen Variablen gehört die Art des<br />

Tests: „offene“ Tests, bei dem ein Test-Item (z. B. ein Wort oder Satz) dem Probanden<br />

dargeboten wird, das er möglichst korrekt wiederholen soll, und „geschlossene“ Tests,<br />

bei dem der Proband das richtige Test-Item aus einer Liste von möglichen Antworten<br />

bezeichnet. Weitere Variablen sind die Länge der Test-Items (z. B. einsilbige oder<br />

mehrsilbige Wörter oder Sätze), die Auswerte-Methode (Bewertung richtig erkannter<br />

Phoneme, Silben, Wörter oder Sätze), der Sprecher (männlicher oder weiblicher<br />

Sprecher, geschulter oder ungeschulter Sprecher oder etwa synthetische Sprache),<br />

sowie die Wahl eines Störgeräusches und einer räumlichen Anordnung von Nutzschallund<br />

Störgeräuschquelle. Jedes der gebräuchlichen Sprachtestverfahren besitzt eine<br />

eigene Kombination dieser Variablen, so daß die Test-Ergebnisse sich nicht leicht<br />

miteinander vergleichen lassen.<br />

Außerdem ist die Festlegung der Variablen abhängig vom Einsatzzweck des Tests.<br />

Beispielsweise steht bei der Diagnostik von Hörstörungen die analytische Fähigkeit des<br />

Tests im Vordergrund (d. h. die Möglichkeit, aus den auftretenden Phonem-<br />

Verwechslungen Rückschlüsse auf das gestörte Hörsystem zu ziehen), während bei der<br />

Begutachtung eher eine hohe Reproduzierbarkeit des Tests und eine hohe<br />

Repräsentanz des Sprachmaterials <strong>für</strong> alltägliche Kommunikation im Vordergrund steht.<br />

Bei der Hörgeräteanpassung ist dagegen eine hohe Sensitivität gegenüber kleinen<br />

Änderungen der Einstellparameter des Hörgerätes wichtig.<br />

Der derzeit in der Standard-Audiometrie am häufigsten eingesetzte Sprachtest, der<br />

Freiburger Wörtertest, ist ein „offener“ Test mit Einsilbern bzw. mit Mehrsilbern<br />

(Zahlen). Als Alternative dazu wurde in jüngerer Zeit das Reimtestverfahren mit<br />

83


geschlossenen Antwortalternativen eingeführt, die sich in nur einem Phonem<br />

unterscheiden und sich daher reimen (z. B. die Alternativen „Sinn“, „Hin“, „bin“, „Kinn“,<br />

„Zinn“). Dieses Verfahren vermeidet Fehlerquellen bei der Testbewertung durch den<br />

Testleiter und ist automatisierbar. Die Einsilber-Tests haben den Vorteil einer geringen<br />

Redundanz (d. h. aus einem richtig erkannten Teil des Wortes kann nicht auf den<br />

anderen, unverständlichen Teil des Wortes geschlossen werden) und bieten eine hohe<br />

analytische Aussagekraft bei den auftretenden Phonem-Verwechslungen. Da im<br />

<strong>Deutsche</strong>n Zweisilber jedoch häufiger als Einsilber sind, sind Zweisilber-Tests eher<br />

repräsentativ <strong>für</strong> die deutsche Sprache, so daß auch ein Reimtest-Verfahren <strong>für</strong><br />

Zweisilber entwickelt wurde. Sprachtests mit Sätzen bieten dagegen eine sehr<br />

realitätsnahe Kommunikations-Situation. Ihre Diskriminationsfunktion (d. h. der<br />

Prozentsatz richtig erkannter Wörter als Funktion des Sprachpegels) ist sehr steil, so<br />

daß sie eine hohe Sensitivität gegenüber Änderungen im Sprachpegel oder im Signal-<br />

Rauschabstand aufweisen. Für die deutsche Sprache gibt es den standardisierten<br />

Marburger Satztest und den neueren Göttinger Satztest. Ein Überblick über moderne<br />

Verfahren der deutschsprachigen Sprachaudiometrie findet sich bei Kollmeier (1992).<br />

3.2.2 Methoden zur Berechnung und Modellierung der Sprachverständlichkeit<br />

Um das Verstehen von Sprache quantitativ zu erfassen und die Sprachverständlichkeit<br />

<strong>für</strong> eine vorgegebene akustische Situation oder einen bestimmten Hörverlust<br />

vorhersagen zu können, wurden verschiedene Methoden zur Berechnung bzw.<br />

Vorhersage der Sprachverständlichkeit aus dem zugrundliegenden Sprachmaterial und<br />

den akustischen Gegebenheiten (z. B. Nachhall, Störgeräusch, angeborene<br />

Ruhehörschwelle) entwickelt. Die klassische Methode der<br />

Sprachverständlichkeitsvorhersage ist der Artikulations-Index (AI) und der Speech<br />

Transmison Index (STI). Sie beruhen auf der Annahme, daß die gesamte Sprach-<br />

Information auf die verschiedenen Frequenzbänder des akustischen Signals verteilt ist,<br />

und daß jedes Band einen gewissen Beitrag zur Gesamt-Sprachverständlichkeit liefert.<br />

Die Breite jedes dieser Bänder orientiert sich dabei an der Frequenz-Gruppenbreite<br />

(Bark-Skala oder in erster Näherung Terz-Bandbreite). In jedem dieser Frequenzbänder<br />

kann nun ein „effektiver“ Signal-Rauschabstand ermittelt werden, d. h. das Verhältnis<br />

zwischen der Nutzenergie des zu verstehenden Sprachsignals und den Störanteilen.<br />

Diese werden durch Nachhall oder durch ein Störrauschen verursacht, oder dadurch,<br />

daß die Energie in diesem Band unterhalb der Ruhehörschwelle des jeweiligen<br />

Patienten liegt, was durch ein angenommenes „internes Rauschen“ nachgebildet wird.<br />

Wenn der Signal-Rauschabstand in dem Band größer als 15 dB ist, geht man davon<br />

aus, daß dieses Band vollständig zur Verständlichkeit beiträgt, während bei einem<br />

Signal-Rauschabstand von kleiner als -15 dB sämtliche Sprachinformation in diesem<br />

Band maskiert ist, so daß das Band nicht zur Gesamt-Sprachverständlichkeit beiträgt.<br />

Der Signal-Rauschabstand im Band j (SNR (j)) wird also auf einen Bereich von -15dB<br />

bis +15dB begrenzt. Zur Ermittlung des Artikulationsindex wird nun eine gewichtete<br />

Mittelung über die Signal-Rauschabstände in den einzelnen Bändern durchgeführt, bei<br />

der jedes Band j mit einem Gewichtungsfaktor Wj multipliziert wird:<br />

84


∑ () 15 (1)<br />

AΙ oder STΙ= Wj⋅ [ SNR j + dB]<br />

j<br />

Die Gewichtungsfaktoren Wj sind dabei so gewählt, daß der STI oder AI nur Werte<br />

zwischen 0 (entsprechend einer Sprachverständlichkeit von 0, wenn in jedem Band nur<br />

Rauschen und keine signifikanten Sprachanteile vorliegen) und 1 variiert (vollständige<br />

Sprachverständlichkeit, da in jedem Frequenzband die Sprache von dem Rauschen<br />

kaum beeinflußt wird). Damit stellt der AΙ bzw. STΙ ein Maß <strong>für</strong> die<br />

Sprachverständlichkeit dar, das direkt mit der meßbaren mittleren<br />

Sprachverständlichkeit zusammenhängt. Diese Beziehung hängt allerdings von dem<br />

verwendeten Sprachmaterial und Test ab (vgl. Abbildung 18). Bei Sprachtests mit<br />

geringer Redundanz (z. B. bei sinnlosen oder sinnbehafteten Einsilbern) wächst die<br />

Sprachverständlichkeit mit zunehmendem AΙ bzw. STΙ nur langsam an, während die<br />

Sprachverständlichkeit bei Sätzen mit hoher Redundanz schon bei relativ kleinem AI<br />

sehr hoch ist. Dies liegt an der Möglichkeit, den Satz aufgrund des<br />

Satzzusammenhanges schon dann vollständig richtig zu verstehen, wenn nur einige<br />

Teile des Satzes verstanden werden.<br />

Abbildung 18: Sprachverständlichkeit <strong>für</strong> verschiedenes Sprachmaterial als Funktion des AΙ bzw. STΙ<br />

Mit Hilfe der in Abbildung 18 angegebenen Kurven ist es daher prinzipiell möglich, die<br />

Verständlichkeit <strong>für</strong> verschiedene Sprachmaterialien bei vorgegebenen akustischen<br />

Bedingungen ineinander umzurechnen. Es muß jedoch betont werden, daß der<br />

Artikulations Index und der Speech Transmission Index nur <strong>für</strong> den Mittelwert von<br />

Sprachverständlichkeiten über ein normalhörendes Versuchspersonenkollektiv und eine<br />

große Anzahl von Tests gelten. Für den individuellen Patienten und <strong>für</strong> die<br />

Verständlichkeit eines einzelnen Wortes oder eines einzelnen Satzes treten große<br />

Schwankungen in der Verständlichkeit auf, so daß diese Berechnungsmethode <strong>für</strong><br />

diesen Fall nicht angewendet werden kann (vgl. Kollmeier, 1990).<br />

Der STΙ unterscheidet sich vom AΙ durch die Vorgehensweise zur Berechnung des „effektiven“ Signal-<br />

Rauschabstandes SNR (j) in jedem Band j. Während beim AI das Leistungsspektrum des<br />

85


Sprachmaterials und das Leistungsspektrum des Störsignals getrennt voneinander bekannt sein müssen<br />

und ins Verhältnis gesetzt werden, wird beim STI der Signal-Rauschabstand anhand des Sprachsignals<br />

und der Mischung aus Sprachsignal und Störsignal mit Hilfe der Modulations Transfer Funktion (MTF)<br />

bestimmt. Dazu werden in jedem Frequenzbereich die im Original-Signal auftretenden Modulationen<br />

gemessen und die in der Mischung verbleibenden Modulationen werden ins Verhältnis zu den<br />

ursprünglichen Modulationen gesetzt. Wenn die ursprünglichen Modulationen vollständig erhalten sind<br />

(Modulations-Transfer-Funktion von 1), spricht dies <strong>für</strong> ein sehr hohes Signal-Rauschverhältnis, während<br />

die Anwesenheit von Störgeräusch oder von Nachhall die im gemischten Signal verbleibenden<br />

Modulationen stark verringert. Das Konzept des STΙ geht also davon aus, daß die Erhaltung der<br />

Modulationen im gemischten Signal <strong>für</strong> die Sprachverständlichkeit von entscheidender Bedeutung ist und<br />

errechnet den Signal-Rauschabstand aus diesem Erhalt der Modulationen. Dadurch können der Einfluß<br />

von Nachhall und der Einfluß von Störrauschen in gleicher Weise behandelt werden, so daß sich der STI<br />

besonders <strong>für</strong> den Einsatz in der Raumakustik bewährt hat. Die zeitlichen Eigenschaften eines<br />

Sprachübertragungssystems (z. B. des gestörten Gehörs) werden ebenfalls besser berücksichtigt als<br />

beim AΙ (vgl. Houtgast und Steneken, 1973).<br />

Abbildung 19: Perzeptionsmodell zum Sprachverstehen nach Holube und Kollmeier (1996)<br />

Neben den auf den Eigenschaften des Sprachmaterials beruhenden<br />

Berechnungsverfahren des AΙ und STΙ gibt es Modelle zur<br />

Sprachverständlichkeitsvorhersage, die sich eher an den Eigenschaften des Gehörs<br />

orientieren und die Verarbeitungsschritte bei der Sprachwahrnehmung explizit<br />

nachbilden. Als Beispiel <strong>für</strong> ein derartiges Perzeptionsmodell soll das in Abbildung 19<br />

skizzierte Modell nach Holube und Kollmeier (1996) erläutert werden: Das gestörte<br />

Sprachsignal wird zunächst einer peripheren Vorverarbeitungs-Stufe zugeführt, die die<br />

„effektive“ Signalverarbeitung im auditorischen System möglichst gut nachbildet. Die<br />

Elemente dieser Vorverarbeitungsstufe entsprechen dabei genau den anhand von<br />

psychoakustischen und physiologischen Experimenten gewonnenen<br />

Verarbeitungseinheiten. Zunächst wird eine Aufspaltung des Signals in verschiedene<br />

Frequenzbereiche vorgenommen (entspricht der Frequenz-Orts-Transformation der<br />

Basilarmembran), anschließend wird eine Extraktion der Einhüllenden und eine<br />

Adaptation mit zeitlicher Kontrastierung in jedem Frequenzkanal vorgenommen (dies<br />

entspricht ungefähr der Aktion der Haarzellen und des Hörnervs). Die statistischen<br />

Übertragungsfehler durch das Nervensystem und die Begrenzung der Empfindlichkeit<br />

durch die Ruhehörschwelle wird durch ein zusätzliches „internes“ Rauschen<br />

86


nachgebildet. Am Ausgang der peripheren Vorverarbeitungsstufe liegt dann zu jedem<br />

Zeitpunkt <strong>für</strong> jede Frequenz ein komprimierter und zeitlich kontrastierter Intensitätswert<br />

vor, der ungefähr der internen Repräsentation der akustischen Signale entspricht und<br />

eine ähnliche Darstellung der Sprachinformation wie das Spektrogramm ermöglicht.<br />

Dieselben Vorverarbeitungsschritte werden auch <strong>für</strong> ein Referenzsignal (ungestörtes<br />

Sprachsignal) durchgeführt. In einer zentralen Verarbeitungsstufe (Mustererkenner)<br />

kann dann überprüft werden, inwiefern die interne Repräsentation des Eingangssignals<br />

mit derjenigen eines vorgegebenen Vergleichsignals übereinstimmt. Diese zentrale<br />

Mustererkennung entspricht ungefähr dem Prozeß der Sprachwahrnehmung, bei dem<br />

die aktuelle akustische Wahrnehmung mit der möglichen Wahrnehmung von allen<br />

möglichen bekannten Wörtern verglichen wird. Als „erkanntes Wort“ wird dasjenige<br />

ausgewählt, dessen interne Repräsentation am ähnlichsten mit der Repräsentation des<br />

Eingangssignals ist. Dieser zentrale Verarbeitungs-Vorgang kann daher mit einem<br />

Spracherkennungsalgorithmus durchgeführt werden und bildet das „Weltwissen“ des<br />

Hörers nach.<br />

Mit einer derartigen Modellstruktur kann untersucht werden, inwiefern sich<br />

Verarbeitungsfehler in der peripheren Vorverarbeitung (z. B. Änderung der spektralen<br />

und zeitlichen Auflösung oder eine Anhebung der Ruhehörschwelle) auf die veränderte<br />

Erkennungsleistung beim Sprachverstehen auswirkt. Der Vorteil eines derartigen<br />

Modells besteht darin, daß die Sprachverständlichkeitsvorhersage nicht global, im Mittel<br />

über viele Versuchspersonen und viele Wörter erfolgen muß, sondern daß <strong>für</strong> jede<br />

individuelle Versuchsperson und jedes zu erkennende Wort eine eigene<br />

Verständlichkeitsberechnung durchgeführt werden kann. Die Vorhersagen mit diesem<br />

Modell stimmen <strong>für</strong> die Sprachverständlichkeit in Ruhe und insbesondere <strong>für</strong><br />

verschiedene Störgeräusche sehr gut mit den gemessenen Verständlichkeitswerten bei<br />

Normal- und Schwerhörenden überein (vgl. Holube und Kollmeier, 1996). Aufgrund des<br />

hohen Rechenzeitaufwandes <strong>für</strong> dieses Modell und die noch nicht in allen Einzelheiten<br />

geklärten Verarbeitungsprozesse sind jedoch noch weitere Forschungsarbeiten zu<br />

seiner Validierung notwendig.<br />

3.3 Sprachperzeption bei pathologischem Gehör<br />

Bei Schwerhörigkeit ist das Verstehen von Sprache in Ruhe und unter<br />

Störgeräuscheinfluß reduziert. In der Sprachaudiometrie wird diese Reduktion<br />

quantitativ erfaßt, in dem die Sprachverständlichkeit (d. h. der Prozentsatz korrekt<br />

verstandener Test-Items einer vorgegebenen Testliste von Wörtern, Zahlen oder<br />

Sätzen) <strong>für</strong> verschiedene Sprachpegel und <strong>für</strong> verschiedene Testbedingungen bestimmt<br />

wird (z. B. in Ruhe oder unter Störgeräusch mit unterschiedlicher räumlicher Anordnung<br />

von Störschall und Nutzschall). Das Ziel dieser Messungen ist entweder die<br />

differenzierte Diagnostik von Hörstörungen, die Begutachtung eines Hörschadens<br />

oder die Anpassung von Hörhilfen (d. h. das Ausmessen der Sprachverständlichkeit<br />

87


ohne Hörhilfe und den Gewinn an Sprachverständlichkeit, der durch die Hörhilfe erzielt<br />

wird). Für die Bestimmung der Sprachverständlichkeit gibt es mehrere Testverfahren<br />

(vgl. 1.2) von denen der Freiburger Einsilber- bzw. Zahlentest und der Marburger<br />

Satztest standardisiert sind. Neuere und weniger fehleranfällige Verfahren wie der<br />

Einsilber- oder Zweisilber-Reimtest und der Göttinger Satztest befinden sich im<br />

Erprobungsstadium.<br />

Abbildung 20: Diskriminationsfunktionen bei unterschiedlichen Pathologien (schematisch)<br />

Für den Sprachtest in Ruhe findet man bei den verschiedenen Schwerhörigkeitsformen<br />

prinzipiell die in Abbildung 20 dargestellten Diskriminationsfunktionen (d. h. Prozent<br />

Sprachverständlichkeit als Funktion des Sprachpegels). Bei Normalhörenden hängt die<br />

Steigung der Diskriminationsfunktion vom verwendeten Sprachmaterial ab: Die<br />

Diskriminationsfunktion ist relativ flach bei Einsilbern mit offenem Antwortformat, etwas<br />

steiler beim Reimtestverfahren und extrem steil (ca. 20 % Verständlichkeit pro dB) bei<br />

Sätzen wie z. B. beim Göttinger Satztest. Bei Schalleitungs-Schwerhörigkeiten ist die<br />

Diskriminationsfunktion zu hohen Pegeln hin verschoben. Bei Schallempfindungs-<br />

Schwerhörigkeiten ist die Diskriminationsfunktion ebenfalls verschoben, was auf die<br />

„Abschwächungswirkung“ des Hörverlusts zurückgeführt wird. Die darüber<br />

hinausgehende „Verzerrungswirkung“ des Hörverlusts („Fehlhörigkeit“) macht sich<br />

dagegen in einer Abflachung (Verringerung der Steigung) der Diskriminationsfunktion<br />

und in einem Diskriminationsverlust bemerkbar, d. h. die Diskriminationskurve erreicht<br />

bei hohen Pegeln nicht 100 % sondern bleibt um einen bestimmten Wert, der als<br />

Diskriminationsverlust bezeichnet wird, unterhalb von 100 %. Bei sehr hohen Pegeln<br />

kann bei einem Patienten sogar eine Verschlechterung der Sprachverständlichkeit mit<br />

zunehmendem Pegel beobachtet werden („roll-over“-Phänomen oder R-Kurve), das im<br />

Zeitalter verbesserter audiologischer Technik (verzerrungsfreie Verstärker und<br />

Kopfhörer, CD-Wiedergabe des Sprachmaterials) allerdings selten geworden ist. Die<br />

beiden erstgenannten Effekte lassen sich bei Innenohrschwerhörigen darauf<br />

zurückführen, daß sie bestimmte Wörter erst bei sehr hohen Pegeln oder überhaupt<br />

nicht verstehen können, während andere Wörter schon bei relativ niedrigen Pegeln<br />

verständlich sind. Der Übergangsbereich der Diskriminationsfunktion zwischen<br />

„unverständlich“ und „vollständig verständlich“ überdeckt daher einen größeren<br />

Pegelbereich mehr als bei Normalhörenden bzw. Schalleitungsschwerhörigen.<br />

88


Ziel der Sprachaudiometrie in Ruhe ist es nun, die wesentlichen Eigenschaften der<br />

Diskriminationsfunktion des individuellen Patienten zu erfassen, d. h. die<br />

Verständlichkeitsschwelle (der zu 50 % Sprachverständlichkeit gehörende<br />

Sprachpegel), die Steigung der Diskriminationsfunktion und den<br />

Diskriminationsverlust bzw. das Vorliegen einer R-Kurve. In der Routine-Audiometrie<br />

wird daher <strong>für</strong> die einsilbigen Wörter des Freiburger Sprachtest die<br />

Sprachverständlichkeit bei 65 dB bestimmt und bei um jeweils 15 dB erhöhtem<br />

Sprachpegel bis entweder die Erkennungsrate 100 % erreicht wird oder die<br />

Unbehaglichkeits-Schwelle überschritten wird. Daraus ergibt sich die<br />

Diskriminationsfähigkeit bei 65 dB (in %), der Pegel bei dem die höchste<br />

Erkennungsrate erzielt wird (dB Opt.), die Differenz zu 100 % bei diesem Pegel<br />

(Diskriminationsverlust in Prozent) und die Gesamtwortverständlichkeit (GWV in %),<br />

die sich aus der Summe der Erkennungsraten in Prozent bei 60, 80 und 100 dB ergibt.<br />

Bei den mehrsilbigen Zahlwörtern des Freiburger Tests wird die Erkennungsrate <strong>für</strong><br />

einen oder zwei verschiedene Pegel bestimmt. Unter Berücksichtigung der Steigung der<br />

Diskriminations-Normkurve <strong>für</strong> Normalhörende wird anschließend durch Interpolation<br />

derjenige Pegel bestimmt, bei dem 50 % der Zahlen verstanden werden. Die Differenz<br />

zu dem Wert <strong>für</strong> Normalhörende wird als Hörverlust (HV) <strong>für</strong> Zahlwörter in dB<br />

angegeben. Neuere sprachaudiometrische Testverfahren ermitteln die<br />

Sprachverständlichkeitsschwelle, den Diskriminationsverlust und die Steigung der<br />

Diskriminationsfunktion durch adaptive Messungen, bei denen der Sprachpegel in<br />

Abhängigkeit von den Antworten des Probanden variiert wird. Dadurch wird mit wenigen<br />

Versuchsschritten der Pegel maximalen Sprachverstehens ermittelt und anschließend<br />

die Sprachverständlichkeitsschwelle. Durch das Anpassen einer Diskriminationsfunktion<br />

an die Antworten des Probanden läßt sich anschließend die Steigung der<br />

Diskriminationsfunktion angeben. Diese Verfahren werden vom Computer gesteuert<br />

bzw. ausgewertet, so daß sie bei zunehmender Verbreitung der computergesteuerten<br />

Audiometrie zunehmende Bedeutung <strong>für</strong> die Praxis gewinnen werden (vgl. Kollmeier,<br />

1996).<br />

Bei der Sprachaudiometrie unter Störgeräusch interessiert vorwiegend die<br />

Sprachverständlichkeits-Schwelle, d. h. derjenige Signal-Rauschabstand (Sprachpegel<br />

in Relation zum Störgeräuschpegel), bei dem eine Sprachverständlichkeit von 50 %<br />

erzielt werden kann. Dieser Wert ist bei sensorineural Schwerhörenden in der Regel<br />

deutlich erhöht gegenüber Normalhörenden und Schalleitungs-Schwerhörigen. Dies ist<br />

ebenfalls Ausdruck der „Verzerrungswirkung“ des Hörverlusts und entspricht den<br />

Beschwerden der Schwerhörenden, daß sie unter Umgebungsgeräusch mehr<br />

Schwierigkeiten haben, einer Unterhaltung zu folgen, als in Ruhe („Cocktail-Party-Effekt“<br />

oder <strong>Gesellschaft</strong>sschwerhörigkeit). Da bei zusammenhängenden Sprachmaterialien<br />

wie einer Unterhaltung oder Sätzen eine Zunahme der Sprachverständlichkeit um etwa<br />

20 % pro Verbesserung des Signal-Rauschabstands um 1 dB erfolgt, ist eine hohe<br />

Meßgenauigkeit zur Erfassung dieser Komponente des Hörverlusts notwendig. Einen<br />

besonders großen Unterschied in der Sprachverständlichkeitsschwelle zwischen<br />

Normal- und Innenohrschwerhörigen beobachtet man bei der Verwendung von<br />

89


fluktuierenden Störgeräuschen, welche zeitliche Einhüllenden-Schwankungen in<br />

ähnlicher Weise aufweisen, wie ein einzelner, störender Sprecher (Fastl, 1987).<br />

Während Normalhörende in den „Lücken“ des Störgeräuschs noch einen Teil der<br />

Sprache gut verstehen können und daher durch ein derartig fluktuierendes Störgeräusch<br />

relativ wenig gestört sind, ist bei Innenohrschwerhörigen diese Fähigkeit stark gestört.<br />

Ein weiteres Handicap beim Sprachverstehen im Störgeräusch haben<br />

Innenohrschwerhörende gegenüber Normalhörenden in räumlichen Nutzschall-<br />

Störschallsituationen. Während Normalhörende sowohl durch monaurale Verarbeitung<br />

als auch durch binaurale Signalverarbeitung (d. h. durch den Vergleich zwischen den an<br />

beiden Ohren jeweils anliegenden Signalen) eine gewisse Störgeräuschunterdrückung<br />

durchführen können und sich auf den Nutzsprecher konzentrieren können, ist dieser<br />

Effekt bei Schwerhörenden in sehr unterschiedlichem Maße gestört.<br />

Literatur.<br />

Blauert, J. (1983): Spatial Hearing: The psychophysics of human sound localization, (Cambridge,<br />

Massachussets, MIT Press).<br />

Böhme, G., Welzl-Müller, K.: Audiometrie - Hörprüfungen im Erwachsenen- und Kindesalter. Huber, Berlin<br />

1993.<br />

Dau, T., Kollmeier, B., Kohlrausch, A. (1996). Modeling modulation perception: modulation low-pass filter<br />

or modulation filterbank. In: B. Kollmeier (Ed.),Psychoacoustics, Speech and Hearing Aids.<br />

World Scientific, Singapur, pp. 45-48.<br />

Durlach, N.I. (1972). Binaural signal detection: Equalization and cancellation theory. In: J.V. Tobias (Ed.)<br />

Foundations of Modern Auditory Theory, Academic Press, New York, Vol. 2, 363-462.<br />

Fastl, H. (1987). Ein Störgeräusch <strong>für</strong> die Sprachaudiometrie. Audiologische Akustik 26, 2-13.<br />

Festen, J.M. (1996): Temporal resolution and the importance of temporal envelope cues for speech<br />

perception. In: B. Kollmeier (Ed.), Psychoacoustics, Speech and Hearing Aids. World<br />

Scientific, Singapur, pp.95-102.<br />

Gelfand, S.A.: Hearing, an Introduction. M. Deccer, 1990.<br />

Hellbrück, J.: Hören - Physiologie, Psychologie und Pathologie. Hogrefe Verlag, Göttingen 1993.<br />

Heller, O. (1985): Hörfeldaudiometrie mit dem Verfahren der Kategorienunterteilung (KU). Psychologische<br />

Beiträge 27, 478-493.<br />

Helmholtz, H.L.F.: Die Lehre von den Tonempfindungen als physiologische Grundlage <strong>für</strong> die Theorie der<br />

Musik, Vieweg, Braunschweig, 1863.<br />

Hohmann, V. (1993). Dynamikkompression <strong>für</strong> Hörgeräte - Psychoakustische Grundlagen und<br />

Algorithmen. Fortschritt-Berichte VDI, Reihe 17 Nr. 93, Düsseldorf. Zugl.: Dissertation,<br />

<strong>Universität</strong> Göttingen.<br />

Hohmann, V., Kollmeier, B. (1995). Weiterentwicklung und klinischer Einsatz der Hörfeldskalierung.<br />

Audiol. Akustik 34 (2), 48-59.<br />

Holube, I., Kollmeier, B. (1996). Speech intelligibility prediction in hearing-impaired listeners based on a<br />

psychoacoustically motivated perception model. J. Acoust. Soc. Am. (im Druck)<br />

Houtgast, T., Steeneken, H.J.M. (1973). The modulation transfer function in room acoustics as a predictor<br />

of speech intelligibility. Acustica 28, 66-73.<br />

Jakobsen, R., Halle, M., Fant, G. (1951). Preliminaries to Speech Analysis: The distinctive Features and<br />

their Correlate. MIT Press, Cambridge, MA.<br />

Jeffress, L.A. (1948): A place theory of sound localization. J. Comp. Physiol. Psych. 61, 468-486.<br />

Kießling, J. (1995). Zum überschwelligen Lautheitsanstieg bei Schallempfindungsschwerhörigen -<br />

Konsequenzen <strong>für</strong> die Hörgeräte-Entwicklung und - Anpassung. Audiol. Akustik 34 (2), 82-<br />

89.<br />

Kießling, J., Kollmeier, B. Diller, G. Versorgung und Rehabilitation mit Hörgeräten. Thieme-Verlag<br />

Launer, S., Hohmann, V., Kollmeier, B. (1996). Modeling loudness growth and loudness summation in<br />

hearing-impaired listeners. In: W.<br />

Jestaedt (Ed.), Modeling Sensorineural Hearing Loss. Lawrence Erlbaum & Assoc., Hillsdale, NJ (im<br />

Druck).<br />

90


Kollmeier, B. (1990): Meßmethodik, Modellierung und<br />

Verbesserung der Verständlichkeit von Sprache. Habilitationsschrift, <strong>Universität</strong> Göttingen.<br />

Kollmeier, B. (Ed.): Moderne Verfahren der Sprachaudiometrie. Median-Verlag, Heidelberg, 1992<br />

Kollmeier, B. (1996): Computer-controlled speech audiometric techniques for the assessment of hearing<br />

loss and the evaluation of hearing aids. In: B. Kollmeier (Ed.), Psychoacoustics, Speech and<br />

Hearing Aids. World Scientific, Singapur, pp.57-68.<br />

Kollmeier, B.(2001)Die <strong>Oldenburg</strong>er Hörforschung. Einblicke - Forschungsmagazin der Carl von<br />

Ossietzky <strong>Universität</strong> <strong>Oldenburg</strong>, 33, p. 3-6.<br />

Kollmeier, B.: Skript zur Vorlesung “Physiologische, psychologische und audiologische Akustik,<br />

<strong>Universität</strong> <strong>Oldenburg</strong> http://www.physik.unioldenburg.de/Docs/medi/html/teaching_download.html.<br />

Kollmeier, B. (2002) Cocktail-Partys und Hörgeräte: Biophysik des Gehörs. Physik Journal, 4, p. 39-45<br />

Moore, B.C.J.: An Introduction to the Psychology of Hearing, Academic Press, New York, 1989.<br />

Moore, B.C.J.: Perceptual Consequences of Cochlear Damage. Oxford University Press, Oxford 1995.<br />

Moore, B.C.J., Glasberg, B.R. (1987). Formulae describing frequency selectivity in the perception of<br />

loudness and level and their use in calculating excitation patterns. Hear. Res. 28, 209-225.<br />

Pickles, J.A.: Hearing, an Introduction to the Physiology of Hearing, Academic Press 1982.<br />

Poulton, E.C. (1989). Bias in Quantifying Judgements. Lawrence Erlbaum Assoc., Hillsdale, N.J.<br />

Rayleigh, Lord. Theory of Sound. London, Macmillan & Co. Ltd., 1877, Nachdruck 1929.<br />

Stevens, S.S. (1957). On the psychphysical law. Psychol. Rev. 64, 153 - 181.<br />

Zwicker, E., Fastl, H. Psychoacoustics - Facts and Models. Springer Verlag, Berlin 1990.<br />

91


Hördiagnostik <strong>für</strong> die rehabilitative <strong>Audiologie</strong><br />

Birger Kollmeier / <strong>Oldenburg</strong><br />

Der folgende Beitrag soll einen kurzen Einblick in den Entwicklungsstand neuer<br />

audiologischer Messverfahren als Ausgangsbasis <strong>für</strong> eine Hörgeräte-Versorgung aus<br />

der Sicht des Autors vermitteln. Dabei wird kein Anspruch auf Vollständigkeit oder<br />

Ausgewogenheit des präsentierten Materials erhoben, da dies in Lehrbüchern der<br />

<strong>Audiologie</strong> (z. B. Laszig, 2000, Kießling et al., 2008, Böhme u. Welzl-Müller, 1998) in<br />

weitaus besserem Maß bereits existiert.<br />

Einen Überblick über das Spektrum der in der <strong>Audiologie</strong> eingesetzten Verfahren gibt<br />

Abbildung 1. Ebenfalls angemerkt sind Neu- bzw. Weiterentwicklung von Verfahren,<br />

die in der Arbeitsgruppe des Autors entwickelt worden sind und zum Teil soweit<br />

ausgereift sind, daß sie den Sprung von der Grundlagenforschung in die klinischaudiologische<br />

Diagnostik und HNO-ärztliche Praxis bzw. Anwendung in der<br />

Hörgeräte-Anpassung in Kürze vollziehen können. Diese Verfahren sollen kurz<br />

vorgestellt werden.<br />

Niedrigpegel-Reflexaudiometrie<br />

Chirp-evozierte TEOAE<br />

<strong>Oldenburg</strong>er HF-skalierung<br />

Chirp-evozierte BERA<br />

WaKo-Test, Göttinger Satztest<br />

<strong>Oldenburg</strong>er Satztest,<br />

<strong>Oldenburg</strong>er Kinder-Reimtest<br />

Räumlicher Sprachtest<br />

(BIRD)<br />

Abbildung 1: Funktionelle Gliederung des Gehörsystems mit Funktionen und möglichen Störungen<br />

(aus Kollmeier, 1997). Zusätzlich angegeben sind die neueren audiologischen Testverfahren, die in<br />

der Arbeitsgruppe des Autors <strong>für</strong> die praktische Anwendbarkeit entwickelt wurden.<br />

<strong>Oldenburg</strong>er Hörflächenskalierung<br />

Physiologische Erkenntnisse der letzten 10 Jahre weisen auf einen schnellen,<br />

aktiven Verstärkungsmechanismus in der Cochlea hin, der zu einer Dynamik-<br />

Kompression der die Basilarmembran anregenden Signale im auditorischen System<br />

führt. Ein Ausfall dieser „aktiven Prozesse“ führt zu einem Wegfall der Kompressions-<br />

Wirkung auf der Ebene der Cochlea („Kompressionsverlust“) und damit zu dem als<br />

„Recruitment“ bezeichneten Phänomen des pathologischen Lautheitsanstiegs.<br />

Dieser Kompressionsverlust ist (vorwiegend) durch die Schädigung äußerer<br />

Haarzellen bedingt und ist weitgehend unabhängig vom Sensitivitätsverlust<br />

(vorwiegend durch Schädigung der inneren Haarzellen und teilweise durch<br />

93


Schädigung der äußeren Haarzellen bedingt), da Patienten mit gleichem<br />

Audiogramm (d. h. gleichem Sensitivitätsverlust) ein sehr stark unterschiedliches<br />

überschwelliges Lautheitsempfinden aufweisen können (Launer et al., 1996, Kießling<br />

et al., 1995). Daher ist es sinnvoll und notwendig, den Kompressionsverlust<br />

zusätzlich zu dem Sensitivitätsverlust auszumessen. Als einfache und robuste<br />

klinische Meßmethode bietet sich die kategoriale Lautheitsskalierung an, die in Form<br />

der „<strong>Oldenburg</strong>er Hörflächenskalierung“ optimiert wurde (Kollmeier, 1997). Wichtige<br />

Merkmale dieses Verfahrens sind:<br />

• 10+1 Kategorien, d. h. 5 verbale Hauptkategorien „sehr leise, leise, mittellaut,<br />

laut, sehr laut“ plus vier Zwischenstufen und den zwei Begrenzungskategorien<br />

„unhörbar“ und „zu laut“.<br />

• Terzbandrauschen von 2 sec Länge als Stimulus.<br />

• Dynamikbereich der angebotenen Stimuli entweder in einer Vormessung<br />

individuell angepaßt oder in einem adaptiven Verfahren zu Beginn der Messung<br />

so aufgespannt, daß der gesamte Hör-Dynamikbereich des individuellen<br />

Patienten tatsächlich abgetastet wird (Brand et al. 1997).<br />

• Die Form der Lautheitsfunktion ist abhängig von der Bandbreite des Stimulus<br />

(Brand, 1999).<br />

• Als Zielfunktion wird eine aus 2 Geradenstücken zusammengesetzte Funktion<br />

gewählt, die in der Mitte durch einen Bezier-Fit geglättet ist (Brand, 1999). Diese<br />

Zielfunktion weist von allen möglichen Funktionen die geringste Abweichung von<br />

den Daten über einen weiten Pegelbereich und die gewünschte Flexibilität der<br />

Form bei nicht zu großer Parameterzahl auf.<br />

Dieses als ACALOS (adaptive categorical loudness scaling) bezeichnete Verfahren<br />

wurde inzwischen vom EU-Projekt Hearcom als Vorschlag <strong>für</strong> die Europäische<br />

Harmonisierung audiologischer Meßverfahren in das empfohlene Inventar<br />

aufgenommen (weitere Informationen unter www.hearcom.eu).<br />

Neue Verfahren der Sprachaudiometrie<br />

Aufgrund der einhelligen Kritik an der in der deutschsprachigen Routine-Audiometrie<br />

benutzten sprachaudiometrischen Verfahren (z. B. mögliche Manipulierbarkeit des<br />

Freiburger Sprachtests aufgrund starker Listenunterschiede, Vorkommen<br />

ungebräuchlicher Wörter, Verwendung des Einsilbers als im <strong>Deutsche</strong>n relativ<br />

ungebräuchliche Wortform) und aufgrund der hohen Nachfrage nach entsprechend<br />

zuverlässigen und aussagefähigen Sprachtests wurde eine Reihe von<br />

Sprachtestverfahren in der Arbeitsgruppe des Autors entwickelt und z. T. <strong>für</strong> den<br />

praktischen Einsatz vorbereitet. Einen Überblick über die im deutschen Sprachraum<br />

<strong>für</strong> die Sprachaudiometrie anwendbaren Verfahren gibt Tabelle 1.<br />

94


Tabelle 1: Überblick über die verschiedenen Sprachtest-Materialien <strong>für</strong> die deutsche<br />

Sprache, geordnet nach der Länge der Test-Items. Die verschiedenen Hintergrundfarben<br />

geben den Einsatzbereich wieder, der durch entsprechende Publikationen belegt wurde: weiß:<br />

Verwendung in Ruhe, hellgelb: Verwendung im Störschall, dunkelgelb: Verwendung in Ruhe<br />

und im Störschall.<br />

Die Testverfahren unterscheiden sich nicht nur in der Länge der jeweiligen Test-<br />

Items, sondern auch in ihrem intendierten und validierten Verwendungszweck: Für<br />

die Verwendung mit Kindern wurde beispielsweise neben dem in Ruhe<br />

anzuwendenden Mainzer und Göttinger Kinder-Sprachtest der <strong>Oldenburg</strong>er Kinder-<br />

Reimtest (OLKI, Einsatzgebiet im Störschall und in Ruhe) konzipiert. Für die<br />

Verwendung mit Cochlea-Implantat-Nutzern sieht der HSM-Satztest eine besonders<br />

geringe Sprechgeschwindigkeit vor. Während die älteren Sprachverständlichkeits-<br />

Tests (z. B. der Freiburger-Einsilber-Test) primär <strong>für</strong> den Einsatz in Ruhe konzipiert<br />

und validiert wurden, ist die Mehrzahl der in Tab. 1. aufgeführten jüngeren<br />

Testverfahren <strong>für</strong> den Einsatz unter Störschall konzipiert. Einige der moderneren<br />

Testverfahren wurden zusätzlich <strong>für</strong> den Einsatz in Ruhe validiert (Einsilber-Reimtest,<br />

verkürzter Reimtest, <strong>Oldenburg</strong>er Kinder-Reimtest, Göttinger Satztest und<br />

<strong>Oldenburg</strong>er Satztest). Sie weisen <strong>für</strong> den Einsatz in Ruhe keine signifikant andere<br />

Steigerung der Diskriminationsfunktion und keine signifikant größeren Listen-<br />

Unterschiede auf als <strong>für</strong> den Einsatz in Störschall. Sinnbehaftete Testmaterialien<br />

(insbesondere Sätze wie vom Göttinger Satztest oder HSM-Satztest) besitzen den<br />

Nachteil, dass sie nach einmaligem Gebrauch <strong>für</strong> einen bestimmten Patienten<br />

längere Zeit nicht wieder verwendet werden können, um einen Wiedererkennungs-<br />

95


Effekt des gesamten Satzes anhand eines einzelnen Wortteils auszuschließen. Dies<br />

wird beim <strong>Oldenburg</strong>er Satztest ausgeschlossen: Eine (scheinbar) zufällige<br />

Kombination aus Name, Verb, Zahlwort, Adjektiv und Objekt (z. B. “Peter kauft 17<br />

nasse Sessel“) mit jeweils 10 Alternativen pro Wort erschwert die Wiedererkennung<br />

des spezifischen Satzes, so daß dieses Material beliebig häufig eingesetzt werden<br />

kann. Aufgrund der Kompatibilität dieses Verfahrens mit entsprechenden Tests in<br />

anderen Sprachen wird zudem eine Länder-übergreifende Normierung von<br />

Sprachverständlichkeits-Tests möglich (vgl. Kollmeier, 2007).<br />

• Einsilber-Reimtest nach von Wallenberg und Kollmeier (WAKO-Test)<br />

Aufbauend auf dem Einsilber-Reimtest nach Sotscheck (1982) wurde eine <strong>für</strong> die<br />

<strong>Audiologie</strong> verwendbare Version mit phonetischen Minimalpaaren,<br />

gebräuchlichen Wörtern und aufgrund umfangreicher Validierungsmessungen als<br />

äquivalent anzusehenden Testlisten zusammengestellt (von Wallenberg und<br />

Kollmeier, 1989, Müller, 1992, Kollmeier et al., 1992). Dieses Testverfahren<br />

besitzt eine Reihe von Vorteilen gegenüber dem Freiburger Einsilbertest (z. B.<br />

Ankündigungssatz, geschlossene Wortauswahl, Analysierbarkeit von<br />

Phonemverwechselungen, hohe Homogenität des Testmaterials). Es konnte sich<br />

bisher aufgrund der notwendigen technischen Voraussetzungen<br />

(Computersteuerung zur Darstellung der Reim-Alternativen, Länge der Testlisten)<br />

nicht in der audiologischen Praxis durchsetzen. Da dieses Verfahren jedoch ein<br />

hohes Potential hat, sollten in Zukunft verkürzte Listen <strong>für</strong> den praktischen<br />

Einsatz in der <strong>Audiologie</strong> zusammengestellt werden.<br />

• Zweisilber-Reimtest nach Kliem und Kollmeier (1994)<br />

Dieses Verfahren bietet sich aufgrund der größeren Häufigkeit von Zweisilbern als<br />

Einsilbern in der deutschen Sprache ebenfalls als Standard-Verfahren an. Sein<br />

praktischer Einsatz scheiterte jedoch bisher an der Länge der Testlisten und des<br />

relativ hohen technischen Aufwandes/geringen Verfügbarkeit von apparativen<br />

Voraussetzungen zur Durchführung des Tests. Im Zuge der voranschreitenden<br />

Automatisierung der Audiometrie sollte jedoch auch dieser Test zukünftig Einzug<br />

in die Praxis finden.<br />

• Göttinger Satztest<br />

Der von Wesselkamp et al. (1992) und Kollmeier und Wesselkamp (1997)<br />

vorgestellte Göttinger Satztest enthält 20 Listen von je 10 kurzen, sinnvollen<br />

Sätzen. Das Testmaterial ist hinsichtlich der Homogenität zwischen den Sätzen<br />

und zwischen den Testlisten ebenso ptimiert wie bezüglich der Anzahl der Wörter<br />

und Silben in jeder Testliste und der ungefähren phonetischen Äquivalenz der<br />

Testlisten. Das Verfahren hat in Form des BIRD-Sprachtest (Firma Starkey,<br />

Norderstedt) weite Verbreitung und Akzeptanz gefunden, insbesondere zur<br />

Überprüfung von Hörgeräte-Anpassungen und zur Durchführung der<br />

Sprachaudiometrie unter Störgeräuschen. Ein Nachteil sind jedoch die begrenzte<br />

Zahl von verfügbaren Listen und die schlechte Wiederholbarkeit des Tests mit<br />

derselben Versuchsperson, da die Testsätze leicht gemerkt werden können. Dies<br />

motivierte die Entwicklung des <strong>Oldenburg</strong>er Satztests (s. u.).<br />

• <strong>Oldenburg</strong>er Satztest:<br />

Dieser Test wurde in Anlehnung an den schwedischen Satztest nach Hagermann<br />

(1984) konstruiert und bietet sich als ein Kandidat <strong>für</strong> die europäische<br />

Harmonisierung von Satztestverfahren an, da eine Übertragbarkeit in andere<br />

Sprachen verhältnismäßig leicht gegeben ist. Der von Wagener et al. (1998,<br />

1999) vorgestellte <strong>Oldenburg</strong>er Satztest benutzt als Inventar 5 mal 10<br />

verschiedene Wörter, die jeweils in einem pseudozufällig zusammengestellten<br />

96


sinnleeren Satz der Form „Name-Verb-Zahlwort-Eigenschaft-Objekt“ angeordnet<br />

sind (z. B. Nina bekommt vier rote Blumen (vgl. Abb. 2)).<br />

Peter bekommt drei große Blumen.<br />

Kerstin sieht neun kleine Tassen.<br />

Tanja kauft sieben alte Autos.<br />

Ulrich gibt acht nasse Bilder.<br />

Britta schenkt vier schwere Dosen.<br />

Wolfgang verleiht fünf grüne Sessel.<br />

Stefan hat zwei teure Messer.<br />

Thomas gewann achtzehn schöne Schuhe.<br />

Doris nahm zwölf rote Steine.<br />

Nina malt elf weiße Ringe.<br />

Abbildung 2: Testwortinventar und Konstruktionsprinzip des <strong>Oldenburg</strong>er Satztests nach Wagener et<br />

al. (1998, 1999).<br />

Bei der Aufsprache und der Resynthese wurde auf eine hohe Natürlichkeit der<br />

zusammengesetzten Sätze geachtet. Außerdem wurden die resultierenden<br />

Testsätze so zusammengestellt, daß eine möglichst hohe Homogenität zwischen<br />

den Testsätzen und den Testlisten resultiert (Wagener et al. 1999). Die einzelnen<br />

Testlisten weichen in ihrer mittleren Schwelle sehr gering voneinander ab<br />

(empirische Standardabweichung von 0,16 dB). Bei den Messungen zur<br />

Evaluierung des Satztests, die unabhängig von den Messungen zur<br />

Erstkonstruktion des Tests waren, ergab sich eine mittlere Schwelle (Signal-<br />

Rauschabstand <strong>für</strong> 50 % Verständlichkeit der Sätze) von minus 7,1dB und eine<br />

mittlere Steigung von 17,1 %/dB. Während diese mittlere Steigung aufgrund der<br />

Testkonstruktion erwartet wurde (Erwartungswert 17,2 % pro dB), ist die bei den<br />

Evaluationsmessungen ermittelte Schwelle um 1,3 dB höher als aufgrund der<br />

Testkonstruktion (Messungen mit trainierten Versuchspersonen) erwartet wurde.<br />

Dies ist auf den Trainingseffekt zurückzuführen: Wagener et al. (2000) konnten<br />

nachweisen, daß sich im Laufe der ersten 30 Testsätze bei naiven<br />

Versuchspersonen die Schwelle um bis zu 2 dB im Signal-Rauschabstand nach<br />

unten verschieben kann. Dieser Trainingseffekt fällt allerdings geringer aus,<br />

wenn der Sprachpegel festgehalten wird und der Störgeräuschpegel variiert wird<br />

(im Gegensatz zu dem <strong>für</strong> die Evaluationsmessungen angenommenen Prinzip).<br />

Ein derartiges Vorgehen wurde auch von Hagermann (1984) vorgeschlagen.<br />

Für die praktische Durchführung des <strong>Oldenburg</strong>er Satztests wurde eine manuelle<br />

Version erstellt, die vom Hörzentrum <strong>Oldenburg</strong> vertrieben wird. Die apparative<br />

Voraussetzung ist ein Audiometer mit CD-Spieler und einer Schrittweite von 1 dB.<br />

Bei dem manuellen adaptiven Verfahren wird je nach Anzahl der pro Satz richtig<br />

erkannten Wörter der Signal-Rauschabstand verändert. Bei der Verwendung von<br />

30 Testsätzen ist damit eine Genauigkeit von 0,5 dB erreichbar, so daß<br />

Schwellenunterschiede von 2 dB sicher nachgewiesen werden können. Damit ist<br />

z. B. der Nachweis eines binauralen Gewinns bei der beidohrigen<br />

Hörgeräteversorgung leicht nachzuweisen.<br />

97


• <strong>Oldenburg</strong>er Kinder-Reimtest<br />

Kliem und Kollmeier (1995) entwickelten ein Zweisilber-Reimtestverfahren mit<br />

Wörtern, die <strong>für</strong> den Einsatz von Vorschul- und Schulkindern geeignet sind. Für<br />

dieses Wortmaterial wurden von Achtzehn et al. (1997) Bildkarten entwickelt, in<br />

denen die jeweils 3 sich „reimenden“ Antwortalternativen kindgerecht bildlich<br />

dargestellt sind (Abbildung 3).<br />

Anlaut Konsonant Inlaut Konsonsant Inlaut Vokal<br />

Beule - Keule - Eule Tanne - Tasse - Tasche Brote - brüte - brate<br />

Abbildung 3: Beispiele <strong>für</strong> die Antwortkarten des <strong>Oldenburg</strong>er Kinder-Reimtest nach Achtzehn et al.<br />

(1997).<br />

Ferner wurden Evaluationsmessungen mit Vorschul- und Schulkindern<br />

durchgeführt, bei denen die Gebräuchlichkeit der verwendeten Testwörter und die<br />

Verwendbarkeit der entwickelten Bildkarten ebenso getestet wurde, wie die<br />

Sprachverständlichkeitsschwelle <strong>für</strong> die einzelnen Wörter im Rahmen des<br />

Meßverfahrens. Aufgrund dieser Evaluations-Messungen konnten 10<br />

gleichwertige Testlisten zu jeweils 12 Wörtern zusammengestellt werden, <strong>für</strong> die<br />

die 50%-Verständlichkeitsschwelle in Ruhe bei 23 dB SPL liegt (Brand et al.,<br />

1999). Die Steigung der Diskriminationsfunktion ist mit 6 % pro dB vergleichbar<br />

mit derjenigen des Freiburger Sprachtests, so daß sich der <strong>Oldenburg</strong>er<br />

Kinderreimtest <strong>für</strong> die Sprachaudiometrie in Ruhe bei Kindern ähnlich einsetzen<br />

läßt wie der Freiburger Sprachtest bei Erwachsenen (Brand et al., 1999). Eine <strong>für</strong><br />

die Praxis anwendbare, manuelle Version mit dem Bildkartenmaterial ist beim<br />

Hörzentrum <strong>Oldenburg</strong> erhältlich.<br />

Räumliche Sprachtests<br />

Zur Abschätzung des Vorteils binauralens (beidohrigen) Hörens gegenüber dem<br />

monauralen Hören und speziell zur Überprüfung des Versorgungsgewinns durch<br />

eine beidseitige Hörgeräte-Versorgung bietet sich die Durchführung von räumlichen<br />

Sprachtests an, bei denen der Nutzsprecher und der Störschall aus verschiedenen<br />

räumlichen Richtungen dem Patienten angeboten werden. Für den klinischen Alltag<br />

bietet sich dabei die in Abbildung 4 dargestellte räumliche Position an, die in<br />

98


Verbindung mit jedem Sprachverständlichkeitstest unter Störgeräusch (z. B.<br />

<strong>Oldenburg</strong>er Satztest) benutzt werden kann.<br />

Abbildung 4: Räumliche Anordnung <strong>für</strong> den räumlichen Sprachtest. Die obere Situation gibt die<br />

Bestimmung der ILD (Intelligibility Level Difference) an, die untere Situation die Ermittlung der Binaural<br />

Intelligibility Level Difference (BILD).<br />

Zunächst wird in der Referenz-Situation S0 N0 (d. h. Sprache und Störsignal von<br />

vorne) die Sprachverständlichkeitsschwelle (Speech Reception Threshold, SRT)<br />

gemessen. Sie ist ein Maß <strong>für</strong> mögliche Einschränkungen des Sprachverstehens in<br />

Rauschen ohne räumlichen Detektionsvorteil. Im Vergleich dazu wird die<br />

Sprachverständlichkeitsschwelle bei seitlichem Einfall des Störgeräuschs (Situation<br />

S0N90 bzw. S0N270) gemessen. Die Differenz beider<br />

Sprachverständlichkeitsschwellen gibt die ILD (Intelligibility Level Difference) an, d. h.<br />

den räumlichen Vorteil bei der Sprachverständlichkeit, der sowohl aus einem<br />

monauralen Anteil (Kopfabschattungseffekt, d. h. besseres Signalrauschverhältnis an<br />

dem der Störquelle abgewandten Ohr) und einem binauralen Anteil (bessere<br />

Diskrimination durch Vergleich der Ohrsignale auf zentralem Niveau)<br />

zusammengesetzt ist. Um den binauralen Anteil getrennt vom monauralen Anteil zu<br />

bestimmen, wird in der zuletzt genannten Situation zusätzlich die Situation bei<br />

Verstöpselung/Vertäubung des „schlechteren“ Ohres (d. h. der Störschallquelle<br />

zugewandten Ohres) ausgemessen. Der Unterschied zwischen der monauralen und<br />

der binauralen Situation wird als Binaural Intelligibility Level Difference (BILD)<br />

bezeichnet. Abb. 5 gibt <strong>für</strong> verschiedene Versuchspersonengruppen die gemittelten<br />

Werte <strong>für</strong> ILD und BILD wieder (aus Kollmeier et al., 1999). Obwohl tendenziell mit<br />

zunehmendem Hörverlust und mit zunehmender Asymmetrie des Hörverlusts die<br />

binaurale Leistungsfähigkeit abnimmt, läßt sich <strong>für</strong> den individuellen Patienten<br />

generell keine Vorhersage des binauralen Gewinns aus dem Audiogramm oder<br />

anderen audiologischen Parametern ableiten (vgl. Kinkel et al., 1992). Daher ist die<br />

binaurale Leistungsfähigkeit als unabhängige Komponente anzusehen, die separat<br />

ausgemessen werden sollte.<br />

99


Abbildung 5: ILD (Kreise) und BILD (Quadrate) <strong>für</strong> unterschiedliche Probandengruppen.<br />

Literatur<br />

Achtzehn, J., V. Kühnel, B. Kollmeier and R. Schönfeld (1997). Zur Entwicklung eines<br />

Zweisilber-Kinder-Reimtests <strong>für</strong> die <strong>Audiologie</strong>. Aktuelle phoniatrischpädaudiologische<br />

Aspekte. M.Gross (Ed.). Heidelberg, median verlag. 5.<br />

Böhme, G., Welzl-Müller, K. (1998). Audiometrie. Hörprüfungen im Erwachsenen-<br />

und Kindesalter. Bern, Verlag Hans Huber.<br />

Brand, T., V. Hohmann and B. Kollmeier (1997). Adaptive categorical loudness<br />

scaling. Seventh <strong>Oldenburg</strong> Symposium on Psychological Acoustics. A. Schick<br />

and M. Klatte. <strong>Oldenburg</strong>, BIS, <strong>Universität</strong> <strong>Oldenburg</strong>. 7: 603-610.<br />

Brand, T. (1999). Analysis and Optimization of Psychophysical Procedures in<br />

Audiology. Dissertation FB Physik, <strong>Oldenburg</strong>, <strong>Universität</strong> <strong>Oldenburg</strong>.<br />

Brand, T., J. Achtzehn and B. Kollmeier (1999). Erstellung von Testlisten <strong>für</strong> den<br />

<strong>Oldenburg</strong>er Kinder-Reimtest. Z.f. <strong>Audiologie</strong> Supplement II. K. Schorn (Ed.).<br />

Heidelberg, median verlag: 50-51.<br />

Dau, T., O. Wegner, V. Mellert and B. Kollmeier (2000). “Auditory brainstem<br />

responses (ABR) with optimized chirp signals compensating basilar-membrane<br />

dispersion.” J. Acoustical Soc. Am. 107(3): 1530-1540.<br />

Grätz, K., M. Mauermann, R. Schönfeld and B. Kollmeier (1999). Niedrigpegel-<br />

Reflexaudiometrie - eine neue Methode zur Messung des Stapediusreflexes.<br />

100


Zeitschrift <strong>für</strong> <strong>Audiologie</strong>, Suppl. 2. K. Schorn (Ed.). Heidelberg, median-Verlag:<br />

125-126.<br />

Hagerman, B. (1984). “Clinical measurements of speech reception threshold in<br />

noise.” Scand-Audiol 13(1): 57-63.<br />

Kemp, D. T. (1978). “Stimulated acoustic emissions from within the human auditory<br />

system.” J. Acoust. Soc. Am. 64: 1386-1391.<br />

Kießling, J. (1995). “Zum überschwelligen Lautheitsanstieg bei<br />

Schallempfindungsschwerhörigen -- Konsequenzen <strong>für</strong> die Hörgeräte--<br />

Entwicklung und --Anpassung.” Audiologische Akustik(2): 82--89.<br />

Kießling, J., B. Kollmeier and G. Diller (2008). Versorgung und Rehabilitation mit<br />

Hörgeräten. Stuttgart, Georg Thieme Verlag, 2. Aufl..<br />

Kinkel, M. and B. Kollmeier (1992). “Binaurales Hören bei Normal- und<br />

Schwerhörigen II: Analyse der Ergebnisse.” Audiologische Akustik 31: 22-33.<br />

Kliem, K. and B. Kollmeier (1994). “Entwicklung und Evaluation eines Zweisilber-<br />

Reimtestverfahrens <strong>für</strong> die deutsche Sprachaudiometrie.” Audiologische Akustik<br />

33: 4-15.<br />

Kliem, K. and B. Kollmeier (1995). “Überlegungen zur Entwicklung eines Zweisilber-<br />

Kinder-Reimtests <strong>für</strong> die klinische <strong>Audiologie</strong>.” Audiol.Akustik 34: 6-11.<br />

Kollmeier, B., M. C., M. Wesselkamp and K. Kliem (1992). Weiterentwicklung des<br />

Reimtests nach Sotscheck. Moderne Verfahren der Sprachaudiometrie. B.<br />

Kollmeier (Ed.). Heidelberg, Median-Verlag: 216-237.<br />

Kollmeier, B. (1997). Grundlagen. Versorgung und Rehabilitation mit Hörgeräten. J.<br />

Kießling, B. Kollmeier and G. Diller (Ed.). Stuttgart, Georg Thieme Verlag: 1-48.<br />

Kollmeier, B., Ed. (1997). Hörflächenskalierung - Grundlagen und Anwendung der<br />

kategorialen Lautheitsskalierung <strong>für</strong> Hördiagnostik und Hörgeräteversorgung.<br />

Buchreihe Audiologische Akustik. Heidelberg, Median-Verlag.<br />

Kollmeier, B. and M. Wesselkamp (1997). “Development and Evaluation of a German<br />

Sentence Test for objective and subjective Speech Intelligibility Assessment.”<br />

Journal of the Acoustical Society of America 102(4): 2412-2421.<br />

Kollmeier, B., V. Hohmann and V. Kühnel (1999). Erprobung und Validierung von<br />

sprachaudiometrischen und anderen computer-gesteuerten Verfahren <strong>für</strong> die<br />

klinische Audiometrie. Zeitschrift <strong>für</strong> <strong>Audiologie</strong>, Supplement I. B. Kollmeier<br />

(Ed.). Heidelberg, median verlag: 73-78.<br />

Launer, S., I. Holube, V. Hohmann and B. Kollmeier (1996). “Categorical loudness<br />

scaling in hearing-impaired listeners - Can loudness growth be predicted from<br />

the audiogram.” Audiologische Akustik 35(4): 156-163.<br />

Laszig, R. (2000). Praxis der Audiometrie,. Stuttgart, Georg Thieme Verlag.<br />

Müller, C. (1992). Perzeptive Analyse und die Weiterentwicklung eines<br />

Reimtestverfahrens <strong>für</strong> die Sprachaudiometrie, <strong>Universität</strong> Göttingen.<br />

Neumann, J., S. Uppenkamp and B. Kollmeier (1994). “Chirp Evoked Otoacoustic<br />

Emissions.” Hear. Res. 79: 17-25.<br />

Neumann, J., S. Uppenkamp and B. Kollmeier (1996). “Detection of the Acoustic<br />

Reflex below 80 dB HL.” Audiology and Neuro-Otology 1(6): 359-369.<br />

Sotscheck, J. (1982). “Ein Reimtest <strong>für</strong> Sprachverständlichkeitsmessungen mit<br />

deutscher Sprache als ein verbessertes Verfahren zur Bestimmung der<br />

Sprachübertragungsgüte.” Der Fernmeldeingenieur 36: Heft 5/1, 1--83.<br />

v. Wallenberg, E. L. and B. Kollmeier (1989). “Sprachverständlichkeitsmessungen <strong>für</strong><br />

die <strong>Audiologie</strong> mit einem Reimtest in deutscher Sprache: Erstellung und<br />

Evaluation von Testlisten.” Audiologische Akustik 28(2): 50-65.<br />

101


Wagener, K., V. Kühnel and B. Kollmeier (1999). “Entwicklung und Evaluation eines<br />

Satztests in deutscher Sprache I: Design des <strong>Oldenburg</strong>er Satztests.” Zeitschrift<br />

<strong>für</strong> <strong>Audiologie</strong>/Audiological Acoustics 38(1): 4-15.<br />

Wagener, K., T. Brand and B. Kollmeier (1999). “Entwicklung und Evaluation eines<br />

Satztests in deutscher Sprache II: Optimierung des <strong>Oldenburg</strong>er Satztests.”<br />

Zeitschrift <strong>für</strong> <strong>Audiologie</strong>/Audiological Acoustics 38(2): 44-56.<br />

Wagener, K., T. Brand and B. Kollmeier (2000). Internationale Vergleichbarkeit<br />

sprachaudiometrischer Verfahren: Einfluß von Störgeräusch und Meßprozedur<br />

auf die Satzverständlichkeit. Fortschritte der Akustik - DAGA 2000. <strong>Oldenburg</strong>,<br />

DEGA, <strong>Oldenburg</strong>: (in press).<br />

Wegner, O., T. Dau and B. Kollmeier (2000). Frequenzspezifische Messung früher<br />

akustisch evozierter Potentiale (FAEP) mit optimierten Chirp-Signalen.<br />

Fortschritte der Akustik - DAGA 2000. <strong>Oldenburg</strong>, DEGA: (im Druck).<br />

Wesselkamp, M., Kliem, K. and B. Kollmeier (1992). Erstellung eines optimierten<br />

Satztests in deutscher Sprache. Moderne Verfahren der Sprachaudiometrie. B.<br />

Kollmeier (Ed.). Heidelberg, Median-Verlag: 330-343.<br />

102


Audiometrische Standardverfahren, Otoakustische<br />

Emissionen, Auditorisch evozierte Potentiale und<br />

Qualitätssicherung<br />

Thomas Janssen / München<br />

Psychoakustische (subjektive) Hörtests<br />

Stimmgabeltests (Rinne/Weber)<br />

Hörweitenprüfung<br />

Reintonschwelle in Luft- und Knochenleitung (LL, KL) Tonschwellenaudiometrie<br />

Überschwellige Tests Fowler, SISI, Carhart, Langenbeck<br />

Lautheit Kategoriale Lautheit (Hörfeldskalierung)<br />

Freiburger Sprachverständlichkeitstest Hörverlust <strong>für</strong> Zahlen in dB, Einsilberverständlichkeit in %<br />

Sprachtest im Störgeräusch z.B. <strong>Oldenburg</strong>er Satztest<br />

Physiologische (objektive) Hörtests<br />

Trommelfell-Impedanz -1 in Abhängigkeit vom statischen Druck Tympanometrie<br />

Trommelfell-Impedanz -1 Änderung bei ipsi/contralateraler Stimulation Stapediusreflex<br />

Otoakustische Emissionen TEOAE, DPOAE<br />

Auditorisch evozierte Potentiale FAEP, ASSR<br />

Pädaudiologische Hörtests<br />

Reflexaudiometrie (Auropalpebralreflex, Moro-Reflex)<br />

Verhaltensaudiometrie (Zuwendungsreaktionen der Augen oder des Kopfes)<br />

Ablenkaudiometrie (Konditionierung durch Belohnung, Visuell Re-Enforcement)<br />

Spielaudiometrie (Aktive Mitarbeit)<br />

Sprachtests (Mainzer Kindersprachtest, Göttinger Kindersprachverständnistest, Heidelberger<br />

Konsonant-Vokal-Konsonant Test, <strong>Oldenburg</strong>er Zweisilber-Kinderreimtest (OLKI), Würzburger<br />

Kindersprachtest, AAST)<br />

Zum besseren Verständnis der Testsverfahren soll im Folgenden kurz auf die Funktion und<br />

die Funktionsstörungen des Hörorgans eingegangen werden. Das Hörorgan kann man sich<br />

als eine Kette hinter einander geschalteter Schall verarbeitender Systeme vorstellen. Das<br />

äußere Ohr dient der Schallaufnahme und Schallverstärkung (Trichter, Gehörgangsresonanz),<br />

das Mittelohr der Anpassung der unterschiedlichen Impedanzen der Luft und der<br />

Innenohrlymphe (Druckerhöhung durch unterschiedliche Flächen des Trommelfells und<br />

Steigbügelfußplatte, Kraftverstärkung durch Hebelwirkung der Gehörknöchelchen), die<br />

Cochlea zur mechanischen Verstärkung des Schalls (Äußere Haarzellen als cochleäre<br />

Verstärker) sowie der Umsetzung des mechanischen Reizes (Stereozilienauslenkung der<br />

Inneren Haarzellen) in elektrische Impulse (Aktionspotentiale auf den Hörnervenfasern der<br />

Inneren Haarzellen). Die weitere Verarbeitung erfolgt auf den verschiedenen Stufen der<br />

neuralen Hörbahn (Cochleariskern, oberer Olivenkomplex, Lemniscus lateralis, Colliculus<br />

inferior, Subcortex, Cortex).<br />

103


Die genannten Verfahren dienen dazu, Ort und Grad einer Schwerhörigkeit zu bestimmen.<br />

Die Tonschwellenaudiometrie in Luft- und Knochenleitung kann nur zwischen<br />

Schalleitungsschwerhörigkeit (äußeres Ohr, Mittelohr) und Schallempfindungsschwerhörigkeit<br />

(cochleär, neural) unterscheiden. Die überschwelligen<br />

subjektiven Tests haben das Ziel, die Art der Schallempfindungsschwerhörigkeit zu<br />

bestimmen. Deren Aussagekraft ist aber beschränkt. Die OAE, die die cochleäre Funktion,<br />

und die AEP, die die neurale Aktivität erfassen können, müssen in Hinblick auf eine<br />

genauere Topodiagnostik zum Einsatz kommen. Wenn auch über die<br />

Tonschwellenaudiometrie eine Mitteohrschwerhörigkeit erkannt werden kann, so muss die<br />

Tympanometrie bemüht werden, um die Art der Mittelohrschwerhörigkeit (Otosklerose,<br />

Paukenerguß, Tubenfunktionsstörung, Kettenluxation) zu bestimmen.<br />

Im Besonderen <strong>für</strong> die Hörgeräteanpassung ist die Bestimmung des Recruitments<br />

(Lautheitsausgleich) wichtig. Dies gelingt mit Hilfe der Hörfeldskalierung bei Erwachsenen<br />

und älteren Kindern. Bei kleinen Kindern können nur die Stapediusreflexschwelle und die<br />

DPOAE-Wachstumsfunktionen Anwendung finden.<br />

Die Tonschwellenaudiometrie ist die am häufigsten durchgeführte Untersuchungsmethode,<br />

da sie die Funktionsstörung frequenzspezifisch und quantitativ erfassen kann. Prinzipiell<br />

sollen alle möglichen Verfahren zur Diagnostik eingesetzt werden. Je mehr Tests, umso<br />

besser die Diagnostik. Je genauer die Kenngrößen der gestörten Hörfunktion bestimmt<br />

werden können, umso besser gelingt die Anpassung einer Hörhilfe. Bei kleinen Kindern ist<br />

der Einsatz subjektiver Tests problematisch. Hier müssen die objektiven Tests verstärkt zum<br />

Einsatz kommen.<br />

104


Psychoakustische (subjektive) Hörtests<br />

Stimmgabeltests (Rinne/Weber)<br />

Rinnetest: Stimmgabel (440Hz) wird angeschlagen und vor das Ohr gehalten (LL), dann auf<br />

das Mastoid gesetzt (KL). Frage: Wo ist der Ton lauter? Vor dem Ohr oder hinter dem Ohr?<br />

Antwort: vor dem Ohr Keine Schallleitungsschwerhörigkeit<br />

Antwort: hinter dem Ohr Schallleitungsschwerhörigkeit<br />

Webertest: Stimmgabel auf Vertex gesetzt. Frage: Wo wird der Ton gehört?<br />

Antwort: Mitte Normale Hörfunktion oder seitengleiche Hörminderung<br />

Antwort: Links oder rechts Innenohrschwerhörigkeit rechts oder links oder<br />

Mittelohrschwerhörigkeit links oder rechts<br />

Hörweitenprüfung<br />

Nachsprechen zweistelliger Zahlen in Flüstersprache oder Umgangssprache in<br />

unterschiedlichem Abstand zwischen Patient und Untersucher. Abstand, bei dem gehört und<br />

richtig nachgesprochen wird, gibt groben Hinweis auf Grad der Hörstörung.<br />

Reintonschwelle<br />

in Luft- und Knochenleitung (LL, KL) Tonschwellenaudiometrie.<br />

Prüfschall über Kopfhörer (LL) (Einschluss des Mittelohres) oder Knochenleitungshörer (KL)<br />

(Ausschluss des Mittelohres). Frequenzbereich 125 bis 10 kHz in Oktavschritten,<br />

Pegelbereich -10 dB HL bis 110 dB (abhängig von Frequenz und Schallzufuhr (LL, KL).<br />

Messvorschrift: Beginn mit LL des besseren Ohres (aus Vortests Stimmgabel,<br />

Sprachabstandsprüfung), dann LL am Gegenohr, dann KL. Ermittelung des Schwellenpegels<br />

durch Aufsteigende Methode oder Eingabelungsmethode. Symbole: LL rechts „o“ verbunden<br />

durch (rote) Linien, LL links „x“ verbunden durch (blaue) Linien, KL rechts „>“ verbunden<br />

durch gestrichelte (rote) Linien, KL links „


Sowohl bei LL als auch bei KL wird die Hörschwelle Normalhörender bei jeder Frequenz als<br />

Bezugswert (0 dB) herangezogen. Im Tonschwellenaudiogramm wird der Hörverlust in dB<br />

HL gegenüber diesem Bezugswert eingetragen.<br />

Überschwellige Tests<br />

Fowler (Lautheitsausgleichstest). Vergleich des Lautheitseindrucks beider Ohren.<br />

Bedingung: Seitendifferenz mehr als 30 dB. Bei Lautheitsausgleich Recruitment<br />

SISI (short increment sensitivity index): Wieviele von 20 dargebotenen 1-dB Pegelsprüngen<br />

eines Dauertons (20 dB über Hörschwelle) werden erkannt; > 60% Recruitment<br />

Carhart (Schwellenschwundtest): Wenn bei einem Dauerton die Schwelle um mehr als 30 dB<br />

abwandert neurale Schädigung<br />

Geräuschaudiometrie nach Langenbeck (Mithörschwelle): Erhöhung der Mithörschwelle <br />

neurale Schädigung.<br />

106


Lautheit<br />

Kategoriale Lautheit (Hörfeldskalierung)<br />

Bewertung der empfundenen Lautheit auf einer vorgegebenen Kategorialskala (z.B. nicht<br />

gehört, leise, mittellaut, laut, sehr laut, zu laut). Bei Innenohrschwerhörigkeit mit Recruitment<br />

gibt der Patient bei hohen Reizpegeln ein normales Lautheitsempfinden an. Bei kleinen<br />

Reizpegeln wird entsprechend dem Hörverlust nicht gehört Versteilung der<br />

Lautheitsfunktion. Bei der Schallleitungschwerhörigkeit und der neuralen Schwerhörigkeit<br />

erfolgt eine Verschiebung der Lautheitsfunktion entlang der X-Achse. Hier gibt es auch bei<br />

hohen Reizpegeln keinen Lautheitsausgleich.<br />

107


Sprachtests<br />

Freiburger Sprachtest: Zahlentest (10 Gruppen zu je 10 zweistelligen Zahlen) + Einsilbertest<br />

(20 Gruppen zu je 20 Einsilbern)<br />

Ergebnis:<br />

1. Hörverlust <strong>für</strong> Zahlen in dB = Sprachpegel, bei dem der Patient 50% der Zahlen versteht.<br />

Startpegel 20 dB über Hörschwelle bei 500 Hz, nächster Pegel 5 + Startpegel.<br />

2. Sprachverstehen der Einsilber in % bei Sprachpegel 65, 80, 95, 110 dB SPL.<br />

<strong>Oldenburg</strong>er Satztest: Ermittlung der Sprachverständlichkeitsschwelle <strong>für</strong> Sätze im<br />

Störgeräusch = Ermittlung des Signal-Rausch-Verhältnisses, bei dem 50% der Sätze einer<br />

Testliste (40 Listen mit je 30 Sätzen) verstanden werden.<br />

Physiologische (objektive) Hörtests<br />

Tympanometrie<br />

Das Tympanometer misst die Nachgiebigkeit (Compliance = Impedanz -1 ) des Trommelfells<br />

in Abhängigkeit des im Gehörgang mittels einer Pumpe eingeleiteten Über - und Unterdrucks<br />

(Tympanogramm). Beim Überdruck (bis +200 daPa) wird das Trommelfell in die<br />

Paukenhöhle hineingedrückt, beim Unterdruck (bis- 400 daPa) wird das Trommelfell in den<br />

Gehörgang hineingezogen. Mit zunehmendem Über- bzw. Unterdruck nimmt die<br />

Beweglichkeit des Trommelfells immer mehr ab. Bei normaler Mittelohrfunktion erhält man<br />

eine Glockenkurve mit maximaler Compliance um den Atmosphärendruck, und minimaler<br />

Compliance bei den Extremwerten +200 und -400 daPa (Glockenkurve mit großer<br />

Compliance). Bei der Otosklerose ist wegen der eingeschränkten Beweglichkeit des<br />

Steigbügels die Beweglichkeit des Trommelfells eingeschränkt (Glockenkurve mit kleiner<br />

108


Compliance). Beim Paukenerguss ist wegen der mitschwingenden Sekretflüssigkeit die<br />

Beweglichkeit stark eingeschränkt (Flache Kurve, keine Gipfelbildung). Bei der<br />

Tubenfunktionsstörung ist der Gipfel der Glockenkurve in den negativen Druckbereich<br />

entsprechend dem in der Paukenhöhle herrschenden Unterdruck verschoben. Der<br />

Unterdruck entsteht durch den Sauerstoffverbrauch des (entzündlichen) Gewebes bei<br />

verschlossener Tube als Folge vergrößerter Rachenmandeln (Adenoide).<br />

Stapediusreflex<br />

Sowohl mit ipsi- als auch mit contralateral applizierten Tönen (1, 2, 4 kHz) oder Rauschen<br />

(Breitband, Schmalband) lässt sich der Stapediusreflex auslösen. Bei Kontraktion des<br />

Stapediusmuskels ist die Nachgiebigkeit der Gehörknöchelchenkette eingeschränkt<br />

(Schutzfunktion). Das Tympanometer registriert die veränderte Nachgiebigkeit während der<br />

Reflexauslösung. Die Reflexschwelle eines Normalhörenden liegt bei etwa 80 dB HL. Dies ist<br />

auch der Fall bei Patienten mit Funktionsstörungen der äußeren Haarzellen bei normaler<br />

Funktion der inneren Haarzellen (Recruitment). Bei der Mittelohrschwerhörigkeit und der<br />

neuralen Schwerhörigkeit ist die Reflexschwelle etwa dem Hörverlust entsprechend<br />

verschoben (oder nicht messbar).<br />

109


Otoakustische Emissionen<br />

Otoakustische Emissionen (OAE) sind Schallaussendungen des Innenohres. OAE können<br />

spontan vorhanden sein oder mit akustischen Reizen erzwungen werden. Die verblüffende<br />

Tatsache, dass Schall aus dem Innenohr emittiert wird, setzt die Existenz einer<br />

Energiequelle in der Kochlea voraus. Seit dem Nachweis der Motilität der äußeren<br />

Haarzellen wird angenommen, dass die äußeren Haarzellen als mechanische Verstärker<br />

fungieren, die die Sensitivität und Trennschärfe des Hörorgans erhöhen. OAE sind<br />

Epiphänomene des normalen Hörvorgangs. Sie sind Ausdruck des nicht-linearen<br />

Verstärkungsprozesses in der Kochlea. OAE schließen eine bisher bestehende Lücke, da sie<br />

die direkte Prüfung der Innenohrfunktion erlauben.<br />

Wegen ihrer einfachen Handhabbarkeit und der Tatsache, dass OAE (i.G. zu den AEP)<br />

bereits mit der Geburt voll entwickelt sind, sind sie die Methode der Wahl beim<br />

Neugeborenen Hörscreening. In der pädaudiologischen Diagnostik sind sie eine wertvolle<br />

Hilfe zur frequenzspezifischen und quantitativen Bestimmung kochleärer<br />

Funktionsstörungen. Da sie die kompressive Verstärkung der Kochlea direkt widerspiegeln,<br />

können sie auch eine Methode zur Bestimmung des Rekruitments sein. Mit Hilfe der OAE<br />

können kleinste Funktionsstörungen erfasst werden. Sie sind daher eine höchst sensitive<br />

Methode zur Erkennung beginnender Hörstörungen und Bestimmung ihres Verlaufs bei<br />

Lärmexposition oder Einnahme von ototoxischen Medikamenten.<br />

Man unterscheidet:<br />

spontane OAE (SOAE), die in der Form tonaler Schallsignale ohne Einwirkung eines<br />

akustischen Reizes fortwährend emittiert werden,<br />

110


evozierte OAE, die durch Einwirkung eines äußeren Schallereignisses entstehen. Die<br />

evozierten otoakustischen Emissionen werden je nach Art der Schallreizung unterteilt in<br />

transitorisch evozierte OAE (TEOAE),<br />

simultan evozierte OAE (SEOAE),<br />

Distorsionsprodukt-OAE (DPOAE oder DP).<br />

Durch einen Schallreiz werden die nach ihrem Standort in der Cochlea auf unterschiedliche<br />

Frequenzen abgestimmten äußeren Haarzellen zu Schwingungen angeregt. Bei transienter<br />

Anregung mit Klicks oder Tonimpulsen werden die äußeren Haarzellen angestoßen. Ihr<br />

Schwingungsverhalten entspricht einer Stoßantwort. Frequenz und Dauer der Stoßantwort<br />

sind abhängig von der Eigenfrequenz der äußeren Haarzelle und damit vom Standort der<br />

Haarzelle in der Kochlea. Bei stationärer Anregung des Ohres mit Tönen werden die im<br />

schmalen Bereich der Basilarmembranausbauchung liegenden Haarzellen in periodische<br />

Schwingungen versetzt, deren Frequenz der des anregenden Tones entspricht. Auf welche<br />

Weise die äußeren Haarzellen auch in Kontraktionen versetzt werden - sei es wie bei den<br />

spontanen OAE durch eine interne Energiequelle oder wie bei den evozierten OAE durch<br />

Stimulation mittels Schallenergie von außen - jede Kontraktion der mikromechanischen<br />

Strukturen des Corti-Organs setzt Schwingungsenergie in der Cochlea frei, die als retrograde<br />

Schallaussendung mit einem empfindlichen Mikrophon im äußeren Gehörgang gemessen<br />

werden kann.<br />

TEOAE werden mit kurzen Schallimpulsen (Klick, Tonimpuls) ausgelöst und weisen ein<br />

breitbandiges Spektrum auf. Sie sind die Summe der Emissionen aus einem weiten Bereich<br />

der Cochlea. Bei Anregung des Ohres mit einem transienten Schallreiz (Klick) breitet sich<br />

eine Welle auf der Basilarmembran aus, die von basal nach apikal läuft. Auf ihrem Weg zur<br />

Schneckenspitze stößt sie die äußeren Haarzellen hintereinander an. Die je nach ihrem<br />

Standort in der Kochlea auf unterschiedliche Frequenzen abgestimmten äußeren Haarzellen<br />

erzeugen dabei infolge der Filtereigenschaften der Basilarmembran und des Cortischen<br />

Organs Stoßantworten, deren Schwingungen – abhängig von ihrem Standort in der Kochlea<br />

- unterschiedliche Frequenz und Dauer haben. TEOAE sind die Summe der Stoßantworten<br />

der äußeren Haarzellen. Die aus dem basalen Bereich der Kochlea stammenden TEOAE-<br />

Komponenten haben hohe, die aus dem apikalwärts gelegenen Kochleaabschnitten<br />

stammenden TEOAE-Komponenten tiefere Frequenzen. Die basalen TEOAE-Komponenten<br />

treten früh, die medialen und apikalen TEOAE-Komponenten treten entsprechend der<br />

Laufzeit in der Cochlea später auf (Latenz). Der Vorteil der TEOAE ist der, dass mit einem<br />

111


Reiz nahezu alle Haarzellen in der Cochlea angestoßen werden und ihre Fähigkeit zur<br />

Kontraktion in einem Messvorgang erfasst werden kann. Sind die äußeren Haarzellen<br />

schwingungsfähig, so emittieren sie Stoßantworten mit einer ihrem Standort entsprechenden<br />

Frequenz. Sind äußere Haarzellen in bestimmten Cochleaabschnitten in ihrer Funktion<br />

gestört, so senden diese keinen Schall aus, und es fehlt in der Summe der emittierten<br />

Stoßantworten die entsprechenden Stoßantworten mit der jeweiligen Frequenz und Latenz.<br />

TEOAE sind bei Neugeborenen die Hörscreening-Methode der Wahl, weil sie schnell und<br />

einfach messbar sind und durch den Einsatz statistischer Tests eine automatische<br />

Befunderhebung möglich ist: 1. Verdacht auf Schwerhörigkeit, weitere Untersuchungen<br />

notwendig (fail), 2. kein Verdacht auf das Vorliegen einer Schwerhörigkeit (pass). Bei<br />

Fruchtwasserresten in der Paukenhöhle in den ersten Lebensstunden und –tagen sind<br />

TEOAE nicht nachweisbar. Es wird daher ein mehrstufiges Hörscreening angewendet:<br />

Weiderholungsmessung der TEOAE ab dem 3. Lebenstag, zusätzliche Messung der FAEP.<br />

Es ist zu beachten, dass retrocochleäre Hörstörungen und eine auditorische Neuropathie<br />

(Störungen der Synapsenfunktion der Inneren Haarzellen) unerkannt bleiben, wenn nur<br />

TEOAE gemessen werden.<br />

Während TEOAE eher eine qualitative Messgröße zur Bestimmung von kochleären<br />

Funktionsstörungen sind, sind die DPOAE in der Lage, quantitative Informationen über den<br />

Sensitivitäts-, Kompressions- und Trennschärfeverlust des kochleären Verstärkers zu geben.<br />

DPOAE werden mit 2 Tönen (Primärtöne) benachbarter Frequenz ausgelöst und entstehen<br />

als direkte Folge der Nichtlinearität des kochleären Verstärkungsmechanismus. Sie geben<br />

die Emissionen aus der schmalen Überlappungszone der Wanderwellen der Primärtöne<br />

wieder. Die DPOAE haben eine Frequenz, die sich aus der Kombination der<br />

Primärtonfrequenzen f1 und f2 zusammensetzt. Beim Menschen haben die<br />

Distorsionsproduktemissionen mit der Frequenz 2f1-f2 die größte Schalldruckamplitude. Bei<br />

Verschiebung des Überlappungsbereichs entlang der Cochlea können Verzerrungen an<br />

unterschiedlichen Cochleaorten gemessen werden. Das Ergebnis ist dann ein DPOAE-<br />

Gramm. Mit einem DPOAE-Gramm kann man grob nachschauen, in welchem Bereich der<br />

Cochlea eine Funktionsstörung vorliegt. Hierbei ist aber zu beachten, dass die DPOAE<br />

schwellennah ausgelöst werden müssen. Viele Leute wundern sich, warum DPOAE-Gramm<br />

und Tonschwellenaudiogramm nicht übereinstimmen. Sie haben dann einfach<br />

überschwellige Reizpegel und nicht schwellennahe Reizpegel zur Auslösung der DPOAE<br />

verwendet.<br />

112


Wenn man die Frequenzen der Primärtöne konstant hält und ihre Pegel ändert, erhält man<br />

eine DPOAE I/O-Funktion. Bei der Einstellung der Primärtonpegel ist die kompressive Nicht-<br />

Linearität der Cochlea am Ort f2 zu beachten. Die Primärtöne müssen daher in ihrem Pegel<br />

unterschiedlich eingestellt werden, z.B. nach der „Pegelschere“ (L1 = 0,4 L2 -39). Wenn man<br />

so verfährt, dann spiegelt die DPOAE I/O-Funktion die nicht-lineare Verstärkung der äußeren<br />

Haarzellen wide. Mit extrapolierten DPOAE I/O-Funktionen kann eine relativ genaue<br />

Schätzung des Hörverlustes in der Form eines DPOAE-Kochleogramms vorgenommen<br />

werden. Mit den DPOAE-Kochleogrammen lässt sich bei Neugeborenen und Kindern eine<br />

frequenzspezifische und quantitative Aussage über den Hörverlust treffen. Mit Hilfe des<br />

Steigungsprofils kann der Kompressionsverlust der cochleären Verstärkung bestimmt<br />

werden. So lassen sich aus den DPOAE I/O-Funktionen Anpassparameter <strong>für</strong> Hörgeräte<br />

ableiten. Dies allerdings nur bis zu Hörverlusten von 50 dB HL. Bei Hörverlusten größer als<br />

50 dB HL müssen die frequenzspezifischen auditorischen steady-state Antworten (ASSR)<br />

weiterhelfen.<br />

113


Die DPOAE kann man unterdrücken, wenn man einen Suppressorton appliziert, den man in Frequenz und Pegel<br />

so variiert, dass sich die DPOAE-Amplitude um einen bestimmten Wert ändert. Man erhält dann eine DPOAE Iso-<br />

Suppressionstuningkurve. Aus den DPOAE Iso-Suppressionstuningkurven können Informationen über die<br />

mechanische Abstimmung der Cochlea gewonnen werden. Die DPOAE Iso-Suppressionstuningkurven sind<br />

deckungsgleich mit den neuralen Tuningkurven. Das bedeutet die Trennschärfe des Hörorgans findet in der<br />

Cochlea statt. Neugeborene haben gleiche DPOAE Iso-Suppressionstuningkurven wie Erwachsene. Die Cochlea<br />

ist damit schon von Geburt an reif.<br />

Mit Hilfe der DPOAE lässt sich auch die Reflexstärke des efferenten Hörsystems bestimmen. Entweder mit der<br />

DPOAE-Adaptation oder der contralateralen DPOAE-Suppression. Die DPOAE-Adaptation spiegelt das<br />

Einschwingverhalten der äußeren Haarzellen wider. Beim Einschalten der Primärtöne kommt es zunächst zu<br />

einem raschen Anstieg des DPOAE Pegels innerhalb von etwa 200 ms. Danach nimmt die Amplitude um etwa 1<br />

dB ab und bleibt konstant. Das bedeutet, dass das efferente Hörsystem die Schwingung der äußeren Haarzellen<br />

dämpft. Auch die akustische Stimulation des Gegenohres führt zu einer Dämpfung der Haarzellschwingung. Das<br />

Ergebnis ist dann eine contralaterale DPOAE-Suppression. Die contralaterale DPOAE-Suppression kann Werte<br />

von über 10 dB annehmen, wenn bestimmte Primärtonpegelkombinationen verwendet werden. Damit ist die<br />

contralaterale DPOAE-Suppression eine geeignete Messgröße zur Untersuchung der Funktion des efferenten<br />

Hörsystems. Das efferente Hörsystem gibt noch viele Rätsel auf. Man weiß nicht, ob es der Verbesserung der<br />

Signalerkennung im Störgeräusch oder zum Schutz bei zu lauter Schalleinwirkung dient. Die DPOAE könnten ein<br />

Prädiktor der Vulnerabilität der Cochlea sein, wenn man davon ausgeht, dass Ohren mit einer großen<br />

Reflexstärke besser vor Lärm geschützt sind als Ohren mit kleiner Reflexstärke.<br />

Auditorisch evozierte Potentiale FAEP, ASSR<br />

Auditorisch evozierte Potentiale repräsentieren die an der Kopfhaut über Klebeelektroden<br />

gemessene reizsynchrone elektrische Aktivität auf verschiedenen Stufen der Hörbahn. Die<br />

an der Kopfhaut abgegriffene Spannung liegt je nach Entstehungsort zwischen 100 Nanovolt<br />

und 1 Mikrovolt. Zur Extraktion der reizsynchronen Antwort aus dem EEG ist eine Mittelung<br />

einzelner Antworten notwendig (n=2000). Der Signal/Störabstand nimmt mit der Wurzel aus<br />

der Anzahl n der Mittelungen zu. Bei kleinen Potentialamplituden muss die Anzahl der<br />

Mittelungen erhöht werden (n=4000). Man unterteilt die Potentialkomponenten nach ihrem<br />

zeitlichen Auftreten nach Reizbeginn (Latenz) in frühe akustisch evozierte Potentiale (FAEP),<br />

in Potentiale mittlerer und später Latenz (MLR, SAEP).<br />

Die FAEP bilden drei prominente, mit römischen Ziffern (I, III, V) gekennzeichnete Wellen<br />

aus. Mit abnehmendem Reizpegel nimmt die Latenz der Potentialwellen zu (Welle V bei 80<br />

dBnHL = 5,5ms, bei 10 dB nHL = 8ms bei einem Normalhörenden). Bei einer<br />

Mittelohrschwerhörigkeit liegt die Potentialschwelle in etwa dem Hörverlust entsprechend<br />

höher (gilt streng genommen nur <strong>für</strong> den pantonalen Hörverlust). Die Latenz ist verschoben<br />

114


entsprechend dem Hörverlust; d.h. bei einer Mittelohrschwerhörigkeit von 40 dB<br />

beispielsweise wird bei einem Reizpegel von 60 dB eine Antwort erzielt, die der Antwort<br />

eines Normalhörenden bei einem Reizpegel von 20 dBnHL entspricht. Bei einer<br />

pancochleären Schwerhörigkeit ist die Potentialschwelle entsprechend dem Hörverlust<br />

verschoben, die Latenz ist jedoch normal. Bei einer basocochleären Schwerhörigkeit ist die<br />

Latenz entsprechend der Laufzeit der Wanderwelle über den gestörten Sinneszellabschnitt<br />

verlängert. Die Verschiebung der Potentialschwelle entspricht dabei nicht unbedingt dem<br />

Hörverlust. Bei einem Hochtonabfall mit begrenztem Hörverlust ist die Latenz bei kleinen<br />

Reizpegeln verschoben, bei hohen Reizpegeln normalisiert sich die Latenz.<br />

Die Amplitude der FAEP gibt keine direkte Information über den Hörverlust. Allerdings fällt<br />

beim Recruitment eine sprunghafte Änderung der Potentialamplitude mit steigendem<br />

Reizpegel auf. Bei einer retrocochleären Hörstörung ist die Inter-Peak-Latenz (Zeit zwischen<br />

Welle I und V) entsprechend der verlangsamten neuralen Transmission auf den direkt<br />

(Neurofibromatose) oder indirekt (Druck durch Raumforderung) geschädigten<br />

Hörnervenfasern. Die Inter-Peak-Latenz beträgt im Mittel bei Normalhörenden 3,8 ms<br />

(Frauen) bzw. 4,2 ms (Männer). Bei einer verlängerten Inter-Peak-Latenz von 0,2 ms besteht<br />

Verdacht auf eine retrocochleäre Störung.<br />

Die FAEP werden üblicherweise mit Klick-Reizen ausgelöst. Wegen der hohen<br />

Anfangsgeschwindigkeit (260 km/h) der durch den Klick in der Cochlea ausgelösten Welle ist<br />

die Synchronisation der Entladungen (Aktionspotentiale auf den 30 000 Hörnervenfasern) im<br />

basalen Bereich der Cochlea am größten. Die basalen Sinneszellen und Hörnervenfasern<br />

tragen somit am meisten zur Bildung der FAEP bei. Wegen der transienten Anregung<br />

können keine frequenzspezifischen Antworten erzeugt werden. Durch Maskierung<br />

gegrenzter Cocheabereiche mittels Hochpass-Rauschen (derived response technique) oder<br />

Notched-Noise ist eine indirekte frequenzspezifische Aussage über den Hörverlust möglich.<br />

Wegen der geringen Anzahl der zur Potentialbildung beitragenden Hörnervenfasern ist die<br />

Potentialamplitude sehr klein und so die Aussagekraft der Antworten eingeschränkt. Die mit<br />

Tonimpulsen ausgelösten FAEP können nur dann eine frequenzspezifische Aussage über<br />

den Hörverlust treffen, wenn sie mit kleinen Reizpegeln ausgelöst werden. Bei hohen<br />

Reizpegeln, die ja bei Patienten mit größeren Hörverlusten zur Anwendung kommen<br />

müssen, ist wegen der basalen Miterregung (auch bei tieffrequenten Tonimpulsen werden<br />

basale Sinneszellen aktiviert, obwohl die Wanderwelle nach der Frequenz-Orts-<br />

Transformation im apikalen Bereich der Cochlea ihre maximale Auslenkung hat) keine<br />

frequenzspezifische Erfassung des Hörverlustes möglich. Dies gilt auch <strong>für</strong> den Chirp.<br />

In der klinischen Diagnostik werden die FAEP zur groben Erfassung des Hörverlustes bei<br />

Kindern und zur Erkennung von Akustikusneurinomen und Hirnstammtumoren<br />

herangezogen. Bei einem hohen Vigilanzniveau (Wachheit) und bei abgeschlossener<br />

Hörbahnreifung können die frequenzspezifischeren MLR und SAEP eingesetzt werden. Da<br />

diese Forderungen bei kleinen Kindern nicht erfüllt sind, spielen die MLR und SAEP in der<br />

Pädaudiologie nur eine untergeordnete Rolle.<br />

Ereigniskorrelierte Potentiale (event-related-potentials, ERP) dienen zur Erfassung von<br />

zentralen Störungen; die Mismatch Negativity (MMN), die die unbewusste Detektion seltener<br />

Ereignisse (Devianten) innerhalb einer Serie von Standardreizen erkennt, und die Welle<br />

P300 bzw. P400 (late positive complex), die bei einer Reaktion auf einen unerwarteten Reiz<br />

bzw. bei semantischer Verarbeitung von Sprache nachweisbar sind. Diese Verfahren können<br />

nur bei ältern Kindern z.B. zur Objektivierung von auditiven Verarbeitungs- und<br />

Wahrnehmungsstörungen und Sprachentwicklungsstörungen eingesetzt werden.<br />

115


Die auditorischen Steady State Antworten (ASSR) bieten die Möglichkeit zur<br />

frequenzspezifischen Erfassung des Hörverlusts. Allerdings sind zu ihrer Ableitung lange<br />

Messzeiten erforderlich.<br />

116


Die ASSR werden mit amplitudenmodulierten Dauertönen ausgelöst. Typische<br />

Modulationsfrequenzen (fm) sind 40 Hz, 80 Hz und 120 Hz. Je niedriger die<br />

Modulationsfrequenz, umso höher der Entstehungsort der Potentiale auf der aufsteigenden<br />

Hörbahn und umso größer die Potentialamplitude (und damit bessere Messbedingungen).<br />

Wegen der Vigilanzabhängigkeit können bei sedierten Kindern nur die 80Hz oder 120Hz<br />

ASSR mit der kleineren Amplitude eingesetzt werden. In den letzten Jahren sind eine Reihe<br />

von Veröffentlichungen über die Methode der ASSR erschienen (Überblick s. Picton et. al).<br />

Es gibt allerdings vergleichsweise wenige Veröffentlichungen über ihren klinischen Einsatz.<br />

Der Vorteil gegenüber den FAEP ist der, dass die Sinneszellen in der Cochlea entsprechend<br />

der Trägerfrequenz (fc= 125 Hz – 8 kHz) in gezielten Arealen erregt werden können, die<br />

synchronisierte Aktivität jedoch im Hirnstamm (Modulationsfrequenz 80 Hz) oder Subcortex<br />

(Modulationsfrequenz 40 Hz) stattfindet.<br />

Ausblick: DPOAE lassen sich nur bei Hörverlusten bis 50 dB HL messen. Unterhalb 1 kHz<br />

sind wegen des hohen Störgeräuschs DPOAE nur schwer messbar. Bei hohen Frequenzen<br />

> 6 kHz tritt das Problem der stehenden Wellen auf. Das bedeutet, dass der an der<br />

Sondenspitze gemessene Schalldruck nicht dem Schalldruck am Trommelfell entspricht. Um<br />

eine Schätzung des Hörverlusts im gesamten Frequenz- und Dynamikbereich des Hörens<br />

vornehmen zu können, müssen DPOAE und ASSR gemessen werden: DPOAE wo möglich,<br />

ASSR wo nötig. DPOAE und ASSR lassen sich auch simultan messen, z.B. können während<br />

der langen ASSR-Messzeiten DPOAE ohne zusätzlichen Zeitaufwand registriert werden.<br />

117


Pädaudiologische Hörtests<br />

In der pädaudiologischen Diagnostik werden psychoakustische Prüfverfahren und<br />

physiologische Messverfahren zur Lokalisation und quantitativen Erfassung einer<br />

Schwerhörigkeit angewendet. Die audiometrischen Tests liefern Kenngrößen der gestörten<br />

Hörfunktion. Physiologische Tests (Tympanometrie, OAE und AEP) sind essentielle<br />

Bestandteile der audiometrischen Testbatterie, da sie nicht auf die aktive Mitarbeit des<br />

Kindes angewiesen sind, setzen aber ein ruhiges, in der Regel spontan schlafendes oder<br />

sediertes Kind voraus. Sie bieten darüber hinaus die Möglichkeit, den Hörschaden zu<br />

lokalisieren.<br />

Die unverzichtbare Basis <strong>für</strong> eine erfolgreiche Hörgeräte-Versorgung ist die Ermittlung einer<br />

seitengetrennten und frequenzspezifischen Hörschwelle. Um die Befunde untereinander<br />

abzusichern, bedarf es der Zusammenschau der Ergebnisse verschiedener audiometrischer<br />

Verfahren, sowohl der psychometrischen, als auch der physiologischen Verfahren.<br />

Zur Diagnose frühkindlicher Hörstörungen stehen altersabhängig verschiedene subjektive<br />

Hörprüfverfahren zur Verfügung. Im Rahmen subjektiver Hörprüfungen werden vom<br />

Untersucher die stark altersabhängigen Reflex- und Reaktionsschwellen ermittelt, die als<br />

Antwort auf akustische Reize nachweisbar sind. Die Schwellenwerte zur Auslösung von<br />

Reflexen oder Verhaltensänderungen nach akustischer Reizung unterliegen jedoch einem<br />

altersbedingten Reifungsprozess; die korrekte Bewertung dieser Antworten gelingt nur einem<br />

erfahrenen Untersucher. Als subjektive Hörprüfverfahren kommen im ersten und zweiten<br />

Lebensjahr die Reflex- und Verhaltensaudiometrie zum Einsatz, ab ca. dem dritten<br />

Lebensjahr die Spielaudiometrie.<br />

Die subjektiven Hörprüfmethoden beim Säugling und Kleinkind lassen sich in folgende<br />

Kategorien einteilen:<br />

Reflexaudiometrie<br />

Bei der Reflexaudiometrie werden die in den ersten Lebensmonaten noch nachweisbaren unbedingten Reflexe<br />

des Kindes, wie z. B. das Zucken der Augenlider (Auropalpebralreflex), das reflexartige Anziehen der Arme und<br />

Beine (Moro-Reflex, Schreck-Reflex), Änderungen der Atmung, der Mimik und Gestik als Antwort auf akustische<br />

Reize (Töne, Rauschen, Kinderlieder etc.) beurteilt. Die Reaktionen des Kindes auf Bewegungen und visuelle<br />

Reize können jedoch dabei oft als Hörreaktionen fehl gedeutet werden.<br />

Verhaltensaudiometrie<br />

Mit zunehmendem Alter lassen die unbedingten Reflexe der Kinder nach, so dass ab dem 3.-4. Lebensmonat<br />

eine Verhaltensaudiometrie eingesetzt wird. Dabei werden Verhaltensänderungen des Kindes, wie z.B.<br />

Zuwendungsreaktionen der Augen oder des Kopfes zur Schallquelle, Änderungen der Mimik, Gestik oder der<br />

Atmung sowie Aktivitätsänderungen als Antwort auf akustische Reize im Freifeld sowie über<br />

Knochenleitungshörer geprüft.<br />

Ablenkaudiometrie<br />

Ab dem 6.-7. Lebensmonat lässt sich die sog. Ablenkaudiometrie durchführen. Dieses Verfahren beruht darauf,<br />

dass auf einem Bildschirm kindgerechte Bilder gleichzeitig mit der Präsentation eines lauten, überschwelligen<br />

akustischen Signals gezeigt werden. In der Konditionierungsphase lernt das Kind, dass visueller und auditiver<br />

Reiz immer gleichzeitig erscheinen. In der anschließenden Untersuchungsphase lässt man die visuelle<br />

Darbietung etwas verzögert gegen die auditive Stimulation auftreten. Das Kind wird <strong>für</strong> die richtige Reaktion auf<br />

einen auditiven Stimulus mit einem neuen Bild belohnt. Der Reizpegel wird dabei bis zur Reaktionsschwelle<br />

erniedrigt (d.h., man tastet sich langsam an die „Hörschwelle“ heran).<br />

Spielaudiometrie<br />

Die Spielaudiometrie kann ca. ab dem 3. Lebensjahr eingesetzt werden. Im Gegensatz zur Verhaltensaudiometrie<br />

arbeitet das Kind aktiv mit. Auch hier bedarf es einer Konditionierungsphase. Das Kind führt nach Gabe eines<br />

akustischen Reizes eine Spielhandlung aus (z.B. es steckt ein Holzklötzchen in ein Steckbrett).<br />

Sprachtests<br />

Sprachtests untersuchen das Diskriminationsverhalten <strong>für</strong> komplexe Signale mit semantischer Information. Im<br />

deutschsprachigen Raum werden bei Vorschul- und Schulkinder in der Regel der Mainzer Kindersprachtest und<br />

der Göttinger Kindersprachverständnistest I und II verwendet. Dazu gibt es den Heidelberger Konsonant-Vokal-<br />

Konsonnat Test, den <strong>Oldenburg</strong>er Zweisilber-Kinderreimtest (OLKI) und den Würzburger Kindersprachtest. Neu<br />

ist der adaptive auditive Sprachtest (AAST), wo sechs Zweisilber (Flugzeug, Eisbär, Schneemann, Lenkrad,<br />

118


Handschuh, Fußball) verwendet werden. Das Kind muss – wenn es das Wort verstanden hat - das<br />

entsprechende Bild auf dem Touchscreen eines PDAs auswählen. Das Testergebnis ist eine Zahl in dB, die<br />

aussagt, bei welcher Intensität (dB) die Hälfte der Worte verstanden wird.<br />

DPOAE-Kochleogramme<br />

Bei der Verhaltens- oder Spielaudiometrie wird eine hohe Diskrepanz zwischen der Reaktionsschwelle und der<br />

tatsächlichen Hörschwelle beobachtet. Je nach Alter kann die Differenz zwischen 60 dB (4 Monate altes Kind)<br />

und 25 dB (2 Jahre altes Kind) betragen. Das DPOAE-Kochleogramm erlaubt eine genauere Schätzung des<br />

Hörverlustes und bietet sich daher als ergänzende oder alternative Methode an. Weitere Vorteile sind<br />

seitenselektive Erfassung des Hörverlustes und schnellere Messzeiten. In Hinblick auf die Sprachentwicklung<br />

sind bei Kindern Hörgeräte schon bei cochleären Hörverlusten ab 25 dBHL indiziert. Das bedeutet, dass DPOAE-<br />

Kochleogramme auch bei der Hörgeräteanpassung wertvolle Dienste leisten könne.<br />

Qualitätssicherung<br />

Subjektive Tests<br />

Hörprüfraum: schallarm, maximal zulässiger Pegel des Störschalls in ISO 389-1<br />

Audiometer: geeicht, messtechnische Überprüfung des Audiometres inclusive Hörer<br />

mindestens 2 x jährlich.<br />

Durch Einhaltung der Standards (Tonschwelle: IEC 60645-1, ISO 389-1-2-3-4, ISO 8253-1;<br />

Sprachtests: IEC 60645-2, ISO 8253-3) ist gewährleistet, dass die an unterschiedlichen<br />

Orten erhobenen Daten vergleichbar sind.<br />

Fehlerquellen:<br />

Raum:<br />

119


Störschall zu groß<br />

Geräte:<br />

Falsche Kalibrierung, schlechter Funktionszustand müssen vermieden werden.<br />

Untersucher:<br />

1. Falsches Anbringen der elektroakustischen Wandler. Verwechselung der Seite kann bei<br />

einer anstehenden OP katastrophal sein! falsche Ankoppelung an den Gehörgang kann die<br />

Hörschwellenbestimmung erheblich verschlechtern!<br />

2. Schlechte Instruktion des Patienten und schnelles Untersuchungstempo können ebenfalls<br />

zu falschen Ergebnissen führen.<br />

3. Nicht-Beachten der Fühlschwelle bei der Knochenleitung und Nicht-Beachten der<br />

Vertäubungsregeln zur Vermeidung des Überhörens.<br />

Patient: Patient kann simulieren oder aggravieren.<br />

Tinnitus: Durch Verdeckung des Prüftons durch den Tinnitus kann es zu widersprüchlichen<br />

Ergebnissen zwischen den physiologischen und psychoakustischen Tests kommen.<br />

Objektive Tests<br />

OAE: Die bei der Registrierung der OAE verwendeten Ohrsonden sind sehr stoßempfindlich. Die<br />

wöchentliche Messung der Übertragungsfunktion in einem künstlichen Ohrsimulator (B&K 5147) ist zu<br />

empfehlen. Die Röhrchen der Ohrsonden können durch Cerumen verstopft werden. Es sollten daher<br />

Sonden zur Anwendung kommen, die zerlegbar und damit leicht zu reinigen sind. Über das<br />

Sondenkabel können Störsignale entstehen. Um dies zu vermeiden sollte die Sonde am Kabel über<br />

eine Vorrichtung über den Kopf des Patienten schwebend angebracht werden.<br />

Um schwellenahe Messungen der OAE zu gewährleisten oder Messungen an Patienten mit größeren<br />

Hörverlusten durchführen zu können, müssen Mikrophone verwendet werden, die ein geringes<br />

Eigenrauschen haben. Nach 200 Mittelungen sollte das Störgeräusch bei den DPOAE im mittleren<br />

Frequenzbereich besser als -30 dB SPL sein.<br />

Eine Überprüfung des Sondensitzes während der Messung sollte automatisch durch Messung der<br />

Schalldruckübertragungsfunktion erfolgen. Es sollten einheitliche Kriterien zur Sicherstellung der<br />

Validität der Antwort verwendet werden (z.B. Korrelation der beiden TEOAE-Aufnahmepuffer > 65%,<br />

Signal-Störabstand von > 6 dB bei den DPOAE).<br />

AEP: s. Empfehlungen der ADANO zur Durchführung der ERA mit transienten Potentialen<br />

Literatur:<br />

Mrowinski und Mitarbeiter: Audiometrie, Thieme Verlag (Kleines Lehrbuch über audiometrische<br />

Standardverfahren der subjektiven Audiometrie. Objektive Audiometrie und Pädaudiologie wird nur kurz<br />

dargestellt.<br />

Lehnhardt und Laszig (Hrsg): Praxis der Audiometrie (Großes Lehrbuch der subjektiven und objektiven Verfahren<br />

der Audiometrie). Thieme Verlag. Eine neue Ausgabe erfolgt in 2009.<br />

Hoth und Lenarz: Elektrische Reaktions-Audiometrie, Springer<br />

Hoth und Lenarz: Otoakustische Emissionen, Thieme<br />

Zu den OAE:<br />

Janssen und Müller: Otoacoustic emissions as a diagnostic tool in a clinical context. In: Active processes and<br />

otoacoustic emissions. Springer Handbook of Auditory Research 30. Springer New York<br />

Zu den ASSR:<br />

Pethe J, Mühler R, von Specht H (2001). Zur Abhängigkeit der AMFR von der Vigilanz. HNO 49:188-193<br />

Pethe J (2003) Amplitude modulation following responses (AMFR) – ein neuer Weg zur objektiven Bestimmung<br />

der Hörschwelle. HörBericht 72, Geers Hörakustik<br />

Picton TW, Skinner CR, Champagne SC, Kellett AJC, Maistre A (1987) Potentials evoked by the sinusoidal<br />

modulation of the amplitude or frequency of a tone. J Acoust Soc Am 82: 165-178<br />

Picton TW, Dimitrijevic A, John MS, von Roon P (2001) The use of phase in the detection of auditory steady-state<br />

responses. Clinical Neurophysiology 112: 1698-1711<br />

120


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Physikalische Grundlagen der<br />

Akustik<br />

Prof.Dr.-Ing. Matthias Blau<br />

Institut <strong>für</strong> Hörtechnik und <strong>Audiologie</strong><br />

FH <strong>Oldenburg</strong>/Ostfriesland/Wilhelmshaven<br />

XXI. Winterschule der <strong>Deutsche</strong>n <strong>Gesellschaft</strong> <strong>für</strong> Medizinische Physik<br />

Pichl 2009<br />

Übersicht<br />

1. Was ist Schall?<br />

2. Grundgrößen: p, v, I, P<br />

3. Schallausbreitung 1<br />

4. Schallausbreitung 2<br />

5. Ebene Wellen<br />

6. Kugelwellen<br />

7. Echt dreidimensionale Wellen<br />

8. Diffuses Schallfeld<br />

Seite 121


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

1. Was ist Schall?<br />

• Schall: mechanische Schwingungen und Wellen in einem<br />

elastischen Medium<br />

– elastisches Medium: Gas, Flüssigkeit, Festkörper<br />

im weiteren: Luft<br />

– Hörschall: Beschränkung auf<br />

(16...20) Hz ≤ f ≤ (16...20) kHz<br />

1. Was ist Schall?<br />

• 1D-Betrachtung:<br />

Fortpflanzung lokaler Druckschwankungen (Verdichtungen,<br />

Verdünnungen) als Longitudinalwelle<br />

t=0<br />

t=0.05T<br />

t=0.1T<br />

t=0.15T<br />

t=0.2T<br />

t=0.25T<br />

t=0.3T<br />

x=0<br />

λ<br />

x<br />

Seite 122


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

2. Grundgrößen: p, v, I, P<br />

• Schallschnelle v:<br />

– Wechselgeschwindigkeit, mit der die Luftteilchen<br />

schwingen<br />

– Richtungssinn = Ausbreitungsrichtung der Welle<br />

– 1µm/s (sehr leise) . . .einige cm/s (sehr laut)<br />

• Schalldruck p:<br />

– dem statischen Luftdruck (≈ 100 kPa) überlagerte<br />

Druckschwankungen<br />

– ungerichtet<br />

– < 1 mPa (sehr leise) . . .einige 10 Pa (sehr laut)<br />

2. Grundgrößen: p, v, I, P<br />

• Schallleistung P:<br />

– reine Quellgröße, kennzeichnet Energiefluss der<br />

Quelle<br />

– P ∝ ˜p 2<br />

Seite 123


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

2. Grundgrößen: p, v, I, P<br />

• Schallintensität I:<br />

– Feldgröße, flächenbezogener Energiefluss in Richtung<br />

der Wellenausbreitung<br />

– I = zeitliches Mittel { pv } und P = ‚<br />

I d S<br />

I(r)<br />

I(r)<br />

I(r)<br />

I(r)<br />

r<br />

I(r)<br />

Quelle,<br />

Schalleistung P<br />

I(r)<br />

3. Schallausbreitung 1<br />

dS<br />

I(r)<br />

• Schallgeschwindigkeit c:<br />

I(r)<br />

n<br />

I(r)<br />

I(r)<br />

S<br />

kugelsymmetrische<br />

ungerichtete<br />

Abstrahlung:<br />

P = I(r) · 4πr 2<br />

– adiabatische Zustandsänderung c 2 ≈ κ p /̺<br />

oder c 2 ≈ κ RT .<br />

– c ∝ √ T<br />

c 0 ◦ C = 331 m/s<br />

c 20 ◦ C = 343 m/s<br />

– λ = c/f<br />

Seite 124


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

3. Schallausbreitung 1<br />

• Reflexion, Beugung, Streuung:<br />

Die Wellenlänge ist das Maß aller Dinge<br />

3. Schallausbreitung 1<br />

• Brechung: Snelliussches Brechungsgesetz<br />

sin ϑ1<br />

=<br />

sin ϑ2<br />

c1<br />

c2<br />

c > c<br />

1 2<br />

(Reichardt)<br />

Seite 125


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

3. Schallausbreitung 1<br />

• Schallausbreitung in der Atmosphäre - normal<br />

T c<br />

• Schallausbreitung in der Atmosphäre - laue Sommernacht<br />

T c<br />

4. Schallausbreitung 2<br />

• Wellengleichung<br />

(d’Alambert, Euler, Lagrange 1747-1762)<br />

∆p(r,t) − 1<br />

c2 ∂2p(r,t) ∂t2 = 0<br />

– Laplace-Operator (in kartesischen Koordinaten)<br />

∆(r = x, y,z) = ∂2<br />

∂x<br />

∂y<br />

2 + ∂2<br />

∂z 2<br />

2 + ∂2<br />

– Voraussetzungen: adiabatische Zustandsänderung,<br />

keine Quellen im betrachteten Volumen, v ≪ c<br />

• Annahme sinusförmiger Zeitverläufe<br />

p(t) = ˆp cos(ωt + ϕp) = ℜ{ ˆp(ω) e jϕp(ω) e jωt }<br />

= ℜ{ ˆp(ω) e jωt }<br />

∆ˆp(r,ω)+k 2 ˆp(r,ω) = 0 Helmholtz-Gleichung, k = ω<br />

c<br />

Seite 126


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

4. Schallausbreitung 2<br />

• Beziehung zwischen Schalldruck und Schallschnelle<br />

– eindimensional: Luftvolumen Sdx wird durch Kraft<br />

Sp(x) − Sp(x + dx) in x-Richtung beschleunigt,<br />

S p(x) − p(x + dx) = ̺ Sdx dvx<br />

dt<br />

.<br />

– dreidimensional<br />

−grad p = ̺ ∂v<br />

∂t<br />

5. Ebene Wellen<br />

− ∂p<br />

∂x<br />

• Wo kommen ebene Wellen vor?<br />

= ̺ ∂vx<br />

∂t<br />

− grad ˆp(ω) = jω̺ ˆ v(ω)<br />

(sinusförmige Anregung)<br />

– in Rohren bei tiefen Frequenzen (ka < 1.84)<br />

• ebene Wellen - 1D-Betrachtung in x-Richtung<br />

∂ ˆp(x, ω)<br />

∂x + k2 ˆp(x, ω) = 0<br />

• Lösung: ˆp(x, ω) = ˆpe(ω) e −jkx + ˆpr(ω) e +jkx<br />

ˆv x(x, ω)̺ c = ˆpe(ω) e −jkx − ˆpr(ω) e +jkx<br />

ˆpe(ω) und ˆpr(ω) aus Randbedingungen<br />

Seite 127


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

5. Ebene Wellen<br />

• Beispiel: Rohr der Länge L, rechts mit spezifischer Impedanz<br />

ZW(ω) abgeschlossen, links mit kolbenförmiger<br />

Schnelle ˆv0(ω) angeregt<br />

ˆp(x, ω) = ˆpe(ω) e −jkx + ˆpr(ω) e +jkx<br />

ˆv x(x, ω)̺ c = ˆpe(ω) e −jkx − ˆpr(ω) e +jkx<br />

ˆp(x = 0, ω)<br />

ZW(ω) =<br />

ˆv x(x = 0, ω) = ̺ c ˆpe(ω) + ˆpr(ω)<br />

ˆpe(ω) − ˆpr(ω)<br />

ˆv0(ω) = ˆv x(x = −L, ω) = 1<br />

<br />

ˆpe(ω) e<br />

̺ c<br />

+jkL − ˆpr(ω) e −jkL<br />

<br />

führt zu<br />

ˆpr(ω) = ˆpe(ω) ZW(ω) − ̺ c<br />

= ˆpe(ω)r<br />

ZW(ω) + ̺ c<br />

ˆv0(ω)̺ c<br />

ˆpe(ω) =<br />

e +jkL − re−jkL r . ..Reflexionsfaktor<br />

5. Ebene Wellen<br />

• ˆp(x = 0) re ̺cˆv0, <strong>für</strong> ZW = ̺c 1 + 2j ,<br />

Rohrlänge L = 3 cm<br />

Schalldruckamplitude re ρcv<br />

6 6.0<br />

4 4.0<br />

Schalldruckamplitude re rho c v0<br />

2 2.0<br />

0 0.0<br />

0<br />

2k 4k 6k 8k 10k<br />

0 2000 4000 6000 8000 10000<br />

Frequenz in Hz<br />

Frequenz in Hz<br />

Seite 128


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

5. Ebene Wellen<br />

• Beispiele <strong>für</strong> Wandimpedanzen<br />

– Querschnittssprung ZW(ω) = ̺ c S1<br />

S2<br />

– starre Masse ZW(ω) = ̺ c + jωm ′′<br />

– Ende in unendlicher Schallwand<br />

6. Kugelwellen<br />

ZW(ω) ka≪1 = ̺ c<br />

• Wo kommen Kugelwellen vor?<br />

<br />

0.5(ka) 2 +j 8<br />

3π ka<br />

<br />

– im Fernfeld von Strahlern, die klein gegen λ sind<br />

Seite 129


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

6. Kugelwellen<br />

• Kugelkoordinaten<br />

r = x2 + y2 + z2 x<br />

cos α =<br />

sinϑ =<br />

√<br />

x2 + y2 √<br />

x2 + y2 √<br />

x2 + y2 + z2 • Laplace-Operator in Kugelkoordinaten:<br />

∆(r,α,ϑ) = ∂2<br />

∂r2+2 r<br />

∂<br />

∂r +<br />

1<br />

r 2 sin 2 ϑ<br />

x<br />

z<br />

α<br />

θ<br />

r<br />

∂2 1<br />

∂α2+ r2 ∂ 2<br />

∂ϑ<br />

y<br />

1 ∂<br />

2+ cot ϑ<br />

r2 ∂ϑ<br />

• allgemeine Lösung der Wellengleichung <strong>für</strong> Abstrahlung<br />

ins freie Schallfeld:<br />

ˆp(r,α,ϑ, ω) ∝ 1<br />

Γ(α, ϑ) e−jkr<br />

r<br />

6. Kugelwellen<br />

• Monopol (Punktstrahler)<br />

z<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0.2<br />

0.4<br />

0.6<br />

0.8<br />

1.0<br />

0.2 0.4 0.6 0.8 1.0<br />

– keine Abhängigkeit von der Richtung, nur von<br />

der Entfernung zu Quelle - 1D-Betrachtung in r-<br />

Richtung<br />

∆p = ∂2p 2<br />

+<br />

∂r2 r<br />

∂p<br />

∂r<br />

1∂<br />

=<br />

r<br />

2 (pr)<br />

∂r2 Seite 130


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

6. Kugelwellen<br />

• Monopol (cont’d)<br />

– Wellengleichung ∂2 (rˆp(ω))<br />

∂r 2<br />

– Schalldruck ˆp(r,ω) =<br />

– Richtfaktor Γ(α, ϑ) = 1<br />

jω ̺<br />

4πr<br />

+ k 2 rˆp(ω) = 0<br />

ˆq e−jkr<br />

– Intensität Ir(r,ω) 2πr≫λ = ̺ ω2 ˜q 2<br />

16π 2 r 2 c<br />

ˆq . ..Schallfluss<br />

– Schallleistung P(ω) = ̺ ω2˜q 2<br />

4πc<br />

– Beispiele: Lautsprecher in Kompaktbox bei tiefen<br />

Frequenzen, kleine Schallöffnungen<br />

(z.B. Schlauchenden)<br />

6. Kugelwellen<br />

• Dipol +q<br />

r<br />

d<br />

Δ<br />

x<br />

−q<br />

z<br />

Δ<br />

r<br />

θ r<br />

y<br />

z<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0.2<br />

0.4<br />

0.6<br />

0.8<br />

1.0<br />

0.2 0.4 0.6 0.8 1.0<br />

– rotationssymmetrisch bezüglich z-Achse (unabhängig<br />

von α), aber abhängig von r und ϑ Seite 131


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

L=(N−1)d<br />

6. Kugelwellen<br />

• Dipol (cont’d)<br />

– Schalldruck ˆp(r,ϑ, ω) 2πr≫λ = − ω2 ̺<br />

d cos ϑ ˆq e−jkr<br />

4πrc<br />

– Richtfaktor Γ(α, ϑ) 2πr≫λ = cos ϑ<br />

– Intensität Ir(r,ϑ, ω) 2πr≫λ = ̺ ω4 d 2 ˜q 2<br />

16π 2 r 2 c 3 cos2 ϑ<br />

– Schallleistung P(ω) = ̺ ω4 d 2 ˜q 2<br />

12πc 3<br />

– Beispiele: offener Lautsprecher bei tiefen Frequenzen,<br />

6. Kugelwellen<br />

d<br />

• Strahlerzeile<br />

x<br />

z<br />

Δr<br />

2 Δr<br />

θ<br />

3 Δr<br />

4 Δr<br />

5 Δr<br />

(N−1) Δr<br />

y<br />

z<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0.2<br />

0.4<br />

0.6<br />

0.8<br />

1.0<br />

0.2 0.4 0.6 0.8 1.0<br />

– weiter rotationssymmetrisch bezüglich z-Achse<br />

(unabhängig von α), aber abhängig von r und ϑ<br />

Seite 132


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

6. Kugelwellen<br />

• Strahlerzeile (cont’d)<br />

– Schalldruck<br />

ˆp(r,ϑ, ω) 2πr≫λ =<br />

– Richtfaktor<br />

jω ̺<br />

4πr<br />

Γ(ϑ, ω) 2πr≫λ = 1<br />

N<br />

6. Kugelwellen<br />

• Strahlerzeile (cont’d)<br />

ˆqNΓ(ϑ, ω) e−jk<br />

r+ N−1<br />

sin (Nπ d/λ) cos ϑ <br />

sin (π d/λ) cos ϑ <br />

2<br />

<br />

d cos ϑ<br />

– Beispiele: gerichtete Beschallung in Kirchen, auf<br />

Bahnsteigen; gleiche Prinzipiem gelten reziprok<br />

auch <strong>für</strong> Richtmikrofone!<br />

(Quelle: Microtech Gefell)<br />

Seite 133


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

6. Kugelwellen<br />

• starrer Kreiskolben in Schallwand,<br />

Schwingschnelle ˆv 0<br />

θ r<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

000000000000<br />

111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

000000000000<br />

111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

000000000000<br />

111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

000000000000<br />

111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

000000000000<br />

111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

000000000000<br />

111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

000000000000<br />

111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

a<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

00000000000000000000000000000000000<br />

11111111111111111111111111111111111<br />

z<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

x<br />

z<br />

0.2 0.4 0.6 0.8 1.0<br />

y<br />

ka=1<br />

ka=3<br />

ka=5<br />

ka=10<br />

– weiter rotationssymmetrisch bezüglich z-Achse<br />

(unabhängig von α), aber abhängig von r und ϑ<br />

6. Kugelwellen<br />

• starrer Kreiskolben in Schallwand (cont’d)<br />

– Schalldruck auf Achse (ϑ = 0 ◦ )<br />

Schalldruckamplitude re ρcv<br />

2 2.0<br />

1.5<br />

Schalldruckamplitude re rho c vz<br />

1 1.0<br />

0.5<br />

0 0.0<br />

0 100<br />

200 300 400<br />

0 100 200 300 400<br />

kz<br />

kz<br />

ˆp(z, ω) z≫a 2 /λ−λ/4 =<br />

– Richtfaktor<br />

Γ(ϑ, ω) 2πr≫λ = 2 J1<br />

jω̺ πa2<br />

2πz<br />

ˆv e −jkz<br />

(2π a/λ) sin ϑ <br />

(2π a/λ) sin ϑ<br />

Seite 134


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

7. Echt dreidimensionale Wellen<br />

• Lösung der Wellengleichung durch Produktansatz und<br />

Koordinatensystem-angepasste Randbedingungen<br />

(lokal reagierende Ränder)<br />

• z.B. Eigenschwingungen im Quaderraum mit schallharten<br />

Wänden<br />

– Helmholtz-Gleichung<br />

∂ 2 ˆp<br />

∂x 2 + ∂2 ˆp<br />

∂y 2 + ∂2 ˆp<br />

∂z 2 + k2 ˆp = 0<br />

– Randbedingungen: Normalenschnelle an den<br />

Wänden gleich Null<br />

∂ ˆp<br />

∂x x=0,Lx<br />

= 0,<br />

∂ ˆp<br />

∂y y=0,Ly<br />

= 0,<br />

∂ ˆp<br />

∂z z=0,Lz<br />

= 0.<br />

7. Echt dreidimensionale Wellen<br />

– Produktansatz<br />

führt zu<br />

1<br />

∂ 2 ˆp x<br />

∂x 2<br />

ˆp<br />

x<br />

<br />

ˆp(x, y,z) = ˆp x (x) · ˆp y (y) · ˆp z (z)<br />

∂ 2 ˆp y<br />

+ 1<br />

ˆp ∂y<br />

y<br />

2<br />

<br />

∂ 2 ˆp z<br />

∂z 2<br />

+ 1<br />

ˆp<br />

z<br />

<br />

unabhängig unabhängig unabhängig<br />

von x, y,z von x, y,z von x, y,z<br />

= −k 2 x = −k 2 y = −k 2 z<br />

+ k 2 = 0<br />

Seite 135


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

7. Echt dreidimensionale Wellen<br />

– damit 3 gewöhnliche Differenzialgleichungen<br />

∂2 ˆp<br />

x + k2<br />

∂x2 xˆp = 0<br />

x<br />

→ ˆp = Ae<br />

x −jkxx +jkxx<br />

+ Be<br />

∂2 ˆp<br />

y<br />

+ k2<br />

∂y2 y ˆp = 0<br />

y<br />

→ ˆp = Ce<br />

y −jkyy +jkyy<br />

+ De<br />

∂2 ˆp<br />

z + k2<br />

∂z2 z ˆp = 0<br />

z<br />

→ ˆp = Ee<br />

z −jkzz +jkzz<br />

+ Fe<br />

insgesamt:<br />

ˆp(x, y,z) = Ae −jkxx + Be +jkxx Ce −jkyy + De +jkyy <br />

Ee −jkzz + Fe +jkzz <br />

mit k 2 x + k 2 y + k 2 z = k 2 .<br />

7. Echt dreidimensionale Wellen<br />

– Randbedingungen: ∂ ˆp<br />

<br />

−jkxAe −jkxx +jkxx<br />

+ jkxBe<br />

x=0,Lx<br />

∂x x=0,Lx<br />

x = 0 : A = B<br />

x = Lx : e−jkxLx +jkxLx − e = 0<br />

−2j sin <br />

kxLx = 0<br />

= 0<br />

ˆp y (y)ˆp z (z) = 0<br />

kx = (nxπ)/Lx<br />

analog: C = D<br />

ky = (nyπ)/Ly<br />

E = F<br />

kz = (nzπ)/Lz<br />

Seite 136


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

7. Echt dreidimensionale Wellen<br />

– aus k 2 x +k 2 y +k 2 z = k 2 = ω 2 /c 2 folgen die Eigenfre-<br />

quenzen<br />

fn = c<br />

<br />

nx<br />

2<br />

Lx<br />

2<br />

+<br />

<br />

ny<br />

2<br />

Ly<br />

+<br />

<br />

nz<br />

2<br />

– bei den Eigenfrequenzen ergibt sich <strong>für</strong> ˆp n (x, y,z)<br />

ˆp (x, y,z,fn) =<br />

n <br />

nxπ<br />

<br />

nyπ<br />

<br />

nzπ<br />

<br />

const · cos x cos y cos z<br />

Lx<br />

<br />

Das Produkt cos · cos · cos · heißt zur<br />

n ten Eigenfrequenz zugehörige Eigenfunktion<br />

Ψn(x, y,z)<br />

7. Echt dreidimensionale Wellen<br />

• erzwungene Schwingungen durch Punktstrahler<br />

(ˆq s (ω) an der Stelle xs, ys, zs), kleine Dämpfung<br />

ˆp(x, y,z,ω)<br />

ˆq s (ω)<br />

jω̺ c2<br />

= −<br />

V<br />

<br />

n<br />

Ly<br />

Lz<br />

Lz<br />

Ψn(x, y,z)Ψs,n(xs, ys, zs)<br />

ω 2 − ω 2 n + δ 2 n<br />

Summe von “Moden” mit Eigenfrequenzen ωn<br />

(inkl. Dämpfung δn) und dazugehörigen Empfängerund<br />

Sender-Eigenfunktionen Ψn(x, y,z) und<br />

Ψn(x, y,z)<br />

In der Praxis werden die ωn, δn, Ψn(x, y,z) und<br />

Ψn(x, y,z) durch Messung von ˆp(x, y,z,ω) ˆq s (ω)<br />

bestimmt (experimentelle Modalanalyse)<br />

Seite 137


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

7. Echt dreidimensionale Wellen<br />

• Modendichte in Räumen<br />

dN<br />

df<br />

≈ 4πV f 2<br />

z.B. typischer Wohnraum (V = 40 m 3 ):<br />

0.12 Moden/Hz @ f = 100 Hz<br />

12 Moden/Hz @ f = 1 kHz<br />

8. Diffuses Schallfeld<br />

•<br />

ÜF des Schalldrucks in typischem Wohnraum<br />

Übertragungsfunktion in dB<br />

150<br />

100<br />

c 3<br />

50<br />

0 100 200 300 400 500<br />

Frequenz in Hz<br />

• Idee: statistische Betrachtung, d.h. Mittelung (über<br />

Ort, Zeit, Frequenz)<br />

→ Schallenergiedichte w = dW/dV = ˜pB 2 (̺ c 2 )<br />

• ideal diffuses Schallfeld: 1.) w an allen Punkten gleich<br />

groß, 2.) an jedem Punkt alle Schalleinfallsrichtungen<br />

gleich wahrscheinlich<br />

• Grundgleichung V dw<br />

dt<br />

cA<br />

+ w = P<br />

4<br />

Seite 138


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

8. Diffuses Schallfeld<br />

• Anwendbarkeit:<br />

– Mittelung über ausreichend viele Moden (Betrachtung<br />

in Frequenzbändern mit ausreichen hoher Modendichte)<br />

→ untere Grenzfrequenz <strong>für</strong> Terzen<br />

fg = 700 Hz 3 V/m3 (20 Moden pro Terz)<br />

→ alternativ: fg = 2000 Hz T/s<br />

V/m3 (3 Moden pro mittlerer Moden-Bandbreite)<br />

– genügend weit weg von Quellen und Wänden<br />

– (möglichst zufällige Verteilung der Wandimpedanz)<br />

8. Diffuses Schallfeld<br />

• Spezialfall zeitlich stationäre Anregung (dw/dt = 0)<br />

A<br />

4<br />

˜pB 2<br />

̺ c<br />

= P<br />

– A äquivalente Schallabsorptionsfläche<br />

A = <br />

i αiSi <br />

A = −S ln<br />

(Sabine)<br />

(Eyring)<br />

Si, αi<br />

S = <br />

1 − 1<br />

S<br />

i αiSi<br />

Flächeninhalt und Absorptionsgrad der<br />

iten Teilfläche<br />

i Si Gesamtfläche<br />

– als Pegel ausgedrückt<br />

LW = Lp,m + 10 lg A<br />

dB<br />

4 m2 Seite 139


Was ist Schall?<br />

Grundgrößen: p, v,...<br />

Schallausbreitung 1<br />

Schallausbreitung 2<br />

Ebene Wellen<br />

Kugelwellen<br />

Echt ...<br />

Diffuses Schallfeld<br />

8. Diffuses Schallfeld<br />

• Spezialfall Abschalten einer stationären Quelle<br />

V dw<br />

dt<br />

cA<br />

+ w = 0<br />

4<br />

– Lösung: w(t) = w0 e−t/τ mit τ = 4V/(cA)<br />

– als Pegel ausgedrückt<br />

Lp,m = L0 − 2.5cA<br />

t dB<br />

V ln 10<br />

L p /dB<br />

0<br />

−20<br />

−40<br />

−60<br />

Nachhallzeit T<br />

0 1 2 3<br />

−60 dB<br />

t/s<br />

T = 24 ln 10 V<br />

cA<br />

= 55.3 V<br />

c A


Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

Akustische Messverfahren<br />

Prof.Dr.-Ing. Matthias Blau<br />

Institut <strong>für</strong> Hörtechnik und <strong>Audiologie</strong><br />

FH <strong>Oldenburg</strong>/Ostfriesland/Wilhelmshaven<br />

XXI. Winterschule der <strong>Deutsche</strong>n <strong>Gesellschaft</strong> <strong>für</strong> Medizinische Physik<br />

Pichl 2009<br />

Übersicht<br />

1. Das Wesen des Messens<br />

2. Instrumentierung<br />

3. Schallpegel<br />

4. Spektren<br />

5. Übertragungsfunktionen<br />

Seite 141


Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

1. Das Wesen des Messens<br />

• Messen bedeutet Parametrisieren von Modellen<br />

• im Zusammenhang mit akustischen Messungen häufig<br />

verwendete Modelle:<br />

a) wenn die Anregung nicht kontrolliert werden kann:<br />

stationäre Zufallsprozesse<br />

→ aufgenommener Schalldruck ist Stichprobe eines<br />

bandbegrenzten Gauß-Prozesses<br />

p ∼ N(0, ˜p 2 ) mit ˜p 2 = +∞<br />

−∞ Γpp(f) df<br />

→ Messaufgabe: schätze ˜p 2 oder Γpp(f)<br />

b) wenn die Anregung kontrolliert werden kann:<br />

LTI-System<br />

→ Messaufgabe: schätze H(f) oder h(t)<br />

• wenn Bedingung b) erfüllt ist, immer<br />

Übertragungsfunktionen / Impulsantworten messen!<br />

2. Instrumentierung<br />

• Schalldruck p: Mikrofone<br />

– bei Messmikrofonen unterschiedliche Entzerrungen<br />

(Druck vs. Freifeld vs. Diffusfeld) beachten<br />

– Signalkonditionierung: integrierte Vorverstärker,<br />

externe Speiseteile (Polarisationsspannung bei<br />

Messmikrofonen!)<br />

– Kalibrierung: in der Regel in kleinen abgeschlossenen<br />

Volumina<br />

Seite 142


Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

2. Instrumentierung<br />

• Schallschnelle v: Mikrofonpaare oder Hitzdraht-<br />

Anemometrie<br />

– Signalkonditionierung: siehe Messmikrofone bzw.<br />

spezielle Speisung bei Hitzdrahtsonden<br />

– Kalibrierung: in speziellen Kupplern (Mikrofonpaare)<br />

bzw. in Rohren oder im Freifeld<br />

2. Instrumentierung<br />

• Schwingbeschleunigung a bzw. Schwingschnelle v:<br />

Beschleunigungsaufnehmer bzw. Laser-Vibrometrie<br />

– Signalkonditionierung: Ladungsverstärker bzw.<br />

Laser-Controller<br />

– Kalibrierung: Kalibrierschwingtische, ggf. mit<br />

Kalibriermassen<br />

Seite 143


Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

2. Instrumentierung<br />

• Signalanalyse<br />

– <strong>für</strong> Standardaufgaben entsprechende Kiste kaufen<br />

– <strong>für</strong> Forschung/Entwicklung PC-basierte Systeme<br />

(offen, flexibel), z.B. PureMeasurement<br />

(www.hoertechnik-audiologie.de/downloads)<br />

3. Wer misst, misst Mist<br />

• empfohlene Strategie: AAA<br />

• Anhören:<br />

• Anschauen: Oszillogramme,<br />

Spektrogramme,<br />

. ..<br />

• Analysieren: Kohärenz, . . .<br />

Rauschen?, Verzerrungen?,<br />

Brummen?, . . . ?<br />

Seite 144


Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

4. Schallpegel<br />

• Definition Schalldruckpegel Lp = 10 lg ˜p 2 /p2 <br />

0 dB<br />

• ˜p 2 : p(t) quadrieren, zeitlich mitteln (integrieren)<br />

˜p 2 (tx) = 1<br />

tx<br />

p<br />

τ<br />

2 (t) e −(tx−t)/τ<br />

dt<br />

quadrierter quadrierter quadrierter quadrierter Schalldruck<br />

Schalldruck<br />

Schalldruck<br />

Y−Axis<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

2<br />

p p p p (t)<br />

−(t −t)/<br />

e x −t)/<br />

e x −t)/<br />

p p 22<br />

(t) ee τ<br />

−(t x −t)/ τ<br />

t=−∞<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

000000000000000000000000000000000000000000000000000<br />

111111111111111111111111111111111111111111111111111<br />

0 0 0.1 0.1 0.2 0.2 0.2 0.3 0.3 0.3<br />

X−Axis<br />

τSLOW = 1s, τFAST = 125ms<br />

4. Schallpegel<br />

• zeitliche Mittelung<br />

– äquivalenter Dauerschallpegel Leq<br />

<br />

1 2 ˜p (tx)<br />

<br />

Leq = 10 lg Ti Mittelwert<br />

tx in Ti<br />

<br />

dB<br />

oder<br />

Tr<br />

<br />

1<br />

Leq = 10 lg<br />

i<br />

Tr<br />

Tr<br />

t=0<br />

p 2 (t) dt<br />

t x<br />

p 2 0<br />

<br />

t<br />

p 2<br />

0 dB<br />

– Taktmaximal-Mittelungspegel LT,m oder LT,eq<br />

<br />

1 2 ˜p (tx)<br />

<br />

LT,m = 10 lg Ti max<br />

tx in Ti<br />

<br />

dB<br />

Tr<br />

i<br />

p 2 0<br />

Seite 145


Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

5. Spektren<br />

• Spektren über Filter<br />

– Oktav-, Terzfilter: konstante relative Bandbreite<br />

– IEC 1260<br />

a) fm,i,Oktav = 2 i · 1 kHz, fm,i,Terz = 2 (i/3) · 1 kHz<br />

b) fm,i,Oktav = 10 i0.3 ·1 kHz, fm,i,Terz = 10 (i0.1) ·1 kHz<br />

filter gain<br />

Y − A x i s<br />

1 E 0 1<br />

1 E − 1 0.1<br />

1 E − 2 0.01<br />

1 E − 3 0.001<br />

1 E − 4 0.0001<br />

5. Spektren<br />

1 E − 1 1 E 0 1 E 1<br />

X − A x i s<br />

0.1 1<br />

10<br />

frequency re mid frequency<br />

• Spektren über Filter (cont’d)<br />

– im Zeitbereich: Verzögerung TR ≈ 1/B, effektive<br />

Länge TE ≈ 3/B<br />

→ z.B. Terzfilter, fm = 50 Hz: TR ≈ 87 ms,<br />

TE ≈ 260 ms<br />

→ <strong>für</strong> Nachhallzeitmessungen: BT > 16<br />

Seite 146


Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

5. Spektren<br />

• Spektren über Filter (cont’d)<br />

– Statistik von Effektivwertschätzern<br />

∗ Modell: pB ∼ N(0, ˜pB 2 )<br />

∗ Schätzer 1 (zeitkontinuierlich, Rechteckfenster):<br />

˜p 2 <br />

1<br />

B = p<br />

T T<br />

2<br />

B(t) dt<br />

<br />

E ˜p 2<br />

B = ˜p 2<br />

<br />

B, Var ˜p 2<br />

B<br />

= ˜p4 B<br />

BT<br />

∗ Schätzer 2 (zeitdiskret, Rechteckfenster):<br />

˜p 2 N 1<br />

B,N = p<br />

N<br />

n=1<br />

2<br />

B(n/Fs)<br />

<br />

E ˜p 2<br />

B,N = ˜p 2<br />

<br />

B, Var ˜p 2<br />

B,N<br />

5. Spektren<br />

• Spektren über Filter (cont’d)<br />

= 1<br />

N<br />

˜p 4 B<br />

B/Fs<br />

∗ Schätzer 3 (zeitdiskret, Exponentialfenster):<br />

2 ˜p B,α (n) = αp 2<br />

B(n) + 1 − α 2 ˜p B,α (n − 1)<br />

äquivalente Zeitkonstante τ = − 1<br />

ln(1 − α)<br />

<br />

E ˜p 2<br />

B,α<br />

= ˜p 2<br />

<br />

B, Var ˜p 2<br />

B,α<br />

Fs<br />

= α<br />

2 − α<br />

B/Fs<br />

– bei allen Schätzern ist die Varianz umgekehrt proportional<br />

zu Filterbandbreite B und der jeweiligen<br />

Mittelungszeit<br />

– daher bei Terz-/Oktavfiltern besonders bei niedrigen<br />

Mittenfrequenzen hohe Varianz aufgrund<br />

kleiner Filterbandbreite<br />

˜p 4 B<br />

Seite 147


Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

5. Spektren<br />

• Spektren über FFT<br />

– Modell: p ∼ N(0, ˜p 2 ), ˜p 2 =<br />

+∞<br />

−∞<br />

Γpp(f) df<br />

– Messaufgabe: Schätzen der Leistungsdichte<br />

Γpp(f) = F γpp(τ) 1<br />

= lim<br />

T →∞ T EP ∗<br />

T(f)PT(f) <br />

– Realisierung: Methode nach Welch (1967)<br />

Spp(f = kFs/M) = 1<br />

R 1<br />

P<br />

R MUM r=1<br />

∗<br />

M(k, r)PM(k,r)<br />

PM(k) = FFT pM(m)wM(m) <br />

MUM =<br />

5. Spektren<br />

p<br />

M = 2 q<br />

Bewertung<br />

mit Zeitfenster<br />

FFT<br />

P (k,1)<br />

M<br />

M<br />

m=1<br />

w 2<br />

M(m) Fensterenergie<br />

M = 2 q<br />

Bewertung<br />

mit Zeitfenster<br />

FFT<br />

P (k,2)<br />

M<br />

t<br />

Seite 148


Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

5. Spektren<br />

• Spektren über FFT (cont’d)<br />

– Vergleich des Welch-Schätzers mit wahrer Leistungsdichte<br />

∗ Zeitabtastung → aliasing im Frequenzbereich<br />

Lösung: analoge Anti-Alias-Filter<br />

∗ M endlich → leakage im Frequenzbereich<br />

Lösung: Hann-Fenster mit M > 4Fs/Br<br />

∗ Mittelung über endlich viele (R) Blöcke<br />

→ zufällige Schwankungen des Schätzers<br />

Lösung: R groß genug, überlappende Blöcke<br />

Var Spp(k) <br />

Var Spp(k) <br />

5. Spektren<br />

• Spektren über FFT (cont’d)<br />

kein overlap<br />

50% overlap<br />

≈ 1<br />

R S2<br />

pp(k)<br />

≈ 11<br />

9R S2<br />

pp(k)<br />

– Nachbemerkung zu Skalierungsfaktoren<br />

analog: ˜p 2 =<br />

zeitdiskret: 1<br />

N<br />

N<br />

n=1<br />

p 2<br />

<br />

n<br />

<br />

Fs<br />

+∞<br />

−∞<br />

Γpp(f) df<br />

↓ Zeitabtastung<br />

<br />

Spp = FsΓpp<br />

= 1<br />

Fs<br />

+ 1<br />

2<br />

− 1<br />

2<br />

Spp<br />

f<br />

Fs<br />

<br />

↓ Frequenzabtastung<br />

= Fs/M<br />

M<br />

Spp(k)<br />

Fs<br />

k=1<br />

<br />

f<br />

<br />

d<br />

Fs<br />

Seite 149


Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

6. Übertragungsfunktionen<br />

• Modell: LTI-System<br />

• Messaufgabe: Hxy(f) = Y (f)/X(f) schätzen<br />

• in Praxis sind betrachtete Systeme häufig schwach<br />

nichtlinear oder/und zeitvariant<br />

Y(f)<br />

X(f)<br />

Y(f)<br />

X(f)<br />

→ Entscheidung: Schätzung des punktuellen (einzelner<br />

Anregungspegel, einzelner Zeitpunkt) oder des<br />

gemittelten Verhaltens?<br />

6. Übertragungsfunktionen<br />

• Problem Messrauschen<br />

– Modell ohne Rauschen/Artefakte<br />

H (f) Y(f)<br />

X(f) xy<br />

Y (f) = Hxy(f)X(f)<br />

Γxy(f) = Hxy(f)Γxx(f)<br />

Γyy(f) = Hxy(f)Γ ∗<br />

xy(f)<br />

– Modell mit unkorreliertem Rauschen<br />

Testsignal<br />

U(f)<br />

M(f)<br />

X(f)<br />

gemessenes<br />

Eingangssignal<br />

H (f)<br />

xy<br />

N(f)<br />

Y(f)<br />

gemessenes<br />

Ausgangssignal<br />

V(f)<br />

Seite 150


Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

6. Übertragungsfunktionen<br />

• punktuellen Schätzung - deterministische Testsignale<br />

– Testsignale: Sinus, stepped sine, Multiton, Sweeps,<br />

Maximalfolgen<br />

– Schätzer:<br />

a) Hxy(f) =<br />

b) Hxy(f) = 1<br />

R<br />

R r=1 YM(f, r)<br />

R r=1 XM(f, r)<br />

R<br />

r=1<br />

YM(f, r)<br />

XM(f, r)<br />

– Messrauschen führt nur zu zufälligen Fehlern<br />

6. Übertragungsfunktionen<br />

• mittlere Schätzung - zufällige Testsignale<br />

– Testsignale: weißes oder gefärbtes Rauschen,<br />

Sprache, Musik<br />

– Modell: Messrauschen, Nichlinearitäten und Zeitvarianzen<br />

werden als unkorrelierte Rauschvorgänge<br />

auf Eingang und Ausgang betrachtet<br />

→ <strong>für</strong> jede betrachtete Frequenz f gilt<br />

<br />

Γyy Γ∗ <br />

xy 1 Γnn 0 1<br />

=<br />

Γxy Γxx<br />

−Hxy<br />

0 Γmm<br />

−Hxy<br />

– verschiedene Schätzer sind jeweils optimal <strong>für</strong> bestimmte<br />

Annahmen zu den Rauschvorgängen auf<br />

Eingang und Ausgang<br />

Seite 151


Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

6. Übertragungsfunktionen<br />

• mittlere Schätzung - zufällige Testsignale (cont’d)<br />

– H1-Schätzer<br />

∗ Annahme: Γmm = 0<br />

(kein Rauschen am Eingang)<br />

∗ Schätzer:<br />

Hxy = Γxy<br />

∗ was wenn . . . ?<br />

→ Unterschätzung<br />

Γxx<br />

6. Übertragungsfunktionen<br />

• mittlere Schätzung - zufällige Testsignale (cont’d)<br />

– H2-Schätzer<br />

∗ Annahme: Γnn = 0<br />

(kein Rauschen am Ausgang)<br />

∗ Schätzer:<br />

Hxy = Γyy<br />

Γ ∗ xy<br />

∗ was wenn . . . ?<br />

→ Überschätzung<br />

Seite 152


Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

6. Übertragungsfunktionen<br />

• mittlere Schätzung - zufällige Testsignale (cont’d)<br />

– H3-Schätzer<br />

∗ Annahme: Γxx/Γmm = Γyy/Γnn<br />

(gleiche SNRs an Ein- und Ausgang)<br />

∗ Schätzer: <br />

Hxy =<br />

Γxy Γyy<br />

Γxx Γ∗ xy<br />

∗ was wenn . . . ?<br />

→ Unter- oder Überschätzung<br />

6. Übertragungsfunktionen<br />

• mittlere Schätzung - zufällige Testsignale (cont’d)<br />

– HV -Schätzer<br />

∗ Annahme: Γmm = Γnn (Rauschen auf Eingang<br />

und Ausgang gleich groß, aber unkorreliert)<br />

∗ Schätzer:<br />

Hxy = 1<br />

<br />

2Γxy<br />

Γyy − Γxx<br />

+<br />

<br />

Γyy<br />

2 − Γxx + 4 Γxy<br />

∗ was wenn . . . ?<br />

→ Unter- oder Überschätzung<br />

2<br />

<br />

Seite 153


Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

6. Übertragungsfunktionen<br />

• mittlere Schätzung - zufällige Testsignale (cont’d)<br />

– Problem zeitliche Verzögerung zwischen Eingangsund<br />

Ausgangssignal (z.B. durch Schallausbreitung)<br />

∗ führt zu systematischen Fehlern<br />

Kreuzleistungsdichte <br />

Sxy ≈ 1 − τ<br />

<br />

Sxy<br />

M/Fs<br />

Übertragungsfunktion <br />

Hxy ≈ 1 − τ<br />

<br />

Kohärenz γ 2 xy ≈<br />

M/Fs<br />

<br />

1 − τ<br />

M/Fs<br />

Hxy<br />

2<br />

γ 2<br />

xy<br />

∗ Abhilfe: a) Zeitfenster lang genug<br />

b) Verzögerung um τ im gemessenen<br />

x(t) kompensieren<br />

6. Übertragungsfunktionen<br />

• mittlere Schätzung - zufällige Testsignale (cont’d)<br />

– zufällige Fehler<br />

∗ H-Schätzer beruhen auf Schätzern von Leistungsdichten,<br />

die ihrerseits zufällige Fehler<br />

aufweisenm, siehe Abschnitt 5<br />

∗ aber: zufällige Fehler der Leistunsdichteschätzer<br />

sind häufig stark korreliert, da sie in der<br />

Regel aus einem Prozess hervorgegangen sind<br />

∗ wichtige Varianzformeln:<br />

Var 1 − γ<br />

Hxy<br />

≈ 2 xy 2<br />

Hxy<br />

2Rγ 2 xy<br />

Var arg 1 − γ<br />

Hxy<br />

≈ 2 xy<br />

2Rγ2 xy<br />

rad 2<br />

Seite 154


Das Wesen des ...<br />

Instrumentierung<br />

Wer misst, misst Mist<br />

Schallpegel<br />

Spektren<br />

Übertragungsfunktionen<br />

6. Übertragungsfunktionen<br />

• praktische Vorgehensweise<br />

1. AAA<br />

2. mit Rauschen beginnen<br />

3. keine Übertragungsfunktion ohne Kohärenz!<br />

2<br />

(ΓxxΓyy) ist wichtiger Indikator <strong>für</strong><br />

γ2 xy = Γxy<br />

viele Fehler (schlechtes SNR, leakage Nichtlinearitäten,<br />

Zeitvarianzen)<br />

Achtung: bei periodischen Anregungssignalen<br />

reagiert γ2 xy nicht auf Übersteuerungen!<br />

4. Vergleich mit Multitonsignal, Fensterlänge optimieren<br />

(ggf. x(t) verzögern)<br />

5. Entscheidung <strong>für</strong> ein Anregungssignal, Anregungspegel<br />

optimieren


156


Signalverarbeitung <strong>für</strong> Hörhilfen und <strong>Audiologie</strong><br />

Einführung<br />

Norbert Dillier / Zürich<br />

Ausgehend von der Feststellung und diagnostischen Eingrenzung einer Hörstörung schliesst<br />

sich wenn möglich eine Behandlung dieser Hörstörung durch medizinische und technische<br />

Mittel an. Medizinische Behandlungsmöglichkeiten beinhalten medikamentöse Therapien<br />

und chirurgische Eingriffe. Technische Lösungen bestehen aus der Anpassung von Hörinstrumenten<br />

bzw. implantierbaren Systemen (Mittelohr-, Cochlea- und Hirnstammimplantate).<br />

In diesem Beitrag beschränken wir uns auf die technisch-apparativen Rehalibitationsmöglichkeiten<br />

und dabei insbesondere auf Aspekte der Signalverarbeitung.<br />

Ziele der Signalverarbeitung <strong>für</strong> Hörinstrumente, Hörhilfen, Sprachprozessoren oder Kommunikationsgeräte<br />

ist es, die zur sprachlichen Verständigung erforderlichen Schallsignale <strong>für</strong><br />

die hörgeschädigte Person wahrnehmbar („Hören“) und unterscheidbar („Verstehen“) zu<br />

machen und wenn möglich einem natürlichen Klangempfinden („Hörqualität“) anzunähern.<br />

Traditionelle Hörgeräte mussten sich aufgrund der begrenzten Möglichkeiten der Analogschaltungstechnik<br />

auf einfache Verstärkung, Filterung und Pegelbegrenzung beschränken.<br />

Moderne Systeme mit digitaler Signalverarbeitung erlauben vielfältigere und neuartige<br />

Transformationen der Schallsignale, sodass vielleicht in nicht allzu ferner Zukunft die Vision<br />

eines „Verstehgerätes“ im Unterschied zu den bisherigen „Hörgeräten“ erfüllt sein könnte.<br />

Die Algorithmen und Verfahren der digitalen Signalverarbeitung können in zwei grosse Klassen<br />

unterteilt werden. Die erste Gruppe ist relativ eng an die konkreten Ausprägungen eines<br />

Hörschadens gekoppelt und versucht, aufgrund möglichst genauer individueller Angaben<br />

über Art und Ausmass dieses Hörschadens Signalverarbeitungsparameter so zu wählen,<br />

dass Grundfunktionen der gestörten Hörwahrnehmung wie Lautheits- und Tonhöhenempfindung,<br />

Detektion zeitlicher Modulationen und weitere Klangeigenschaften möglichst gut kompensiert<br />

werden. Die zweite Gruppe betrifft globalere Funktionen, welche als Vorverarbeitung<br />

<strong>für</strong> praktisch beliebige nachgeschaltete Systeme benutzt werden können. Reduzierung<br />

von Störlärmeinfluss durch gesteuerte Richtmikrofone, automatische Klassifikation von<br />

Klangsituationen zur Wahl unterschiedlicher Verarbeitungsprogramme, Integration von<br />

Kommunikationssystemen wie Telefon, Raumbeschallungsanlagen, Internetanbindung usw.<br />

Im folgenden werden zu diesen beiden Signalverarbeitungsklassen einige Beispiele vorgestellt.<br />

Signalverarbeitung <strong>für</strong> Innenohrschwerhörigkeit<br />

Die Signalverarbeitung im Gehör und die bei einer Innenohr-Schwerhörigkeit möglicherweise<br />

auftretenden Störungen können vereinfacht wie folgt beschrieben werden. Das Schallsignal<br />

gelangt über Außen- und Mittelohr in das Innenohr, dessen Wirkung grob durch eine<br />

Filterbank mit anschließender einhüllenden Extraktion und Dynamikkompression (kompressive<br />

Nichtlinearität z.B. durch aktive Prozesse im Innenohr) modelliert werden kann. Die weitere<br />

Signalanalyse im Hirnstamm kann durch eine Zerlegung nach Modulationsfrequenzen<br />

(Modulationsfilterbank) und einen binauralen Vergleich mit Störschallunterdrückung charakterisiert<br />

werden. Am Ausgang dieser Vorverarbeitungsstufen stehen die akustischen Merkmale<br />

des Eingangsschallsignals in Form einer „internen Repräsentation“ der kognitiven Ver-<br />

157


arbeitung im Hörkortex zur Verfügung, wo eine optimale Verarbeitung und Mustererkennung<br />

der eingehenden, transformierten Schallsignale vorgenommen wird. Limitiert wird dabei die<br />

„Schärfe“ der internen Repräsentation durch das „interne Rauschen“. Als Störungen ist an<br />

erster Stelle die Abschwächungswirkung zu nennen, die durch Schallleitungs-<br />

Schwerhörigkeit und Ausfall der inneren sowie teilweisen Ausfall der äußeren Haarzellen<br />

bedingt ist, sowie als zweiter Faktor der Kompressionsverlust (Ausfall der äußeren Haarzellen),<br />

an dritter Stelle der binaurale Verlust (Reduktion der binauralen Störschall-<br />

Unterdrückung) und an vierter Stelle eine Erhöhung des internen Rauschens als „zentraler<br />

Hörverlust“.<br />

Ausgehend von diesem grob-schematischen Modell sind folgende Möglichkeiten zur Kompensation<br />

der Verarbeitungsstörung denkbar:<br />

1. Die Abschwächungswirkung lässt sich durch eine lineare Verstärkung kompensieren.<br />

2. Der Kompressionsverlust lässt sich durch eine Dynamikkompression kompensieren, die<br />

modellbasiert erfolgen sollte, um gemäß einem möglichst validierten Verarbeitungsmodell<br />

zu einer optimalen Kompensation dieses Funktionsausfalls zu gelangen.<br />

3. Der binaurale Verlust sollte durch eine „echt“ binaurale Signalverarbeitung (z. B. Verstärkung<br />

der Unterschiede zwischen beiden Ohren) erfolgen, die normalerweise im Gehirn<br />

durch binaurale Signalverarbeitung durchgeführt wird.<br />

4. Der zentrale Hörverlust kann durch eine Stör-Reduktion und eine Anpassung der jeweiligen<br />

Signalverarbeitung an die akute aktuelle akustische Situation erfolgen.<br />

Die Wiederherstellung der Dynamik- und Lautheitsempfindung in unterschiedlichen Frequenzbereichen<br />

erfolgt sinnvollerweise durch einen Lautheitsmodell-gesteuerten Ansatz, bei<br />

dem das jeweilige Eingangssignal einerseits mit einem Lautheitsmodell <strong>für</strong> Normalhörende<br />

bewertet wird und zugleich mit einem Lautheitsmodell <strong>für</strong> den individuellen Schwerhörigen.<br />

Aus dem Vergleich kann die Modifikation des Eingangssignals im Hörgerät so durchgeführt<br />

werden, daß am Ausgang beider Lautheitsmodelle möglichst der gleiche (frequenzabhängige)<br />

Wert resultiert (vgl. Hohmann, 1993, Launer, 1995, Appell, 2002). Da dieser Ansatz wesentlich<br />

von der Güte und Validierung des verwendeten Lautheitsmodells abhängt, gilt es,<br />

hier eine an die Gegebenheiten von Schwerhörenden und an praktische Messungen angepasste<br />

und validierte Version des Lautheitsmodells zu verwenden.<br />

Aussen - und Mittelohr<br />

Auditorische Filterbank<br />

N = ∑ N’<br />

N’~ E α<br />

Bei Hörverlusten werden die<br />

Parameter des Modells<br />

entsprechend modifiziert:<br />

Dämpfung der Anregung<br />

Exponent αSH > αNH<br />

Die Potenzfunktion mit αSH > αNH berücksichtigt<br />

automatisch die Lautheitssummation <strong>für</strong><br />

breitbandige Spektren<br />

Abb. 1:Modell zur Berechnung der Lautheit <strong>für</strong> Normal- und Schwerhörige (modifiziert nach<br />

Zwicker).<br />

158


Das in Abb.1 gezeigte modifizierte Modell berücksichtigt die kochleären Defizite Schwerhöriger.<br />

Die erhöhte Hörschwelle dämpft direkt die Anregung der Cochlea, die Steilheit der<br />

Lautheitsfunktion beeinflusst die Potenzfunktion und die Lautheitsbildung wird damit im Vergleich<br />

zu Normalhörenden stark verändert. Die optimalen Parameter <strong>für</strong> das Lautheitsmodell<br />

liefern das Audiogramm und die Lautheitsskalierung.<br />

Die Zielverstärkung in einem solchen Signalverarbeitungsalgorithmus ist abhängig vom Signal.<br />

In jedem einzelnen Filterband wird die Verstärkung so gewählt, dass die entsprechende<br />

Bandlautheit (spezifische Lautheit) derjenigen eines Normalhörenden bei gleichem Signal<br />

entspricht; die Lautheit wird normalisiert.<br />

Die Umwandlung des Erregungspegel-Musters in eine spezifische Lautheit geschieht durch<br />

eine Lautheitstransformation, die die Form der Isophonen von Normal- und Schwerhörenden<br />

insbesondere bei tiefen Frequenzen und dabei auch neuere Messungen zum Verlauf dieser<br />

Isophonen berücksichtigt (Gabriel et al., 1997). Nach der sich anschließenden spektralen<br />

Aufintegration der spezifischen Lautheit und Bestimmung der Gesamt-Lautheit in sone erfolgt<br />

eine Transformation in kategoriale Einheiten, so daß die Kategorial-Lautheit (KU) vorhergesagt<br />

werden kann, die sich unmittelbar mit Hilfe der kategorialen Lautheitsskalierung<br />

experimentell nachmessen lässt<br />

Herkömmliche Hörgeräte modellieren die Cochlea als lineare, pegelunabhängige Filterbank<br />

und berechnen die Zielverstärkung als Funktion des Schalldruckpegels. Mit einem solchen<br />

Multiband-Konzept können jedoch maskierte Signale nicht erkannt werden, daher werden<br />

auch maskierte Komponenten verstärkt. Diese Fehlsignale äussern sich als Rauschen und<br />

Verzerrungen und beeinträchtigen die Klangqualität des Hörgerätes. Klassische Multiband-<br />

Systeme sind auch nicht in der Lage, schmal- und breitbandige Signale zu differenzieren<br />

und können damit auch die verminderte Lautheitssummation Schwerhöriger nicht kompensieren.<br />

Eine gehörgerechte Signalverarbeitung hingegen bezieht die elementaren Funktionen der<br />

normalen und geschädigten Cochlea wie Maskierung, Lautheit und Lautheitssummation mit<br />

ein.<br />

Möglichkeiten der Störgeräusch-Reduktion<br />

Die derzeitige Lage von Störgeräusch-Unterdrückungs-Algorithmen bei Hörsystemen stellt<br />

sich wie folgt dar:<br />

- Die Annahmen verschiedener Störunterdrückungs-Algorithmen sind in der Realität<br />

nie vollständig erfüllt, so daß in modernen Hörgeräten verschiedene Algorithmen<br />

kombiniert bzw. je nach vorliegender akustischer Umgebungssituation aktiviert und<br />

deaktiviert werden müssen.<br />

- Akustisch „einfache“ Situationen sind mit derzeitiger Technologie beherrschbar (dazu<br />

zählt stationäres Störgeräusch mit einer großen spektralen Differenz zwischen Sprache<br />

und Störgeräusch und stabilen räumlichen Differenzen).<br />

- Probleme bereiten dagegen nach wie vor „schwierige Situationen“, die sich durch instationäre<br />

Störschallquellen, durch Nachhall und durch mehrere gleichzeitig aktive<br />

Sprecher von verschiedenen Richtungen auszeichnen. Hier besteht noch ein großer<br />

Forschungsbedarf.<br />

Die neueste Entwicklung in diesem Bereich stellen adaptive Mehr-Mikrofon-Systeme dar<br />

(Spriet et al., 2005). Bei ihnen wird die Richtcharakteristik in Abhängigkeit von der Einfallsrichtung<br />

des Störgeräusches variiert (siehe Abb. 2)<br />

159


speech<br />

noise<br />

speec<br />

h<br />

noise<br />

160<br />

speech<br />

noise<br />

Abb. 2: Adaptives Richtmikrofonsystem. Die Richtcharakteristik wird in Abhängigkeit von der<br />

Einfallsrichtung des Störgeräusches variiert.<br />

Zur Reduzierung von Störgeräuschen können in digitalen Hörgeräten die Eingangssignale<br />

analysiert und dadurch Nutzsignale von Rauschen unterschieden werden. Die frequenzabhängige<br />

Verstärkung des Hörgerätes kann dann in Abhängigkeit von der Umgebungssituation<br />

geregelt werden. Um Sprache von Störgeräuschen zu unterscheiden, müssen spezielle<br />

Kenntnisse über die Eigenschaften von Sprache herangezogen werden. Mit deren Hilfe<br />

können z. B. Sprachpausen erkannt werden. In solchen Pausen kann das Rauschsignal<br />

näherungsweise berechnet werden und vom Eingangssignal subtrahiert werden. Auf diese<br />

Weise wird das Rauschsignal reduziert. Da die Subtraktion im Frequenzbereich erfolgt,<br />

nennt man dieses Verfahren spektrale Subtraktion (s. z.B. Marcincik und Kollmeier, 1999).<br />

Bei einem anderen Algorithmus werden z. B. die langsamen Schwankungen der Einhüllenden<br />

der Signale berechnet. Die Änderungsgeschwindigkeit der Einhüllenden wird als Modulationsfrequenz<br />

bezeichnet. Die Einhüllende zeigt im Frequenzbereich einen <strong>für</strong> Sprache<br />

typischen Verlauf mit einem Maximum im Bereich von 2-8 Hz. Diese Frequenzen sind durch<br />

den Rhythmus der Sprache (die Dauer der Wörter, Silben und Phoneme) bestimmt und sind<br />

sowohl vom Klang der Stimme als auch von der gesprochenen Sprache unabhängig. Störgeräusche<br />

dagegen beinhalten zumeist andere Modulationsfrequenzen. Ein Algorithmus<br />

kann nun die Einhüllenden der Eingangssignale analysieren. Wenn die typischen Modulationsfrequenzen<br />

von Sprache im Bereich von bis zu 10 Hz nicht vorhanden sind, wird die<br />

Verstärkung in dem entsprechenden Frequenzbereich und damit das Störgeräusch reduziert.<br />

Feedbackreduktion<br />

Ein wichtiges Qualitätsmerkmal von Hörgeräten ist die Unterdrückung der akustischen Rückkopplungen<br />

(Feedback). Sie wird meist durch eine Reduzierung der Verstärkung bei der<br />

Anpassung des Hörgerätes vermieden. Eine andere Möglichkeit sind schmalbandige<br />

Lückenfilter (Notch-Filter), die bei den kritischen Feedbackfrequenzen positioniert werden<br />

und die Verstärkung bei der betreffenden Frequenz damit selektiv reduzieren. Solche statischen<br />

Anpassungen sind jedoch wirkungslos, falls die Rückkopplungen als Reaktion auf<br />

veränderte äußere akustische Bedingungen plötzlich bei einer anderen Frequenz auftreten.<br />

Dieses Problem können adaptive Algorithmen lösen. Sie analysieren ständig das Eingangssignal<br />

und erkennen Rückkopplungen. Ein Notch-Filter oder ein Kompensationsfilter eliminieren<br />

den Feedbackanteil im Signal und werden ständig an die aktuellen Bedingungen an-


gepaßt. Der Kompensationsfilters-Ansatz vermeidet Rückkopplungen durch die Einstellung<br />

eines adaptiven Filters, so dass sein Ausgangssignal die rückgekoppelten Anteile im Eingangssignal<br />

gerade auslöscht.<br />

Auditorische Objekterkennung und Klangklassifizierung<br />

Hörgeräte ermöglichen es, <strong>für</strong> verschiedene akustische Situationen unterschiedliche Programme<br />

zu wählen, um den Frequenzgang und Kompressionsparameter zu ändern, oder<br />

Richtmikrofon, Störgeräusch-Reduktion oder Feedback-Unterdrückung zu aktivieren. Der<br />

Hörgeräteträger hat dabei die nicht immer leichte Aufgabe, die akustische Hörsituation zu<br />

beurteilen und dann per Schalter am Hörgerät oder über eine Fernbedienung das entsprechende<br />

Programm zu wählen. Ein automatisches Erkennen der aktuellen akustischen Situation<br />

und automatisches Umschalten in das geeignetste Programm könnten den Hörgerätekomfort<br />

verbessern. Ein System zur Geräuschklassifizierung wird im folgenden vorgestellt,<br />

welches die vier Klassen 'Sprache', 'Sprache im Störgeräusch', 'Störgeräusch' und 'Musik'<br />

robust erkennen soll.<br />

Es sind bereits einige Hörgeräte im Handel, die eine Geräuschklassifizierung vornehmen. In<br />

einem Gerät von Widex wird die Amplitudenstatistik des Signals ausgewertet, um zwischen<br />

impulshaften und kontinuierlichen Klängen zu unterscheiden und damit ein Störgeräusch-<br />

Unterdrückungssystem zu steuern (Ludvigsen, 1993). Im Zusammenhang mit Störgeräusch-<br />

Unterdrückung wird auch von ReSound eine Geräuschklassifizierung vorgenommen (Edwards<br />

et al., 1998). Anhand einer Analyse der Amplitudenmodulationen wird Sprache im<br />

Signal detektiert. Von Phonak ist ein Gerät im Handel, das abhängig von der akustischen<br />

Umgebung zwischen zwei Programmen umschaltet (Phonak, 1999). Die Klassifizierung in<br />

die Klassen 'Sprache im Störgeräusch' und 'Andere' erfolgt aufgrund einer Analyse der zeitlichen<br />

Fluktuationen und der Form des Spektrums, wie es von Kates (1995) vorgeschlagen<br />

wurde. Ostendorf et al. (1998) unterscheiden basierend auf einer Modulationsfrequenz-<br />

Analyse die drei Klassen 'Sprache', 'Sprache im Störgeräusch', und 'Störgeräusch'. Von<br />

Nordqvist (2000) wird ein Verfahren vorgeschlagen, mit dem reine Sprache und verschiedene<br />

Hintergrund-Geräusche mittels einer LPC-Analyse und HMMs klassifiziert werden. Ein<br />

Ansatz von Feldbusch (1998) erkennt reine Sprache, Stimmengewirr und Verkehrslärm, indem<br />

verschiedene zeitliche und spektrale Merkmale mittels neuronalen Netzen ausgewertet<br />

werden.<br />

Alle genannten Ansätze erlauben ein robustes Erkennen von reiner Sprache; Musik hingegen<br />

kann bis anhin nicht identifiziert werden, und es ist nur teilweise möglich, Störgeräusch<br />

von Sprache im Störgeräusch zu trennen.<br />

Auditorische Szenenanalyse<br />

Auditorische Szenenanalyse beschreibt die Mechanismen und Strategien, die das auditorische<br />

System verwendet, um die akustische Umgebung zu analysieren. Obwohl dieser Prozess<br />

noch nicht vollständig verstanden wird, ist bekannt, dass das auditorische System charakteristische<br />

Merkmale aus dem akustischen Signal extrahiert. Diese auditorischen Merkmale<br />

umfassen spektrale Trennung, spektrales Profil, Harmonizität, Onsets und Offsets,<br />

kohärente Amplituden- und Frequenz-Modulationen sowie räumliche und zeitliche Trennung.<br />

Auditorische Merkmale<br />

Im folgenden Ansatz <strong>für</strong> die Geräuschklassifizierung werden bis anhin vier Merkmalsgruppen<br />

verwendet: Amplituden-Modulationen, spektrales Profil, Harmonizität und Onsets.<br />

Für die Modellierung der Amplituden-Modulationen werden die genannten bisherigen Ansätze<br />

von Ludvigsen (1993), Ostendorf et al. (1998) und Kates (1995) verwendet. Fig. 3 zeigt<br />

161


als Beispiel, wie das Amplituden-Histogramm mittels Perzentilen modelliert wird, und der<br />

Abstand zwischen den Perzentilen Aufschluss über die Modulationstiefe gibt.<br />

m es<br />

N u<br />

Fra<br />

of<br />

ber<br />

m<br />

200<br />

180<br />

160<br />

140<br />

120<br />

100<br />

80<br />

60<br />

40<br />

20<br />

Envelope Histogram and Percentiles over 30 s of Clean Speech<br />

10 % 50 % 90 %<br />

Breite<br />

0<br />

20 30 40 50<br />

Envelope Level [dB]<br />

60 70 80<br />

Fig. 3: Amplitudenhistogramm und Perzentile eines Sprachsignals.Das Merkmal 'Breite' ist<br />

definiert als Differenz zwischen der 90 % und der 10 % Perzentile.<br />

Das spektrale Profil wird auf eine rudimentäre Weise durch zwei Merkmale modelliert, den<br />

spektralen Schwerpunkt und die zeitlichen Schwankungen des spektralen Schwerpunktes<br />

(Fig. 4). Diese beiden Merkmale wurden bereits im Klassifizierer von Phonak (1999) verwendet.<br />

Amplitude [dB]<br />

80<br />

70<br />

60<br />

50<br />

40<br />

30<br />

Schwankungen<br />

des spektralen<br />

Schwerpunkts<br />

spektraler Schwerpunkt<br />

1000 2000 3000 4000 5000 6000 7000 8000<br />

Frequenz [Hz]<br />

Fig. 4: Zur Beschreibung des spektralen Profils werden der spektrale Schwerpunkt und dessen<br />

zeitliche Schwankungen berechnet.<br />

Für die Beschreibung der Harmonizität wird normalerweise der Pitch eines Klanges benutzt<br />

(Fig. 5). In unserem Ansatz wird die Harmonizität durch zwei Merkmale charakterisiert: die<br />

Tonalität und die Pitch-Varianz. Die Tonalität ist definiert durch das Verhältnis der harmonischen<br />

zu den unharmonischen Anteilen im Zeitsignal.<br />

[Hz]<br />

requency<br />

F<br />

500<br />

400<br />

300<br />

200<br />

100<br />

0<br />

Pitch Frequency of Clean Speech<br />

5 10 15 20 25<br />

Time [s]<br />

Fig. 5: Typischer zeitlicher Pitch-Verlauf eines Sprachsignals. Das Merkmal Tonalität ist das<br />

Verhältnis von harmonischen zu unharmonischen (hier durch 0 Hz angezeigten) Anteilen.<br />

Um Amplituden-Onsets zu modellieren, wird das Auftreten hoher und schneller Amplitudenanstiege<br />

im Bark-Spektrum analysiert. Fig. 6 zeigt ein typisches Onsetmuster <strong>für</strong> Popmusik.<br />

162


Da im Onsetmuster auch sehr schön der Rhythmus eines Signals sichtbar wird, wird zusätzlich<br />

ein Merkmal <strong>für</strong> den Takt berechnet.<br />

[Bark]<br />

requency<br />

F<br />

20<br />

15<br />

10<br />

5<br />

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />

163<br />

Time [s]<br />

Fig. 6: Onsetmuster von Pop-Musik. Starke Onsets sind durch Punkte dargestellt. Der<br />

Rhythmus der Musik ist deutlich erkennbar.<br />

Die genannten auditorischen Merkmale wurden zusammen mit Klassifizierern unterschiedlicher<br />

Komplexität evaluiert. Fünf verschiedene Klassifizierer-Typen kamen zur Anwendung:<br />

Regelbasierter Ansatz, Minimum-Distance Klassifizierer, Bayes Klassifizierer, neuronales<br />

Netz, und Hidden Markov Modell (HMM).<br />

Der Vorteil der ersten zwei Klassifizierer ist, dass diese etwa viermal weniger Rechenzeit<br />

und Speicherplatz benötigen als die übrigen Ansätze; da<strong>für</strong> ermöglichen die letzteren eine<br />

genauere Unterteilung des Merkmalsraums.<br />

Die Performance der einzelnen Klassifizierer mit unterschiedlichen Merkmalssets wurde mit<br />

etwa 300 verschiedenen Alltagsklängen getestet. Die Klang-Datenbank enthält unterschiedlichste<br />

Beispiele zu den vier Klassen; <strong>für</strong> die Klasse 'Sprache' zum Beispiel verschiedene<br />

Sprecher, die unterschiedliche Sprachen mit unterschiedlichen Geschwindigkeiten und Tonlagen<br />

in unterschiedlich halligen Räumen sprechen, oder Signale der Klasse 'Störgeräusch'<br />

aus Haushalt, Verkehr, Restaurant, Industrie usw., 'Sprache im Störgeräusch' bei verschiedenen<br />

SNR, und 'Musik' von Klassik über Pop und Rock zu einzelnen Instrumenten und Gesang.<br />

Von jeder Klasse wurden 80 % der Klänge <strong>für</strong>s Training und 20 % <strong>für</strong>s Testen der Klassifizierer<br />

verwendet. Viele Klänge wurden sehr robust erkannt, insbesondere reine und<br />

schwach verhallte Sprache, Verkehrs- und Stimmen-Geräusche, klassische Musik, Instrumente<br />

und Gesang. Probleme bereiten vor allem stark verhallte Sprache, fluktuierende<br />

Störgeräusche und komprimierte Pop-Musik. Da<strong>für</strong> sollten weitere Merkmale aus dem Signal<br />

extrahiert werden, wie zum Beispiel ein Mass <strong>für</strong> die Stärke des Nachhalls im Signal.<br />

Merkmale zur auditorischen Objekterkennung<br />

Einige charakteristischen spezifischen Merkmale (Yost & Sheft, 1993), welche <strong>für</strong> die Bildung<br />

akustischer Objekte wichtig sind, werden im folgenden aufgelistet.<br />

• Spektrale Trennung<br />

Die bemerkenswerte Fähigkeit des auditorischen Systems, den spektralen Inhalt eines Signals<br />

zu bestimmen, ist eine wichtige Basis <strong>für</strong> die weitere Trennung in die nachfolgenden<br />

Merkmale.<br />

• Spektrales Profil<br />

Die meisten Klangquellen produzieren ein bestimmtes Amplitudenspektrum, dessen Profil<br />

relativ konstant bleibt wenn der Gesamtpegel verändert wird. Verschiedene Klangklassen,<br />

wie z.B. Sprache, stationäres Störgeräusch und Musik, haben oft unterschiedliche spektrale<br />

Profile, was zur Unterscheidung von Quellen beitragen kann. Das spektrale Profil ist auch<br />

<strong>für</strong> die Klangfarbe (Timbre) von Musikinstrumenten und Stimmen wesentlich. Das Timbre<br />

wird jedoch ebenso durch temporale Faktoren bestimmt, wie Anstiegs- und Abfallzeiten von<br />

gespielten Noten eines Instruments.<br />

• Harmonische Struktur


Die Teiltöne vieler natürlicher Klangquellen haben eine harmonische oder annähernd harmonische<br />

Struktur, die ihren Ursprung in einem schwingenden Medium hat. Die Harmonischen<br />

formen ein einzelnes auditorisches Bild, beschrieben als Pitch. Dies ist ein hervorragendes<br />

Beispiel von Fusion, denn es ist in der Regel unmöglich, einzelne Teiltöne herauszuhören.<br />

Da unterschiedliche Quellen meist verschiedene harmonische Serien bilden, ist mit<br />

dem Pitch eine Trennung von Quellen möglich.<br />

• Gemeinsame Ein / Ausschwingzeit<br />

Eines der stärksten Merkmale <strong>für</strong> die Gruppierung von Teiltönen ist der gemeinsame Anstieg<br />

der Amplitude. Gleichzeitig einsetzende Teiltöne werden in der Regel zu einem auditorischen<br />

Objekt fusioniert. Kleinere Asynchronitäten bestimmen zu einem wesentlichen Teil<br />

das Timbre der Quelle, grössere asynchrone Amplitudenanstiege einzelner Teiltöne tragen<br />

andererseits stark zur Trennung in separate Quellen bei, auch wenn die Teiltöne untereinander<br />

harmonische Verhält-nisse aufweisen. Messungen haben ergeben, dass Musiker in<br />

einem Orchester um sich selbst zu hören bis zu 50 ms versetzt spielen (Mellinger & Mont-<br />

Reynaud, 1996). Auch das Publikum kann dadurch einzelne Instrumente heraushören, ohne<br />

aber den Eindruck eines gleichzeitigen Einsatzes zu verlieren.<br />

• Kohärente Amplituden- und Frequenzmodulation<br />

Amplitudenmodulation ist charakteristisch <strong>für</strong> viele natürliche Klangquellen wie z.B. Sprache.<br />

Unter kohärenter Amplitudenmodulation versteht man die gleichzeitige Amplitudenänderung<br />

von mehreren Teiltönen. Das auditorische System vermag spektrale Komponenten zu gruppieren,<br />

die mit demselben zeitlichen Muster moduliert sind, oder zu trennen, wenn die Muster<br />

unter-schiedlich sind. Dies funktioniert <strong>für</strong> Modulationsfrequenzen unter 50 bis 100 Hz.<br />

Weit weniger stark scheint die gemeinsame Frequenzmodulation mehrerer Partialtöne zur<br />

Fusion oder Trennung beizutragen. Trotzdem kann sie gerade bei Musik zur Trennung von<br />

Instrumenten beitragen (Vibrato).<br />

• Lokalisation<br />

Das auditorische System verrichtet eine schwierige Aufgabe, wenn es entscheidet, woher im<br />

Raum ein Signal kommt. Interaurale Zeit- und Pegeldifferenzen und Aspekte der Übertragungs-funktion<br />

von Kopf / Ohrmuschel sind entscheidend <strong>für</strong> die Lokalisation. Für die Trennung<br />

von Klangquellen ist die räumliche Lokalisation zwar signifikant aber nicht unerlässlich.<br />

Gruppierungsverfahren<br />

Unter Gruppierung versteht man die auf den vorgängig beschriebenen physikalischen<br />

Merkmalen basierende Zuordnung der Ereignisse in einem akustischen Signal zu verschiedenen<br />

akustischen Objekten (Fusion oder Trennung).<br />

Primitive Gruppierung und Gruppierung nach Schema<br />

Bregman (1990) unterscheidet zwischen zwei Mechanismen um zu entscheiden, welche<br />

Komponenten zu einer bestimmten Klangquelle gehören.<br />

• Primitive Gruppierungsmechanismen teilen das Eingangssignal auf der Basis einfacher<br />

physikalischer Signalmerkmale auf, wie dies im vorhergehenden Abschnitt beschrieben<br />

wurde. Diese Mechanismen funktionieren ohne vorheriges Wissen.<br />

• Bei der Gruppierung nach Schema geschieht die Auswahl und Kombination von Komponenten<br />

des komplexen Signals aufgrund von Erfahrungen und gelernten Mustern, also<br />

aufgrund der Eigenschaften von Klängen oder Klangklassen, die einem schon früher begegnet<br />

sind.<br />

Die Erfahrung zeigt, dass die kontextunabhängige, primitive Gruppierung viel einfacher modellierbar<br />

und anzuwenden ist als die Gruppierung nach Schema. Allerdings ist nicht zu erwarten,<br />

dass eine vergleichbare Klassifizierungs- und Quellentrennleistung wie beim audito-<br />

164


ischen System erreicht werden kann, wenn die höher liegenden Gruppierungsmechanismen<br />

nicht berücksichtigt werden.<br />

Gestaltprinzipien<br />

Am Anfang des zwanzigsten Jahrhunderts hat die Forschung der visuellen Wahrnehmung<br />

die sogenannten Gestaltprinzipien formuliert, welche nun auch <strong>für</strong> auditorische Empfindungen<br />

Anwendung finden. Bregman (1990) nennt dazu zwei Grundregeln (allocation und accounting):<br />

• Jedes Element eines komplexen Signals kann nur einer Quelle zugeordnet werden.<br />

• Alle Elemente des akustischen Ereignisses müssen einer Quelle zugeordnet werden.<br />

Kann ein Element keiner existierenden Quelle zugeordnet werden, so wird es selbst zu<br />

einer Quelle.<br />

Für die Bildung von auditorischen Objekten werden diese Gestaltprinzipien auf verschiedenen<br />

Ebenen angewendet.<br />

• Kontinuität: Amplitudenmoduliertes Rauschen wird als einzelnes Objekt wahrgenommen,<br />

falls die Modulation glatt (zum Beispiel sinusförmig) ist. Bei Rechteckmodulation hingegen<br />

hört man zwei Objekte. Pfeifen, zusammenhängend oder abgesetzt, erzeugt eine<br />

oder zwei Quellen.<br />

• Nähe: Aufeinanderfolgende Noten, die spektral nahe beieinander liegen (Pitch), werden<br />

zur gleichen Quelle gezählt. Es braucht viel, bis eine Melodie durch Störsignale zerfällt.<br />

• Ähnlichkeit: Ähnliche Klangkomponenten werden gruppiert; Noten mit demselben Timbre<br />

werden meistens derselben Quelle zugeordnet.<br />

• Gemeinsames Schicksal: Ändern sich Teiltöne eines Klangs auf gleiche Weise, werden<br />

sie gruppiert. Gemeinsamer Amplitudenanstieg und gemeinsame Modulationen sind<br />

starke Gruppierungsprinzipien. Werden in einem harmonischen Klang einige Teiltöne<br />

moduliert, heben sie sich von den anderen ab, und man hört zwei Klänge.<br />

• Geschlossenheit: Geschlossenheit hilft, Kontinuität trotz abrupter Änderungen zu erhalten.<br />

Lücken in einem Signal trennen Ereignisse, während Rauschen in den Lücken hilft,<br />

sie wieder zu fusionieren. Ein Beispiel dazu wäre Klatschen beim Sprechen. Auch die<br />

Trennung von mehreren gleichzeitigen Sprechern wird dadurch unterstützt.<br />

• Gute Fortsetzung: Die meisten Klänge ändern nicht plötzlich den Charakter; ein Klavier<br />

wird nicht plötzlich wie eine Violine tönen. Das heisst, dass feine, glatte Änderungen einer<br />

einzigen Quelle zugeordnet werden, plötzliche Wechsel erzeugen eine neue Quelle.<br />

Wenn wir uns die Prozesse zur akustischen Szenenanalyse nochmals vor Augen führen und<br />

mit den Methoden aktueller Hörgeräte-Automaten vergleichen so erkennen wir, dass die<br />

heutigen Lösungsansätze sehr technisch inspiriert sind und noch wenig mit unserem eigenen<br />

Wahrnehmungssystem zu tun haben. Wir haben aber die Grenzen der heutigen Lösungen<br />

erkannt und neue Wege entdeckt, die noch fehlenden Klassifizierungsleistungen einzubringen.<br />

Die primitive Gruppierung auditorisch basierter Merkmale mit Hilfe der Gestaltprinzipien<br />

ist ein vielversprechender Lösungsansatz zur besseren Klassifizierung der akustischen<br />

Umgebung. Es dürfte möglich sein, einige Prinzipien zu formulieren und in Hörsystemen<br />

einzusetzen.<br />

Schlussfolgerungen<br />

Die eingangs genannten Ziele der rehabilitativen <strong>Audiologie</strong> (Hören, Verstehen, Klangqualität)<br />

sind durch digitale Signalverarbeitung heute nur unzureichend erfüllbar, obwohl in den<br />

letzten Jahren ein deutlicher Fortschritt erzielt worden ist und auch mit weiteren Fortschritten<br />

165


in nächster Zeit zu rechnen ist. Aus audiologischer Sicht ist dem Versuch eines Ausgleichens<br />

des Hörschadens eine besondere Bedeutung beizumessen, wobei es um eine Verbesserung<br />

der Diagnostik und des Verständnisses von Verarbeitungsdefiziten bei Innenohr-<br />

Schwerhörigkeit primär geht. Dabei erscheint der Modell-basierte Ansatz erfolgversprechend,<br />

da durch Verarbeitungsmodelle unser derzeitiges Wissen über die Funktion und etwaige<br />

Fehlfunktion des Hörsystems in <strong>für</strong> die Hörgeräte-Signalverarbeitung nutzbarer Form<br />

charakterisiert werden kann. Komplexe Computermodelle zur auditorischen Szenenanalyse<br />

sind allerdings derzeit zur Implementation in Hörgeräten noch zu aufwendig. Wenn nicht nur<br />

rein technisch inspirierte Konzepte zur Klassifizierung akustischer Situationen und Objekte<br />

verwendet werden sollen, lassen sich den zusammengefassten Theorien folgend aber Modelle<br />

und Regeln zur Verwendung in Hörinstrumenten ableiten.<br />

Literatur<br />

Appell, Jens-Ekkehardt, Loudness models for rehabilitative Audiology, Dissertation, <strong>Universität</strong> <strong>Oldenburg</strong>, 2002<br />

(http://docserver.bis.uni-oldenburg.de/publikationen/dissertation/2002/applou02/applou02.html)<br />

Büchler, M. et al. (2000). „Klassifizierung der akustischen Umgebung <strong>für</strong> Hörgeräte-Anwendungen“, DAGA 2000.<br />

Dau, T. et al. (1998). „Psychophysics, Physiology and Models of Hearing“. World Scientific Publishing.<br />

Edwards, B. W., Hou, Z., Struck, C. J., Dharan, P. (1999). "Signal-processing algorithms for a new softwarebased,<br />

digital hearing device," The Hearing Journal, Vol. 51, No. 9, 44-52.<br />

Feldbusch, F. (1998). "Geräuscherkennung mittels Neuronaler Netze," Zeitschrift <strong>für</strong> <strong>Audiologie</strong> 1/1998, 30-36.<br />

Gabriel, B., B. Kollmeier and V. Mellert (1997). “Influence of individual listener, measurement room and choice of<br />

test tone levels on the shape of equal-loudness level contours.” Acustica united with acta acustica 83(4):<br />

670-683.<br />

Hohmann, V. (1993). Dynamikkompression <strong>für</strong> Hörgeräte- Psychoakustische Grundlagen und Algorithmen.<br />

Düsseldorf, VDI-Verlag.<br />

Kates, J. M. (1995). „Classification of background noises for hearing-aid applications“, Journal of the Acoustical<br />

Society of America, 97 (1), 461-470.<br />

Launer, S. (1995). Loudness perception in listeners with sensorineural hearing loss. Fachbereich Physik. <strong>Oldenburg</strong>,<br />

Carl-von-Ossietzky <strong>Universität</strong> <strong>Oldenburg</strong>.( http://www.physik.unioldenburg.de/Docs/medi/pub_down.html)<br />

Ludvigsen, C. (1997). „Schaltungsanordnung <strong>für</strong> die automatische Regelung von Hörhilfsgeräten“, Europäische<br />

Patentschrift, EP 0 732 036 B1.<br />

Marzinzik, M. and Kollmeier, B. (1999). "Development and Evaluation of Single-Microphone Noise Reduction<br />

Algorithms for Digital Hearing Aids," in Psychophysics, Physiology and Models of Hearing, edited by T.<br />

Dau, V. Hohmann, and B. Kollmeier (World Scientific, Singapore), pp. 279-282.<br />

Mellinger, D. K., Mont-Reynaud, B. M. (1996). „Scene Analysis,” in Auditory Computation, edited by H. L. Hawkins<br />

et al., Springer, New York.<br />

Nordqvist, P. (2000). "Automatic Classification of Different Listening Environments in a Generalized Adaptive<br />

Hearing Aid," International Hearing Aid Research Conference, IHCON 2000, Lake Tahoe, CA.<br />

Ostendorf, M. et al. (1997). „Empirische Klassifizierung verschiedener akustischer Signale und Sprache mittels<br />

einer Modulationsfrequenzanalyse“, DAGA 97, 608-609.<br />

Phonak Hearing Systems (1999). "Claro AutoSelect", company brochure no. 028-0148-02.<br />

Spriet, A., Moonen, M., and Wouters, J. (2005). "Stochastic gradient-based implementation of Spatially Preprocessed<br />

Speech Distortion Weighted Multichannel Wiener filtering for noise reduction in hearing aids,"<br />

IEEE Trans. Signal Process. 53, 911-925.<br />

Yost, A. W., Sheft, S. (1993). „Auditory Perception,“ in Human Psychophysics, edited by W. A. Yost et al.,<br />

Springer, Berlin.<br />

Zwicker, E., Fastl, H. (1990). „Psychoacoustics, Facts and Models“, Springer, Berlin.<br />

166


Cochlea-Implantate<br />

Norbert Dillier / Zürich<br />

Einführung<br />

Patienten, welche aufgrund einer Innenohr-Schädigung ertaubt oder hochgradig schwerhörig<br />

geworden sind, sind heute vielfach in der Lage, mit einem Cochlear Implant (CI) wieder<br />

Sprache zu hören und zu verstehen. Auch frühertaubte oder taub geborene Kleinkinder können<br />

mit Hilfe der elektrischen Hörnervstimulation nicht nur eine direkte Verbindung zur<br />

akustischen Umwelt aufnehmen, sondern auch eine dem Alter entsprechende Sprache entwickeln.<br />

Ein CI-System besteht aus Implantat, Sprachprozessor und Mikrofon-Sendeeinheit. Die Stimulationselektroden<br />

zur elektrischen Reizung des Hörnerven werden in einer Operation in<br />

die Hörschnecke eingelegt. Durch den hinter dem Ohr getragenen digitalen Sprachprozessor<br />

werden Schallwellen in elektrische Impulse umgewandelt und über eine Sendespule durch<br />

die Haut zum Implantat und zu den Hörnervfasern übertragen. Der Hörnerv leitet dieses<br />

Reizmuster in ähnlicher Art und Weise wie beim natürlichen Hören zum Gehirn weiter, wo<br />

es als Hör- und Klangempfindung wahrgenommen wird. Je nach Alter und Vorgeschichte ist<br />

nach der Operation eine mehrwöchige bis mehrmonatige Hörtrainings- und Rehabilitationsphase<br />

zum Erlernen und Unterscheiden der künstlichen Hörsignale angezeigt.<br />

Das Cochlear Implant als erster und bislang einziger in der Praxis funktionierender Ersatz <strong>für</strong><br />

ein Sinnesorgan ist ein erfolgreiches Beispiel <strong>für</strong> die gegenseitige Befruchtung von Biologie,<br />

Medizin und Technik. Weltweit wurden schätzungsweise bereits nahezu 100'000 Patienten<br />

mit diesen Implantaten versorgt.<br />

Die aktuelle Forschung und Entwicklung zielt auf die verbesserte Programmierung und Anpassung<br />

der Sprachprozessoren. Dazu werden auch elektrophysiologische Messungen der<br />

Hörnervantworten bei verschiedenen Reizsignalen durchgeführt. Mit neuartigen Elektrodenanordnungen<br />

sowie zunehmend höheren Reizraten wird ein natürlicheres Klangbild sowie<br />

eine differenziertere Wahrnehmungsleistung angestrebt.<br />

Komponenten des Cochlear Implants<br />

Cochlear Implants bestehen aus Komponenten, welche ausserhalb des Körpers getragen werden<br />

und dem eigentlichen Implantat. Ueber ein hinter dem Ohr befestigtes Mikrophon mit<br />

Richtcharakteristik werden Schallsignale aufgenommen und über ein Kabel dem Sprachprozessor<br />

zugeleitet, welcher die Schallreize in geeignete elektrische Stimulationsmuster umwandelt<br />

und wiederum über ein Kabel als Hochfrequenzsignale einer Sendespule zuführt. Die<br />

Information gelangt drahtlos über induktive Kopplung zum Implantat mit seiner Empfangsspule<br />

sowie der Decodierungs- und Stimulatorelektronik. Die in der Cochlea plazierten Elelektroden<br />

vermitteln das nunmehr elektrische Signal zum Hörnerv und lösen einen Höreindruck<br />

aus. Für telemetrische Messungen dienen beide Spulen als Sender und Empfänger.<br />

Der Sprachprozessor enthält die digitale Reizcodierungselektronik mit zwei bis acht gespeicherten<br />

Programmen und eine oder mehrere (aufladbare) Batterien. Derzeit sind Systeme von<br />

167


vier kommerziellen Anbietern verfügbar (Tabelle 1). Bereits sind Sprachprozessoren soweit<br />

miniaturisiert worden, dass sie als Hinter-dem-Ohr-Einheit getragen werden können. HdO-<br />

Sprachprozessoren haben nahezu die gleiche Leistungsfähigkeit wie die in Hemd- oder Blusentasche<br />

oder bei Kleinkindern in Brustbeutel oder Rucksäckchen getragenen grösseren Taschengerät-Sprachprozessoren.<br />

Tabelle 1: Technische Daten der kommerziell verfügbaren Implantate: CI22M und CI24M<br />

(Nucleus, Cochlear ), Clarion (Advanced Bionics), Combi 40+ (MedEl), Digisonic (MXM).<br />

Nucleus, Cochlear<br />

(Australien)<br />

Advanced Bionics<br />

(USA)<br />

HiRes 90k<br />

Harmony<br />

MedEl<br />

(Oesterreich)<br />

Neurelec MXM<br />

(Frankreich)<br />

Bezeichnung CI24R/CI24RE/<br />

Combi40+/ Pul- Digisonic<br />

Freedom<br />

sar/Sonata<br />

Abmessung (mm) 27x18x6.4 31x25x6 33.4x23.4x4 28∅x6.8<br />

Gewicht (Gramm) 9.5 8 9 15<br />

Material Gehäuse Titan Titan Keramik<br />

Titan<br />

Keramik<br />

Max. Pulsrate (pps) 14'500/31’600 83’000 18'180/? 7'800<br />

Stimulationskanäle 22/(virtuell 43) 16 12 15<br />

Stimulationsmodus Bipolar<br />

Monopolar<br />

Common ground<br />

Sprachprozessoren SPrint<br />

ESPrit, Esprit-3G,<br />

Freedom (HdO)<br />

Bipolar<br />

Monopolar<br />

Clarion Platinum<br />

PSP und BTE,<br />

HiRes Harmony<br />

Monopolar Common<br />

ground<br />

CIS PRO+<br />

TEMPO+, Opus<br />

(HdO)<br />

Anzahl Programme 8/2 3 3 2<br />

Strategien SPEAK (NofM)<br />

CIS<br />

ACE (NofM)<br />

MP3000<br />

SAS<br />

CIS<br />

PPS<br />

Information www.cochlear.com www.bionicear.c<br />

om<br />

Funktionsweise des Cochlear Implants<br />

CIS<br />

NofM<br />

FSP<br />

Digisonic,<br />

DigiSP K<br />

TG und HdO<br />

CIS/ASR<br />

NofM<br />

www.medel.com www.neurelec.c<br />

om<br />

Die Aufgabe eines Cochlear Implants ist es, im Falle einer Innenohr-Taubheit den Hörnerven<br />

direkt elektrisch zu stimulieren und dadurch Hörempfindungen zu erzeugen. Die Information,<br />

welche im akustischen Schallsignal enthalten ist, muss durch geeignete Umwandlung <strong>für</strong><br />

jeden Patienten individuell in die adäquaten elektroneuralen Erregungsmuster übersetzt werden.<br />

Die heutigen CI-Systeme sind Meilensteine auf dem Weg einer fortschreitenden technologischen<br />

Entwicklung und Verbesserung. Sie stellen aber ohne Ausnahme im Vergleich mit dem<br />

zu ersetzenden biologischen System technische Kompromisslösungen dar, welche immer nur<br />

168


Teilfunktionen des peripheren Gehörs ersetzen können (Patrick u. Evans 1995).<br />

Der Hörnerv kann mit unterschiedlichen elektrischen Reizformen angeregt werden. Die <strong>für</strong><br />

einen effektiven Reiz wirksame elektrische Grösse ist der Strom, welcher während einer gewissen<br />

Zeit in das Nervengewebe hinein- oder herausfliesst. Zur Vermeidung von schädlichen<br />

elektrochemischen Reaktionen am Elektroden-Gewebe-Uebergang muss das elektrische<br />

Stimulationssignal gleichstromfrei angekoppelt werden (eine aktuelle Uebersicht über Modelle<br />

der elektrischen Hörnervstimulation ist zu finden in Hamacher, 2004).<br />

Als Reizformen kommen sinusoidale (analoge) oder pulsatile Signale zur Anwendung.Bei<br />

der analogen Stimulation wird das Signal ähnlich wie bei einem konventionellen Hörgerät<br />

gefiltert und komprimiert und dadurch an den eingeschränkten elektrischen Dynamikbereich<br />

angepasst. Sobald allerdings mehrere nahe beeinander liegende Reizorte vorhanden sind,<br />

ergeben sich Lautheitssummationen durch Stromüberlagerungen. Biphasische Pulse erlauben<br />

demgegenüber eine zeitlich besser kontrollierbare Reizung als analoge Sinussignale. Bei der<br />

Stimulierung von mehreren Kanälen können Interferenzen vermindert werden, indem die<br />

Kanäle zeitlich versetzt ("interleaved") aktiviert werden. Nachteilig wirkt sich unter Umständen<br />

bei der sequentiellen Stimulation die verminderte Zeitauflösung aus, da pro Reizpuls<br />

immer nur die Information eines Frequenzbandes übertragen wird, die anderen also inaktiv<br />

bleiben.<br />

Voraussetzung <strong>für</strong> die elektrische Stimulation ist eine genügende Anzahl elektrisch erregbarer<br />

Nervenzellen. Durch die Lage der Stimulations- und Referenzelektroden kann der aktivierte<br />

Bereich beeinflusst werden. Die bipolare Elektrodenansteuerung zielt darauf ab, einen<br />

möglichst geringen Anteil von Nervenfasern und damit ein schmales Frequenzband zu aktivieren.<br />

Bei weiter auseinanderliegenden Elektroden werden bei gleicher Reizstärke mehr<br />

Neuronen aktiviert als bei nahe beisammenliegenden. Die monopolare Reizkonfiguration<br />

stellt diesbezüglich einen Grenzfall dar, indem vor allem die Hörnervfasern in der Nähe der<br />

aktiven intracochleären Elektrode aktiviert werden, während die im Muskelgewebe plazierte<br />

Referenzelektrode keine Empfindungen auslöst.<br />

Für die Sprachprozessor-Einstellung muss <strong>für</strong> jede Elektrodenkonfiguration die Wahrnehmungsschwelle<br />

(Threshold, T-level) sowie die Reizstärke <strong>für</strong> eine angenehme, erträgliche<br />

Lautheitsempfindung (Comfort, C-level, manchmal auch MCL, most comfortable level genannt,<br />

bzw. durch UCL, upper comfortable level, ersetzt) bestimmt werden. Der Bereich zwischen<br />

diesen Werten (dynamic range, dynamischer Bereich) liegt in den meisten Fällen unterhalb<br />

von 6 dB (Ladung/Phase auf 1 nanoCoulomb bezogen) und ist damit wesentlich kleiner<br />

als die bis zu 120 dB Dynamik bei der akustischen Stimulation.<br />

Die Hörempfindungen bei elektrischer Stimulation werden durch die Reizrate und den Ort<br />

der Stimulation bestimmt. Die Reizrate eines periodischen Stimulationssignals kann bis zu<br />

einer Frequenz von etwa 300 Pulsen pro Sekunde der Grundfrequenz der menschlichen Stimme<br />

(Pitch) zugeordnet werden. Die Stimulation an verschiedenen Reizorten innerhalb der<br />

Cochlea ruft Empfindungen hervor, die mit der ortsabhängigen Tonhöhenempfindung Normalhörender<br />

verglichen werden kann. Die Reizelektroden können somit wie die Tasten eines<br />

Klaviers unterschiedliche Klangspektren wiedergeben. Die wahrgenommenen charakteristischen<br />

Frequenzen hängen von der Eindringtiefe des Elektrodenträgers ab. Mit den über 17<br />

mm verteilten 22 Elektroden des Nucleus-Implantats beispielsweise kann bei einer Eindringtiefe<br />

von ca. 20 mm der Frequenzbereich zwischen etwa 700 und 11'000 Hz angesprochen<br />

169


werden.<br />

In jüngster Zeit sind von mehreren Implantatherstellern neue Arten von Elektrodenformen<br />

vorgestellt worden, welche einerseits tiefer in die Hörschnecke einzudringen erlauben und<br />

andererseits gezielter das elektrische Stromfeld in Richtung auf die Hörnervfasern im Zentrum<br />

der Schnecke ausrichten sollen. Dadurch wird eine bessere Trennschärfe der einzelnen<br />

Elektrodenkanäle sowie eine Reduktion der Stromstärke angestrebt. Ein Beispiel einer vorgeformten<br />

Elektrode, welche zur Einführung in die Cochlea mit einem sogenannten Stilett (einem<br />

dünnen Draht) gerade gehalten wird, ist in Abb. 1 dargestellt. Inwiefern die angestrebten<br />

Ziele mit diesen neuen Elektroden erreicht werden können, ist Gegenstand laufender Studien.<br />

Die Elektrode wird<br />

durch ein Stilett<br />

während der<br />

Einführung gerade<br />

gehalten<br />

Stilett wird<br />

entfernt<br />

Elektrode<br />

formt sich<br />

Abb. 1 Beispiel einer vorgeformten Elektrode (Nucleus 24 Contour), welche sich bei der Implantation<br />

nach Entfernen eines dünnen Drahtes (Stilett) eng an die innere Schneckenwand<br />

(Modiolus) anschmiegt.<br />

Bezüglich Sprachcodierung haben die Forschungsarbeiten der letzten zehn Jahre zu einer<br />

beträchtlichen qualitativen Verbesserung und ebenso zu einer Vereinheitlichung der zugrundeliegenden<br />

Konzepte und Strategien geführt. Die Merkmalsextraktion gemäss dem Schema<br />

eines Formantvocoders, wie sie in den Sprachprozessor der ersten Generation realisiert war<br />

und bei welchem nur die zwei oder drei Maximalwerte des Frequenzspektrums ermittelt und<br />

auf die Reizelektroden abgebildet wurden, wurde zugunsten immer detaillierterer zeitlich<br />

besser aufgelöster Spektralinformation aufgegeben. Bei der SPEAK-Strategie beispielsweise<br />

werden laufend aus 20 Frequenzbändern die sechs bis zehn grössten Werte bestimmt und mit<br />

einer Reizrate von etwa 250 Pulsen pro Sekunde (pps) auf die<br />

entsprechenden Elektroden abgebildet (Skinner et al. 1994). Die moderneren ACE-Strategien<br />

(Advanced Combination Encoder, manchmal auch mit dem Begriff NofM bezeichnet) erlauben<br />

die Kombination von höheren Reizraten auf gleichzeitig mehr Kanälen bis zur derzeit<br />

maximalen Gesamtrate von 14'400 pps (mit dem CI24R-Implantat) bzw. 31’600 (mit dem<br />

CI24RE-Implantat) (also zum Beispiel 16 Kanäle mit je 900 bzw. 1975 pps, 12 Kanäle mit je<br />

1200 bzw. 2600 pps oder 9 Kanäle mit je 1800 bzw. 3500 pps). Abb. 2 zeigt beispielhaft,<br />

wie ein gesprochenes Wort spektral in verschiedene Frequenzbänder zerlegt wird, von denen<br />

zu jedem Zeitpunkt diejenigen Bänder mit der grössten Signalenergie ausgewählt und den<br />

entsprechenden Elektroden zugeordnet werden. Das zeitlich und räumlich verteilte Reizmus-<br />

170


ter <strong>für</strong> ein Elektroden-Bündel ist in Abb. 3 dargestellt.<br />

Die früher häufig verwendete Breitband-Analog-Stimulation, welche heute nur noch als<br />

SAS-Strategie (Simultaneous Analog Stimulation) im Clarion-System angeboten wird, wurde<br />

von mehreren Forschungsgruppen durch pulsatile Reizung möglichst hoher Raten (CIS, continuous<br />

interleaved sampling) ersetzt. Besonders bei Elektrodenkonfigurationen mit geringem<br />

Abstand zwischen benachbarten Elektroden bietet die nichtsimultane Pulsreizung gegenüber<br />

simultaner Analogreizung gewichtige Vorteile. Die hohen Reizraten können insbesondere die<br />

zeitliche Feinstruktur der Sprachsignale besser reproduzieren (Wilson et al. 1991).<br />

0 400 [msec]<br />

Amplitude (%)<br />

22 21 20 19 18 17 16 15 14 13 12 11 10 9 8 7<br />

Elektrode (Filterband)<br />

6<br />

5<br />

4<br />

3<br />

2<br />

1<br />

22 21 20 19 18 17 16 15 14 13 12 11 10 9<br />

8 7 6 5 4 3 2 1<br />

Elektrode (Filterband)<br />

Abb.2 Frequenzanalyse des Sprachsignals gemäss der Advanced Combination Encoder<br />

(ACE) Strategie des Nucleus-Sprachprozessors. Die obere Kurve stellt das gesprochene Wort<br />

"Fall" dar, welches mit einer Filterbank in maximal 22 Frequenzbänder aufgeteilt wird. Die<br />

zu einem Zeitpunkt energiereichsten Bandfilter werden zur Stimulation ausgewählt und einer<br />

Reizelektrode zugeordnet. Die unteren beiden Grafiken stellen die Frequenzspektren und die<br />

jeweils aktiven Elektroden zum Zeitpunkt 100 msec (links, Konsonant) und 240 msec (rechts,<br />

Vokal) dar.<br />

Wie gut die durch die Signalcodierung reduzierte und auf die implantierten Elektroden übertragene<br />

Sprachinformation im Einzelfall zur Diskrimination von Wörtern und Sätzen ausreicht,<br />

kann nur durch Evaluationsexperimente mit grösseren Patientengruppen ermittelt werden.<br />

Solche Experimente sind naturgemäss aufwendig und von vielen Variablen abhängig<br />

(Dillier et al. 1995; Brill et al. 1997).<br />

Zusammenfassend lässt sich jedoch sagen, dass mit den modernen digitalen Strategien spontan<br />

ein besseres Konsonantenverständnis erzielt wurde als mit den von den Patienten früher<br />

benutzten Sprachprozessoren. Die besten Ergebnisse wurden mit Verfahren erzielt, welche<br />

höhere Reizraten und differenziertere Abbildungen spektraler Feinstrukturen enthielten<br />

171


Elektroden (22 - 1)<br />

Elektroden (22 - 1)<br />

0<br />

Zeit (msec)<br />

400<br />

100 120 240 260 350<br />

370<br />

Abb. 3 Zeitlicher Verlauf der Reizsignale an den einzelnen Elektroden. Dargestellt ist eine<br />

Elektrodogramm-Analyse des gesprochenen Wortes "Fall". Mit einer Wiederholrate von 900<br />

Hertz werden jeweils maximal 12 Elektroden zeitlich versetzt aktiviert ("interleaved stimulation").<br />

Die Auswahl der Kanäle erfolgt wie in Abb. 3 beschrieben gemäss der spektralen<br />

Energieverteilung.Horizontal ist die Zeit von 0 bis 400 Millisekunden dargestellt, vertikal die<br />

Elektrodenposition von 22 (apikal, tiefste Ortsfrequenz) bis 1 (basal, höchste Ortsfrequenz).<br />

Die Länge und Schwärzung der Striche ist proportional zur jeweiligen Reizamplitude. Die<br />

unteren drei Grafiken zeigen zeitlich gedehnte Ausschnitte von jeweils 20 msec Dauer:<br />

stimmloser Konsonant /f/ (100 - 120 msec), Vokal /a/ (240 - 260 msec), stimmhafter Konsonant<br />

/l/ (350 - 370 msec).<br />

Audiologische Indikationen bei Erwachsenen und Kindern<br />

Für die Versorgung mit einem Cochlear Implant sind Patienten geeignet, die eine beidseitige<br />

überwiegend sensorische Taubheit bis hin zur an Taubheit grenzenden Schwerhörigkeit haben.<br />

Dieser Indikationsbereich ist jedoch nicht an starre Grenzen der Tonschwellenaudiometrie<br />

gebunden, sondern vielmehr an die tatsächliche Sprachperzeption. Patienten, die trotz optimaler<br />

Versorgung mit konventionellen Hörgeräten kein Sprachverstehen haben, sind Kandi-<br />

172


daten <strong>für</strong> ein Cochlear Implant. Ausnahme sind ältere Kinder, Jugendliche und Erwachsene,<br />

die taub geboren sind.<br />

Erwachsene müssen in der präoperativen Evaluation ton- und sprachaudiometrisch untersucht<br />

werden. Hinzu kommen die Impedanzaudiometrie sowie die Hirnstammaudiometrie und<br />

Elektrocochleographie. Das Resultat einer solchen Untersuchung kann eine Neuversorgung<br />

mit optimierten Hörgeräten sein. Liegt das Einsilberverstehen im Freiburger Sprachtest unter<br />

40 % - bei Freifeldmessung mit Hörgeräten -, so ist heute die Indikation zum Cochlear<br />

Implant gegeben (Fraysse et al. 1998). Im übrigen dürfen Patienten mit kurzer Ertaubungsdauer<br />

ein besseres Sprachverstehen nach Implantation erwarten als Langzeitertaubte.<br />

Bei Kindern haben wir aus audiometrischer Sicht mit sehr ähnlichen Bedingungen zu rechnen.<br />

Die Indikation wird dann als gegeben angesehen, wenn im Vorschulalter mit Hörgeräten<br />

eine ausreichende Sprachperzeption ausbleibt und somit eine adäquate Sprachproduktion<br />

nicht zu erwarten ist. In Abhängigkeit vom Alter des Kindes sind objektive audiometrische<br />

Testverfahren einzusetzen, ergänzt durch Spiel- und verhaltensaudiometrisch erfasste Tonschwellen.<br />

Entscheidend <strong>für</strong> den Erfolg einer CI-Versorgung beim Kleinkind ist die frühe<br />

Erkennung des Hörschadens. Die rechtzeitige Versorgung mit Hörgeräten und optimale hör-<br />

und sprachgerichtete sonderpädagogische Förderung sollten 6 Monate nach Diagnosestellung<br />

eine Entscheidung <strong>für</strong> oder gegen ein Cochlear Implant erbringen (Dillier u. Laszig 2001)<br />

Intra- und postoperative objektive Messungen<br />

Die modernen Cochlear Implants enthalten alle eine Möglichkeit zur Ueberprüfung der Funktionsfähigkeit<br />

des Implantats sowie zur Messung der Elektrodenimpedanzen. Die Uebermittlung<br />

der gemessenen Werte erfolgt telemetrisch über die Sende/Empfangsspule und wird in<br />

einem Testgerät oder Messprogramm ausgewertet.<br />

Die elektrische Impedanzmessung ermöglicht die Identifikation von kurzgeschlossenen oder<br />

unterbrochenen Elektrodenzuleitungen innerhalb weniger Sekunden. Für die Messung werden<br />

Testreize mit geringer Stromstärke verwendet, welche normalerweise von den Patienten<br />

nicht wahrgenommen werden können. Aus dem Verhältnis der gemessenen Spannung über<br />

den Reizelektroden und der aufgeprägten Stromamplitude wird ein Mass <strong>für</strong> die Elektrodenimpedanz<br />

ermittelt (Swanson et al. 1995; Zierhofer et al. 1997; Schulman 1995).<br />

Die intra- oder post-operativen objektiven audiologischen Verfahren verwenden zur Stimulation<br />

die implantierten intracochleären sowie allenfalls extracochleäre Referenz-Elektroden<br />

(bei monopolarer Stimulation). Intraoperativ stehen einerseits die Ableitung der elektrisch<br />

evozierten Reizantworten über Hautelektroden bzw. über das Implantat selbst, andererseits<br />

die visuelle Registrierung des Stapediusreflexes zur Verfügung (Shallop 1993).<br />

Die intraoperative Beobachtung des Stapediusreflexes unter operationsmikroskopischer Sicht<br />

ist wenig aufwendig, wenig störanfällig und erfolgt während der Stimulation des Hörnerven<br />

über das Implantat. Insofern dient die Stapediusreflexmessung auch der Funktionsprüfung<br />

des Hörnerven und damit letztendlich auch der des Implantates. Die Stapediusreflexschwelle<br />

liegt etwa im Uebergang zwischen mittlerem und oberem Drittel des späteren Dynamikbereichs<br />

(Battmer et al. 1990) und liefert Richtgrössen zur Vermeidung von Ueberstimulation<br />

bei der ersten Anpassung. Mit den Telemetrieoptionen der heutigen Implantate hat sich die<br />

173


Bedeutung der Stapediusreflexbeobachtung zur Sicherstellung der Implantatsfunktion relativiert.<br />

Neben den elektrisch evozierten Stapediusreflexen sind die elektrisch evozierten Hirnstammpotentiale<br />

und die telemetrisch übermittelten elektrisch evozierten Aktionspotentiale (neurale<br />

Reizantwort-Telemetrie, NRT) weitere objektive audiologische Messverfahren. Nach intracochleärer<br />

Stimulation über das Implantat werden Hirnstammpotentiale über Fernelektroden<br />

wie bei der BERA am Kopf abgeleitet oder Aktionspotentiale des Ganglion spirale über<br />

intracochleäre Elektroden und Telemetrie gesendet und registriert.<br />

PC mit NRT Software<br />

SPrint<br />

Elektrodenträger<br />

Nervenfasern<br />

Decodierung / Stimulation<br />

Sendespule<br />

Verstärkung / Codierung<br />

Implantat<br />

Nucleus CI24<br />

Neurale Antwort<br />

und Reizartefakt<br />

Abb. 4 NRT-Messaufbau. Ein Sprachprozessor (SPrint), welcher mit dem klinischen Anpasscomputer<br />

verbunden ist, sendet Reizpulse über die Sendespule zum Implantat (Nucleus CI24).<br />

Die neuralen Antworten werden durch die implantierten Elektroden abgeleitet, im Implant<br />

verstärkt und über die Sende/Empangsspulen zum Sprachprozessor und PC zurückgesendet.<br />

Die neuste Generation von Implantaten erlaubt neben der mehrkanaligen Stimulation auch<br />

die Messung von Elektroden- und Implantatseigenschaften sowie die Ableitung neuraler<br />

Reizantworten (NRT). Die Uebermittlung der Messdaten erfolgt telemetrisch durch die intakte<br />

Haut (Abbas et al. 1999). Zur Messung werden ausser dem standardmässigen Programmierungssystem<br />

(PC mit Spezialinterface) und einem Sprachprozessor nur das NRT-Programm<br />

benötigt. Abb. 4 zeigt den Aufbau der verschiedenen Komponenten des Messsystems. Ein<br />

vom NRT-Programm ausgewähltes Reizsignal (Stimulus) wird über die ausgewählte Elektrode<br />

ausgegeben. Die resultierende neurale Antwort wird von einer anderen Elektrode in der<br />

Nähe abgeleitet. Das Messergebnis wird verstärkt, codiert und über die Sendeeinheit an den<br />

Sprachprozessor zurückgeschickt.<br />

174


210<br />

Abb. 5 Beispiel einer intraoperativen NRT-Messung. Links: Antwortkurven bei Stimulation<br />

an allen 22 intracochleären Elektroden (monopolare Reizung und Ableitung, 1.5 mm Abstand<br />

der Messelektrode von der aktiven Reizelektrode, Stromstärke jeweils 210 CL-Einheiten,<br />

Pulsbreite 25 μs, Reizrate 80 Pulse pro Sekunde, 50 Mittelungen). Rechts unten: Einzelkurve<br />

mit negativer (N1) und positiver (P1) Welle. Rechts oben: Antwortamplituden (P1 - N1) bei 3<br />

Stromstärken (210, 200, 190 CL) <strong>für</strong> alle 22 intracochleären Elektroden.<br />

Die entsprechenden neuralen Reizantworten (oder Nervenantworten) werden am Bildschirm<br />

dargestellt und können anschliessend ausgewertet werden. Die Form und Grösse der Antwort<br />

sind abhängig von den Reiz- und Messbedingungen. NRT-Messungen können ohne grösseren<br />

Aufwand intraoperativ durchgeführt werden. Sie bieten neben dem Nachweis der neuralen<br />

Aktivität auch den Vorteil der kompletten Funktionsüberprüfung des Implantats.Ein Beispiel<br />

einer intraoperativen Serie von NRT-Messungen über alle 22 intracochleären Elektroden<br />

zeigt Abb. 5. Häufig lässt sich eine typische Antwortkurve des Summenaktionspotentials<br />

gewinnen mit einer negativen Welle (N1), welche von einer positiven Welle (P1) gefolgt<br />

wird (s. Abb. 5 rechts unten). Die Zunahme des neuralen Summenaktionspotentials mit steigender<br />

Reizstärke (SL, Stimulus-Level) korrespondiert mit der postoperativen subjektiven<br />

Lautheitswahrnehmung (von sehr leise bis angenehm laut). Aus den Amplitudendifferenzen<br />

der beiden Wellen <strong>für</strong> drei verschiedene Reizstärken (210, 200, 190) kann eine NRT-<br />

Schwelle extrapoliert werden (Abb. 5 rechts oben), welche meist etwa in der Mitte zwischen<br />

den späteren T- und C-Werten liegt.<br />

175<br />

N1<br />

P1<br />

CL<br />

200<br />

190


Postoperative Basis- und Folgetherapie<br />

Der Erfolg einer CI-Versorgung hängt von vielen Faktoren ab, nicht zuletzt von der Anpassung<br />

des Sprachprozessors. Ein gut angepasster Sprachprozessor ermöglicht es dem Patienten,<br />

die Klangeindrücke in ihrer Vielfalt wahrzunehmen und schneller voneinander unterscheiden<br />

zu lernen. Hauptziel einer Anpassung ist es, <strong>für</strong> jede aktive Elektrode die Hörschwellen<br />

und den Pegel der angenehmen Lautheit zu bestimmen. Bei Erwachsenen ist diese<br />

Anpassung relativ problemlos, da sie ihr Lautheitsempfinden in der Regel gut beschreiben<br />

und skalieren können. Die Arbeit mit Kindern erweist sich als schwieriger, da deren subjektive<br />

Angaben nicht immer so zuverlässig (und reproduzierbar) erfolgen. Zur Verifizierung der<br />

subjektiven Angaben können objektive Messverfahren beigezogen werden.<br />

Die Anpassung des Sprachprozessors erfolgt nach abgeschlossener Wundheilung. Alle modernen<br />

Cochlear Implants werden heute mittels eines Computers über eine spezielle Software<br />

angepasst. Grundsätzlich müssen <strong>für</strong> alle Implantatstypen die optimalen Stimulationsparameter<br />

bestimmt und im Prozessor gespeichert werden. Die Ermittlung der minimalen Stromstärken,<br />

die Höreindrücke auslösen (Hörschwelle, Threshold bzw. T-level) und der maximalen<br />

Stromstärken, die noch angenehm laut empfunden werden (Comfort level bzw. most comfortable<br />

level, abgekürzt C-level oder MCL) <strong>für</strong> alle verfügbaren Kanäle ist bei ertaubten Erwachsenen<br />

einfach und zuverlässig.<br />

Die postoperative Basis- und Folgetherapie ertaubter Erwachsen beinhaltet eine bis auf die<br />

Erstanpassung weitgehend ambulante Begleitung, Beratung über technische Fragen, Ersatz<br />

von defekten Teilen, Veränderung der Anpassungsdaten und Aktualisierung der individuellen<br />

Hard- und Software sowie die Dokumentation der Fortschritte mittels verschiedener Hör- und<br />

Sprachtests.<br />

Die CI-Anpassung bei Kleinkindern bedarf einer engen Zusammenarbeit von Pädagogen und<br />

Audiologen und ähnelt in mancher Hinsicht der pädagogischen Verhaltensbeobachtung zur<br />

Hörprüfung oder zur Hörgeräteanpassung (Bertram 1998). Das ”Hören” der Kleinkinder,<br />

insbesondere taubgeborener, ist zunächst nur an sehr diskreten Reaktionen der Augen oder<br />

der Mimik zu erkennen. Sie zu entdecken und richtig zu werten, ist das hauptsächliche Ziel<br />

der ersten Sitzungen zur Anpassung des Sprachprozessors. Erfahrene und eingespielte Teams<br />

sind in der Lage, auch mit Kindern unter 2 Jahren zu arbeiten und zuverlässige Anpasswerte<br />

zu erreichen (Lenarz et al. 1994).<br />

Parallel zur Vervollständigung und wiederholten Kontrolle des Sprachprozessor-Programms<br />

werden Hörübungen und Hörtests zur Förderung und Verlaufsdokumentation der Sprachentwicklung<br />

durchgeführt Hörtest (Bertram 1998) (McCormick et al. 1994). Für die Verlaufskontrolle<br />

bei Kleinkindern vor dem Spracherwerb bietet sich der LiP-Test (Listening Progress)<br />

dar, welcher in einer Uebersichtstabelle die sprachlichen Teilleistungen auflistet<br />

(Archbold et al. 1995). Der Test of Auditory Perception of Speech (TAPS, (Reid u. Lehnhardt<br />

1994)) ist ebenfalls auf CI-Kinder abgestimmt und zwar schon ab dem dritten Lebensjahr.<br />

Als weitere Testbatterie zu erwähnen ist auch der EARS test (Evaluation of Auditory<br />

Responses, MedEl), der aus ursprünglich englischen Tests zusammengesetzt ist und in verschiedenen<br />

Europäischen Sprachversionen vorliegt. Eine Zusammenstellung von weiteren<br />

Tests <strong>für</strong> Sprachperzeption und -Produktion von CI-Kindern findet sich in (Dyar 1994).<br />

Die technologische Entwicklung ist heute so weit fortgeschritten, dass auch bei Kleinkindern<br />

176


eine sichere, zuverlässige und erfolgreiche Versorgung mit einem Cochlear Implant vorgenommen<br />

werden kann (Lehnhardt et al. 1992). Neben der Hörentwicklung sind speziell bei<br />

Kindern vor allem die Fortschritte in der Sprachentwicklung hervorzuheben (Robbins et al.<br />

1995; Waltzman et al. 1997).<br />

Literatur<br />

Abbas PJ, Brown CJ, Shallop JK, Firszt JB, Hughes ML, Hong SH, Staller SJ. Summary of<br />

results using the nucleus CI24M implant to record the electrically evoked compound<br />

action potential. Ear Hear 1999;20: 45-59<br />

Archbold S, Lutman ME, Marshall DH. Categories of Auditory Performance. Ann Otol Rhinol<br />

Laryngol [Suppl] 1995;166: 312-314<br />

Battmer RD, Laszig R, Lehnhardt E. Electrically elicited stapedius reflex in cochlear implant<br />

patients. Ear Hear 1990;11: 370-374<br />

Bertram B. Rehabilitationskonzept bei Kindern. In: Lenarz T (ed) Cochlea-Implantat. Ein<br />

praktischer Leitfaden <strong>für</strong> die Versorgung von Kindern und Erwachsenen. Springer-<br />

Verlag, Berlin, Heidelberg, 1998: 108-121<br />

Brill SM, Gstoettner W, Helms J, von Ilberg C, Baumgartner W, Muller J, Kiefer J. Optimization<br />

of channel number and stimulation rate for the fast continuous interleaved<br />

sampling strategy in the COMBI 40+. Am J Otol 1997;18: S104-6<br />

Dillier N, Battmer RD, Döring WH, Müller-Deile J. Multicentric field evaluation of a new<br />

speech coding strategy for cochlear implants. Audiology 1995;34: 145-159<br />

Dillier N, Laszig R. Audiometrie und Cochlear Implant. In: Lehnhardt E, Laszig R (eds)<br />

Praxis der Audiometrie. Georg Thieme-Verlag, Stuttgart, 2001: 293-309<br />

Dyar D. Monitoring progress: the role of a speech and language therapist. In: McCormick B,<br />

Archbold S, Sheppard S (eds) Cochlear Implants for young children. Whurr Publishers<br />

Ltd, London, 1994: 237-268<br />

Fraysse B, Dillier N, Klenzner T, Laszig R, Manrique MJ, Perez CM, Morgon A, Müller-<br />

Deile J, Ramos AM. Cochlear Implants for Adults Obtaining Marginal Benefit from<br />

Acoustic Amplification. Am J Otol 1998;19: 591-597<br />

Hamacher, V. (2004). Signalverarbeitungsmodelle des elektrisch stimulierten Gehörs. Wissenschaftsverlag<br />

Mainz in Aachen, ISBN 3-928493-48-5<br />

Lehnhardt E, Gnadeberg S, Battmer RD, von Wallenberg EL. Experience with the cochlear<br />

miniature speech processor in adults and children together with a comparison of unipolar<br />

and bipolar modes. ORL 1992;54: 308-313<br />

Lenarz T, Lehnhardt E, Bertram B. Cochlear Implant bei Kindern. Thieme Verlag, Stuttgart,<br />

New York, 1994: 1-158.<br />

McCormick B, Archbold S, Sheppard S. Cochlear Implants for Young Children. Whurr Pub-<br />

177


lisher Ltd., London, 1994: 1-291.<br />

Patrick JF, Evans AR. Implant designs for future coding strategies. Ann Otol Rhinol Laryngol<br />

[Suppl] 1995;166: 137-138<br />

Reid J, Lehnhardt M. Speech perception test results for European children using the Nucleus<br />

Cochlear Implant. Adv in Cochlear Implants, Proc 3rd Int Cochlear Implant Conf<br />

(Innsbruck AU) 1994522-527<br />

Robbins AM, Osberger MJ, Miyamoto RT, Kessler KS. Language development in young<br />

children with cochlear implants. Adv Otorhinolaryngol 1995;50: 160-166<br />

Schulman JH. Using impedance telemetry to diagnose cochlear electrode history, location,<br />

and functionality. Ann Otol Rhinol Laryngol [Suppl] 1995;166: 85-87<br />

Shallop JK. Objective electrophysiological measures from cochlear implant patients. [Review].<br />

Ear Hear 1993;14: 58-63<br />

Skinner MW, Clark GM, Whitford LA, Seligman PM, Staller SJ, Shipp DB, Shallop JK,<br />

Everingham C, Menapace CM, Arndt PL, Antognelli T, Brimacombe JA, Pijl S,<br />

Daniels P, George CR, McDermott HJ, Beiter AL. Evaluation of a new spectral peak<br />

coding strategy for the Nucleus 22 channel cochlear implant system. Am J Otol<br />

Suppl 1994;15: 15-27<br />

Swanson B, Seligman P, Carter P. Impedance measurement of the Nucleus 22-electrode array<br />

in patients. Ann Otol Rhinol Laryngol [Suppl] 1995;166: 141-144<br />

Waltzman S, Cohen NL, Gomolin R, Green J, Shapiro W, Brackett D, Zara C. Perception and<br />

production results in children implanted between 2 and 5 years of age. Adv Otorhinolaryngol<br />

1997;52: 177-180<br />

Wilson BS, Finley CC, Lawson DT, Wolford RD, Eddington DK, Rabinowitz WM. Better<br />

speech recognition with cochlear implants. Nature 1991;352: 236-238<br />

Zierhofer CM, Hochmair IJ, Hochmair ES. The advanced Combi 40+ cochlear implant. Am<br />

J Otol 1997;18: S37-S38<br />

178


Implantierbare Hörgeräte<br />

Andreas Büchner / Hannover<br />

Neben den konventionellen Hörgeräten gibt es inzwischen eine Vielzahl an teil- und<br />

vollimplantierbaren Hörsystemen. Es gibt auch eine Reihe von medizinischen und<br />

audiologischen Indikationen, bei denen die Anwendung von implantierbaren Hörsystemen ein<br />

besseres Ergebnis <strong>für</strong> die Patienten bringen kann. Allerdings hängt der Erfolg der<br />

Hörversorgung solcher Therapiemaßnahmen davon ab, dass die Auswahl der Patienten unter<br />

Betrachtziehen aller medizinischen und audiologischen Aspekte in ausgewiesenen Kliniken<br />

mit ausreichender Erfahrung auf diesem Gebiet durchgeführt wird. Einige von den<br />

Indikationen <strong>für</strong> implantierbare Hörsysteme sind in folgenden genannt:<br />

• Rezidivierende Gehörgangentzündungen infolge konv. HG<br />

• Malformationen des Gehörganges (z. B. Verengung, Exostose usw.)<br />

• Ausgeprägter Hochtonhörverlust mit geringer Hörminderung in Tief- und<br />

Mitteltonbereich<br />

• Limitierte Sprachverständlichkeit bei Nebengeräuschen mit konv. HG<br />

• Schallleitung- und kombinierte Schwerhörigkeiten infolge von verschiedene Krankheiten<br />

(z. B. fehlender Gehörgang oder Mittelohrstrukturen, Chronische Mittelohrentzündungen<br />

mit oder ohne Trommelfellperforation, Radikalhöhle, Otosklerose usw.)<br />

• Tragekomfort und soziale Aspekte<br />

Die implantierbaren Hörgeräte werden in teil- und vollimplantierbare Hörsysteme eingeteilt.<br />

Die teilimplantierbaren Hörgeräte werden wiederum in passive und aktive Hörsysteme<br />

gegliedert. Untere Tabelle zeigt die Einteilung der implantierbaren Hörgräte mit<br />

dazugehörigen Hörsystemen.<br />

179


180<br />

• Retro-X<br />

• Otologics MET<br />

• Hörimplantat Esteem<br />

• BAHA<br />

• Vibrant ® Soundbridge ®<br />

• Otologics CARINA<br />

passive Hörsysteme<br />

aktive Hörsysteme<br />

Aktive Hörsysteme<br />

teilimplantierbare Hörgeräte<br />

vollimplantierbare Hörgeräte<br />

Implantierbare Hörgeräte


Vibrant ® Soundbridge ®<br />

Dieses teilimplantierbare aktive Hörgerät Vibrant Soundbridge (VSB) von Fa. MED-EL<br />

besteht aus einem internen Teil (genant als VORP, S. Bild) und einem externen Teil als<br />

Audioprozessor, welcher die Signalverarbeitung und Stromversorgung des Implantates<br />

beinhaltet. Die HNO-Klinik an der MHH verfügt über jahrelange Erfahrung (seit 1997) mit<br />

über 100 Implantationen an Patienten.<br />

Die VSB eignet sich <strong>für</strong> gering- bis mittelgradige, grenzend an hochgradige Schallleitungs-,<br />

Schallempfindung- und kombinierte Schwerhörigkeiten. Die Bilder zeigen die Operations-<br />

bzw. Ankopplungsmethode <strong>für</strong> verschiedene Indikationen.<br />

Ankopplung am Amboss <strong>für</strong><br />

Innenohrschwerhörigkeiten<br />

181<br />

Ankopplung am runden Fenster <strong>für</strong><br />

kombinierte Schwerhörigkeiten


Die Auswahlkriterien <strong>für</strong> die VSB je nach Indikationen sind in den Diagrammen dargestellt.<br />

Auswahlkriterien <strong>für</strong><br />

Innenohrschwerhörigkeit<br />

(Luftleitungshörschwelle)<br />

Auswahlkriterien <strong>für</strong> Schallleitungs- und<br />

kombinierte Schwerhörigkeiten<br />

(Knochenleitungshörschwelle)<br />

Um die Eignung dieses Systems präoperativ zu bestimmen bzw. dem Patienten einen<br />

Höreindruck zu vermitteln, wird ein Simulationssystem (das sog. DDS-System) mit dem<br />

Trommelfell in Kontakt gebracht und Hörsamples (Sprache und Musik) vorgespielt (S. Bild).<br />

DDS (Direct Drive Stimulation) Darstellung der<br />

Simulationsmethode<br />

182


Otologics MET TM<br />

Das teilimplantierbare Hörsystem MET (Middle Ear Transducer) von Fa. Otologics eignet<br />

sich <strong>für</strong> mittel- bis hochgradige Schallempfindungsschwerhörigkeiten. Dieses System besteht<br />

auch aus einem internen Implantat und einem externen Audioprozessor (s. Bild). Das<br />

Diagramm rechts zeigt die Auswahlkriterien <strong>für</strong> MET.<br />

Frequency [kHz]<br />

183<br />

Hearing Loss [dB HL]<br />

0,125 0,25 0,5 1 1,5 2 3 4 6 8 10<br />

-10<br />

0<br />

10<br />

20<br />

30<br />

40<br />

50<br />

60<br />

70<br />

80<br />

90<br />

100<br />

11 0<br />

Auswahlkriterien <strong>für</strong><br />

Innenohrschwerhörigkeit<br />

(Luftleitungshörschwelle)


Otologics CARINA TM<br />

Das vollimplantierbare Hörsystem CARINA von Fa. Otologics hat<br />

seit 2006 eine CE-Markt Zulassung und wurde bis jetzt weltweit an<br />

450 Patienten implantiert. Dieses System eignet sich <strong>für</strong> die mittel-<br />

bis hochgradige Schallempfindungs- und kombinierten<br />

Schwerhörigkeiten.<br />

Ankopplung am Amboss <strong>für</strong><br />

Innenohrschwerhörigkeiten<br />

Bei diesem System werden alle Teile (Mikrofon, Batterie,<br />

Audioprozessor und der Wandler) implantiert. Die<br />

Programmierung und das Aufladen der Batterie erfolgt transkutan<br />

(über die Haut) wie in Abb. dargestellt. Die Aufladedauer beträgt<br />

etwa 1 Std. <strong>für</strong> je etwa 16 Std. Nutzungszeit.<br />

Auflade-Station des<br />

CARINA-Systems<br />

Die Abb. zeigt die Auswahlkriterien <strong>für</strong> das CARINA.<br />

Auswahlkriterien <strong>für</strong> CARINA<br />

(Luft- und Knochenleitungshörschwelle)<br />

184<br />

Hearing loss [dB HL]<br />

Frequency [kHz]<br />

0.25<br />

0<br />

0.5 1 1.5 2 3 4 6<br />

20<br />

40<br />

60<br />

80<br />

100<br />

Ankopplung am Stapes <strong>für</strong><br />

kombinierte Schwerhörigkeiten<br />

Aufladen von CARINA über<br />

das Gurtsystem


Esteem®<br />

Das Funktionsprinzip des vollimplantierbaren Hörsystems Esteem von Fa. Envoy Medical<br />

basiert auf die Schallaufnahme am Amboß durch einen Piezosensor, welcher nach<br />

entsprechender Signalverarbeitung und Verstärkung durch einen zweiten Piezowandler,<br />

welcher am Stapes implantiert wird, an das Innenohr weitergegeben wird. Allerdings, um<br />

Verzerrungen bzw. Rückkopplungen zu vermeiden, muss die normale Gehörknöchelchenkette<br />

unterbrochen werden. Die Energieversorgung dieses Systems erfolgt über spezielle Batterien,<br />

die sonst bei Herzschrittmachern eingesetzt werden. Die Batterien haben eine Lebensdauer<br />

von ca. 3 Jahren und müssen dann über einen kleinen chirurgischen Eingriff gewechselt<br />

werden.<br />

185


186


Versorgung und Rehabilitation mit technischen Hörhilfen<br />

Jürgen Kießling / Gießen<br />

1. Aufbau und Funktion von Hörgeräten<br />

Unter der Bezeichnung technische Hörhilfen versteht man grundsätzlich sämtliche Formen konventioneller<br />

Hörgeräte und implantierbarer Hörsysteme sowie Zusatzeinrichtungen und Übertragungsanlagen<br />

(FM-Anlagen, Bluetooth), die im Englischen unter dem Begriff Assistive Listening<br />

Devices (ALD) zusammengefasst werden. Da implantierbare Hörsysteme an anderer Stelle abhandelt<br />

werden, beschränkt sich der vorliegende Beitrag auf die Behandlung nichtimplantierbarer<br />

Hörhilfen. Heutige Hörgeräte basieren grundsätzlich auf digitaler Signalverarbeitung.<br />

Das grundlegende Funktionsprinzip von Digitalhörgeräten basiert auf den in Abb. 1 schematisch<br />

dargestellten Komponenten: Schallempfänger (Mikrofon bzw. Induktionsspule), Vorverstärker,<br />

Analog-Digital-Wandler, Signalprozessor mit n Frequenzbändern, Digital-Analog-<br />

Wandler, Nachverstärker und Schallsender (Hörer).<br />

Im normalen Betrieb handelt es sich beim<br />

Schallempfänger um ein Mikrofon, das den<br />

Schall am Hörgeräteeingang aufnimmt und<br />

<strong>für</strong> die weitere Verarbeitung in eine elektrische<br />

Wechselspannung umwandelt. Neben<br />

dem Mikrofon sind zahlreiche Hörgeräte<br />

zusätzlich mit einem Empfänger <strong>für</strong> den<br />

induktiven Betrieb (Induktionsspule, Telefonspule)<br />

ausgestattet, um optional auch<br />

elektromagnetische Wellen aufnehmen zu<br />

können, die z. B. von Induktionsschleifen<br />

oder Telefonhörern abgestrahlt werden.<br />

Über eine weitere Möglichkeit der Signaleinspeisung<br />

verfügen Hörgeräte, die mit<br />

Audioeingang ausgestattet sind. Bei diesen<br />

Geräten kann zum Anschluss externer<br />

Schallquellen, wie Klassenverstärkeranlagen,<br />

Funkanlagen, Radio- oder Fernsehgeräten,<br />

CD- oder MP3-Playern sowie anderer<br />

Zusatzeinrichtungen, das Eingangssignal<br />

direkt als elektrische Spannung über<br />

den Audioeingang ins Hörgerät eingekoppelt<br />

werden. Insbesondere <strong>für</strong> die Versorgung<br />

schwerhöriger Kinder hat sich der<br />

Audioeingang als unverzichtbar erwiesen,<br />

wohingegen er bei der Versorgung Erwachsener<br />

bisher nur begrenzte Bedeutung<br />

erlangt hat.<br />

Band 1<br />

Das Mikrofon (bzw. die Induktionsspule oder der Audioeingang) liefert das elektrische Eingangssignal,<br />

das in den nächsten Schritten verstärkt und mittels Analog-Digital-Wandler <strong>für</strong> die<br />

187<br />

Mikrofon<br />

Band 2<br />

Hörer<br />

(=Miniaturlautsprecher)<br />

Verstärker<br />

Analog-<br />

Digital-<br />

Wandler<br />

Band 3<br />

+ ++<br />

Digital-<br />

Analog-<br />

Wandler<br />

Verstärker<br />

Band 4<br />

Band n<br />

Hörgeräteprogrammierung<br />

mittels Computer<br />

über Interface<br />

Digitaler<br />

Signalprozessor<br />

(DSP)<br />

Abb. 1: Funktionsdiagramm eines mehrkanaligen Hörgerätes mit<br />

digitaler Signalverarbeitung


weitere Verarbeitung digitalisiert wird. Das Digitalsignal wird im Signalprozessor entsprechend<br />

den Bedürfnissen des Nutzers bearbeitet, d.h. verstärkt, komprimiert, gefiltert oder in anderer<br />

Weise modifiziert, wobei auch bei Digitalhörgeräten die Verstärkungsfunktion im Vordergrund<br />

steht. Angesichts der Vielzahl von innenohrschwerhörigen Hörgerätekandidaten mit Recruitment<br />

sind in der Regel nicht-lineare Verstärkungssysteme angezeigt, bei denen das erforderliche<br />

frequenzabhängige Verstärkungs- und Kompressionsverhalten durch Aufteilung des Eingangssignals<br />

in mehrere Frequenzbänder verwirklicht wird. Nach digitaler Verarbeitung wird das Signal<br />

digital-analog gewandelt und nachverstärkt, um den nachfolgenden Wandler zu betreiben.<br />

Bei Luftleitungshörgeräten hat ein Miniaturhörer die Funktion des Schallsenders, der das Ohr<br />

direkt oder über ein Ohrpassstück beschallt. Knochenleitungshörgeräte sind mit Knochenleitungshörern<br />

ausgestattet, die eine vibratorische Anregung des Schädelknochens bewirken und<br />

damit Wanderwellen in der Cochlea direkt auslösen.<br />

Neben den in Abb. 1 beschriebenen Hauptkomponenten benötigen Hörgeräte eine Energiezelle<br />

(Batterie oder Akku) und, sofern es sich nicht um Automatikgeräte handelt, Bedienungselemente<br />

<strong>für</strong> den Hörgeräteträger (Ein-Ausschalter, Programmschalter, Verstärkungsregler). Zudem<br />

verfügen Hörgeräte über eine Kabelanschlussmöglichkeit (Buchse, Adapter <strong>für</strong> Batteriefach) an<br />

das Programmiersystem, mit dem der Akustiker die Hörgerätewiedergabe an die Gehöreigenschaften<br />

des Nutzers individuell anpassen kann. Solche Programmiersysteme bestehen aus<br />

einem hörgerätespezifischen Interface und einem Personal Computer, auf dem die Anpassprogramme<br />

der Hörgeräthersteller installiert sind. Zusammen mit der Softwareplattform NOAH haben<br />

sich universelle kabelgebundene bzw. kabellose Schnittstellen zwischen Hörgerät und<br />

Computer als de facto Industriestandard zur Programmierung von Hörgeräten durchgesetzt, die<br />

von den Hörgeräteherstellern unterstützt werden. Mit dieser universellen Software-Plattform<br />

können Hörgeräte in Verbindung mit herstellerspezifischer Anpasssoftware programmiert und<br />

Messgeräte <strong>für</strong> die Hörgerätanpassung gesteuert werden. Daneben bieten die Hersteller auch<br />

Stand-alone-Versionen ihrer Anpassprogramme an.<br />

2. Signalverarbeitung in Hörgeräten<br />

Die primäre Aufgabe von Hörgeräten besteht darin, den einfallenden Schall, insbesondere Sprache<br />

und andere relevante Schallereignisse, in den Restdynamikbereich des Hörgeräteträgers passend<br />

zu übertragen, so dass in etwa eine lautheitsgerechte Wahrnehmung erfolgen kann: leise Eingangssignale<br />

sollen leise und laute Eingangssignale sollen laut gehört werden. Dazu ist eine individuelle<br />

Frequenz- und Dynamikanpassung erforderlich. Sofern die Restdynamik ausreichend breit<br />

ist, kann die Verstärkung linear erfolgen, d. h. unabhängig vom Eingangspegel liefert das Hörgerät<br />

frequenzspezifisch eine einheitliche Verstärkung. Da die Mehrzahl der Hörgerätekandidaten jedoch<br />

unter Innenohrschwerhörigkeit mit Recruitment, also unter einer eingeengten Restdynamik, leiden,<br />

bedarf es in der Regel nicht-linearer Verstärkungssysteme.<br />

Im Falle von stark frequenzabhängigen Hörstörungen verbunden mit frequenzspezifisch eingeengtem<br />

Restdynamikbereich, gelingt es mit einkanaligen, frequenzunabhängigen Kompressionssystemen<br />

nicht, Sprache adäquat in den Restdynamikbereich zu übertragen. In diesem <strong>für</strong> Hörgeräteversorgungen<br />

typischen Fall sind mehrkanalige Verstärkungs- und Kompressionssysteme notwendig.<br />

Digitalhörgeräte zerlegen das Eingangssignal grundsätzlich in mehrere Frequenzbänder, so<br />

dass frequenzspezifische Verstärkung und Kompression realisiert werden und deren Parameter<br />

individuell an das jeweilige Gehör angepasst werden können. In Abb. 2 ist eine frequenzabhängige<br />

Verstärkungs- und Kompressionswirkung <strong>für</strong> ein 12-kanaliges System dargestellt, mit dem das<br />

Sprachsignal komplett und dynamikgerecht in den Restdynamikbereich verlagert werden kann,<br />

ohne die Unbehaglichkeitsschwelle zu überschreiten.<br />

188


Neben der Möglichkeit der differenzierten Frequenz- und Dynamikanpassung bieten aktuelle<br />

Hörgeräte zusätzliche Funktions- und Ausstattungsmerkmale, die auf komplexer Signalverarbeitung<br />

beruhen. In diesem Bereich der digitalen Signalverarbeitung konnten bei der Bekämpfung<br />

akustischer Rückkopplungen deutliche Fortschritte erzielt werden. Zur Lösung dieses Problems<br />

haben sich Verfahren etabliert, die auf einer Auslöschung der Rückkopplung durch Addition<br />

eines gegenphasigen Signals beruhen. Zu diesem Zweck wird der akustische Rückkopplungspfad<br />

kontinuierlich analysiert, ein zum Rückkopplungssignal gegenphasiges Signal erzeugt und<br />

dem Hörgeräteeingang überlagert, so dass es nach einer kurzen Adaptationszeit zur Auslöschung<br />

der Rückkopplung kommt. Durch die Adaptivität passt sich das System eventuellen Änderungen<br />

des Rückkopplungspfades ständig an, so dass man derzeit eine um 15-20 dB höhere<br />

Verstärkung rückkopplungsfrei erreichen und im täglichen Gebrauch nutzen kann, was der offenen<br />

Versorgung in den letzten Jahren zum Durchbruch verholfen hat.<br />

Ein anderes Problem von großer<br />

praktischer Bedeutung ist<br />

das eingeschränkte Sprachverstehen<br />

im Störgeräusch, speziell<br />

im Stimmengewirr. Auch<br />

diesem Problem kann man mit<br />

modernen Signalverarbeitungsalgorithmen<br />

entgegenwirken.<br />

Der heute gängigste Lösungsansatz<br />

beruht auf der Annahme,<br />

dass es sich beim Nutzsignal<br />

meist um Sprache handelt und<br />

das Nutzsignal damit durch eine<br />

sprachtypische Amplitudenmodulation<br />

gekennzeichnet ist. Zur<br />

Detektion und Reduktion des<br />

Störschalls nutzt man die Aufteilung<br />

des Eingangssignals in<br />

mehrere Frequenzbänder (siehe<br />

Abb. 2), in denen jeweils<br />

Hörverlust in dB HL<br />

eine Modulationsanalyse vorgenommen wird. Findet das System in einem Band eine ausgeprägte<br />

sprachtypische Modulation, ist davon auszugehen, dass in diesem Frequenzband<br />

Sprachanteile in erheblichem Maße auftreten, die erhalten werden müssen. Dementsprechend<br />

erfolgt in diesem Band keine Abschwächung. In den Bändern, in denen dagegen keine oder<br />

keine wesentliche sprachtypische Modulation auftritt, wird abhängig vom Modulationsgrad eine<br />

Abschwächung des Signals vorgenommen. Dann werden die bearbeiteten Teilsignale der einzelnen<br />

Frequenzbänder wieder zusammengeführt und dem Hörgerätenutzer über den Hörer<br />

hörbar gemacht.<br />

Wenn in den einzelnen Frequenzbändern<br />

entweder überwiegend<br />

Sprachanteile oder Störschall auftreten,<br />

funktioniert diese Form der Störschallunterdrückung<br />

gut. Liegt dagegen,<br />

wie es in realen Störschallsituationen<br />

häufig der Fall ist, eine weitgehende<br />

spektrale Überlappung von<br />

0<br />

20<br />

40<br />

60<br />

80<br />

100<br />

120<br />

125 250 500 1k 2k 4k 8k<br />

Band 2<br />

Band 1<br />

Eingangssignal:<br />

Sprache und<br />

Störschall<br />

189<br />

Band 4<br />

Band 3<br />

Frequenz in Hz<br />

Abb. 2: Grundprinzip der Signalverarbeitung in mehrkanaligen Hörgeräten<br />

veranschaulicht anhand eines Tonaudiogramms in Relativdarstellung.<br />

Band 1<br />

Band 2<br />

Band 3<br />

Band 4<br />

Band n<br />

Band 1<br />

Band 2<br />

Band 3<br />

Band 4<br />

Band n<br />

Ausgangssignal<br />

nach Störschallunterdrückung<br />

Abb. 3: Störschallunterdrückung auf der Basis einer Modulationsanalyse: Bänder mit<br />

Sprachmodulation werden verstärkt, Bänder ohne Sprachmodulation abgeschwächt.<br />

Band n<br />

Sprachspektrum<br />

Hörschwelle<br />

Unbehaglichkeitsschwelle<br />

+


Nutz- und Störschall vor, so kann diese Form der Störschallunterdrückung lediglich begrenzte<br />

Wirkung entwickeln, da in den Frequenzbändern des Überlappungsbereichs ein ähnlicher Modulationsgrad<br />

vorliegt, deshalb alle relevanten Bänder in gleichem Umfang abgeschwächt werden<br />

und somit nicht zur Verbesserung des Signal-Störschall-Abstands beitragen können.<br />

Handelt es sich um eine Störschallsituation, bei der der Nutzschall von vorn einfällt, also der<br />

typischen Situation zweier Gesprächspartner im Störschall, kann mit Richtmikrofonen eine signifikante<br />

Verbesserung des Sprachverstehens erreicht werden. Das Grundprinzip moderner<br />

Richtmikrofonhörgeräte basiert auf dem Zusammenwirken zweier Mikrofone, die in ausreichendem<br />

Abstand in Vorn-Hinten-Richtung angeordnet sind und deren Signale voneinander subtrahiert<br />

werden. Dabei wird das Signal des hinteren Mikrofons zeitlich so verzögert, dass es bei der<br />

nachfolgenden Subtraktion der Mikrofonsignale zu einer Auslöschung des rückwärtigen oder<br />

seitlichen Schalls kommt.<br />

Typische Richtmikrofonsysteme verfügen über zwei Einzelmikrofone, die in der beschriebenen<br />

Weise zusammenwirken, doch kann die Richtwirkung durch Mikrofonarrays bestehend aus drei<br />

oder mehr zusammen geschalteten Mikrofonen noch gesteigert werden. Das hier beschriebene<br />

Mikrofonprinzip bietet eine universelle Richtcharakteristik oder durch Wahl einer anderen Zeitverzögerung<br />

die Möglichkeit, die gewünschte Richtung maximaler Störschallunterdrückung<br />

(häufig die Hinten-Richtung) im Rahmen der Hörgeräteanpassung individuell einstellen zu können.<br />

Heutige Richtmikrofonhörgeräte wirken vielfach über diese Form der fest eingestellten<br />

Richtwirkung hinaus und verfügen über eine adaptive Richtwirkung, die sich automatisch auf die<br />

Unterdrückung der Hauptstörschallquelle einstellt.<br />

Basierend auf den hier behandelten Formen der Signalverarbeitung (Verstärkung, Dynamikompression,<br />

Rückkopplungsunterdrückung, Störschallunterdrückung, Richtwirkung) kann ein<br />

Set von Grundeinstellungen <strong>für</strong> typische, immer wiederkehrende Hörsituationen wie z. B. Sprache<br />

in Ruhe, Sprache im Störschall, Störschall allein, Musik, Telefonieren etc., definiert und im<br />

Hörgerät programmiert werden. Diese so genannten Hörprogramme können zudem entsprechend<br />

den persönlichen Wünschen und Bedürfnissen des Hörgerätenutzers optimiert, auf verschiedenen<br />

Programmplätzen des Hörgerätes abgelegt und situationsbedingt vom Nutzer angewählt<br />

werden. In dieser Form können typischerweise zwei bis vier Hörprogramme zur Verfügung<br />

gestellt werden. Die Programmwahl erfolgt entweder mit Hilfe eines Tippschalters am Gerät,<br />

mit dem die einzelnen Programme zyklisch durchgeschaltet werden können, oder mit Hilfe<br />

einer Fernbedienung. Wird in ein anderes Hörprogramm umgeschaltet, bestätigt das Hörgerät<br />

die Umschaltung mit einer akustischen Programmkennung (Tonfolge, Sprachansage), die<br />

wahlweise deaktiviert und bei manchen Produkten auch individualisiert werden kann.<br />

Die praktische Erfahrung mit Multiprogramm-Hörgeräten zeigt, dass zahlreiche Hörgerätenutzer<br />

ihre Hörprogramme häufig nicht entsprechend ihrer Bestimmung nutzen. So zeigen Studien mit<br />

Datalogging-Hörgeräten (siehe unten), dass das Basisprogramm, das beim Einschalten der<br />

Hörgeräte aktiviert wird, zu 70-80 % der Nutzungsdauer beibehalten wird, auch in Situationen in<br />

denen andere Hörprogramme zweckmäßiger gewesen wären. Deshalb bieten die Hörgerätehersteller<br />

zunehmend die Möglichkeit der automatischen Programmeinstellung auf der Basis<br />

einer Situationserkennung und -klassifizierung (akustische Szenenanalyse) an. Dazu führt das<br />

Hörgerät eine kontinuierliche Analyse des Umgebungsschalls durch und bewertet eine Reihe<br />

von Schallfeldparametern (Pegel, Frequenz, Modulation, zeitliche Veränderungen, Links-<br />

Rechts-Vergleich etc.). Auf dieser Grundlage erfolgt eine Klassifikation der jeweiligen Hörsituation<br />

und nachfolgend die Einstellung des zugeordneten Hörprogramms. Neben Hörgeräten mit<br />

Festprogrammautomatik gibt es solche, die eine situationsbedingte Optimierung einzelner Ein-<br />

190


stellparameter vornehmen, also nicht auf einem vorgegebenen Satz von Einstellungen beruhen.<br />

Zahlreiche Hörgerätetypen bieten die Möglichkeit, das Nutzungsverhalten der Geräte intern aufzuzeichnen<br />

und zu speichern (Datalogging). In diesen Fällen kann der Hörgeräteakustiker beim<br />

nächsten Besuch des Kunden z. B. auslesen, wie lange die einzelnen Hörprogramme in welchen<br />

Hörsituationen genutzt worden sind, wie oft manuelle Aktionen (Ein-Ausschalten, Programmwahl)<br />

durchgeführt wurden und in welchem Umfang die Verstärkung nachgeregelt wurde.<br />

Diese Information kann der Akustiker in zweierlei Hinsicht zur Optimierung der Versorgung nutzen:<br />

Zum einen kann er den Hörgeräteträger gezielt beraten und nachschulen, wenn erkennbar<br />

ist, dass die Hörgeräte nicht adäquat genutzt worden sind. Ferner kann eine gezielte Nachanpassung<br />

durchgeführt werden, wenn die aufgezeichneten Daten zeigen, dass der Hörgerätenutzer<br />

systematische Abweichungen von der vorgewählten Einstellung vornimmt.<br />

Daneben sind auch so genannte selbstlernende Hörgeräte auf dem Markt, die auf der Grundlage<br />

des Nutzungsverhaltens automatische Korrekturen der Hörgeräteeinstellung vornehmen.<br />

Korrigiert der Hörgeräteträger die eingestellte Verstärkung oder den Klang nach jedem Einschalten<br />

immer wieder tendenziell in die gleiche Richtung, so regelt ein selbstlernendes System<br />

die Verstärkungseinstellung oder den Klang langsam über mehrere Tage nach bis die Einstellung<br />

auf den gewünschten Wert konvergiert ist. Dieser Lernprozess erfolgt separat in jedem<br />

Hörprogramm, so dass eine programmspezifische Optimierung möglich ist.<br />

3. Hörgerätebauformen<br />

3.1 HdO-Hörgeräte<br />

Die am stärksten verbreitete Bauform sind die so genannten Hinter-dem-Ohr-Hörgeräte (HdO),<br />

deren Marktanteil in Deutschland bei etwa 90 % liegt. Bei HdO-Geräten ist die Schalleintrittsöffnung<br />

des Mikrofons an der Gehäuseoberseite platziert, um einen möglichst ungehinderten<br />

Schalleinfall zu ermöglichen. Sofern das Gerät über eine zuschaltbare Richtcharakteristik verfügt,<br />

sind mehrere Mikrofonöffnungen vorhanden. Bei klassischen HdO-Geräten ist der Hörer im<br />

Gehäuse integriert und der Schall wird über einen Hörgerätewinkel, einen Schallschlauch und<br />

eine individuell gefertigte (Abb. 4, links) oder universelle (Abb. 4, Mitte) Otoplastik in den äußeren<br />

Gehörgang des Hörgeräteträgers geleitet.<br />

Ferner ist der<br />

Signalprozessor im<br />

HdO-Gehäuse<br />

untergebracht und<br />

kann über ein<br />

Programmierinterface<br />

mit einem Computer<br />

verbunden und<br />

programmiert werden<br />

(siehe Abb. 1). Die<br />

Batterie ist in der<br />

Abb. 4: Hinter-dem Ohr-Hörgeräte mit individueller Otoplastik (links, transparent zur Darstellung der<br />

Komponenten), offenem Standardohrstück (Mitte) und ausgelagertem Hörer im Gehörgang (rechts).<br />

Regel im unteren Teil des Gehäuses platziert, während die Bedienungselemente (Lautstärkesteller,<br />

ggf. Programmwahlschalter) auf der Gehäuseoberseite angeordnet sind. Optional kann<br />

die Bedienung auch mittels Fernbedienung erfolgen. Automatikgeräte kommen ohne mechanische<br />

Bedienungselemente aus.<br />

Für die Wiedergabeeigenschaften von HdO-Hörgeräten ist die akustische Ankopplung, bestehend<br />

aus Hörgerätewinkel, Schallschlauch, Otoplastik und Gehörgangsrestvolumen, von be-<br />

191


sonderer Bedeutung. So kann die Hörgerätewiedergabe durch gezielte Modifikationen am akustischen<br />

System (Dimensionierung, Dämpfungselemente, Zusatzbohrungen, Resonanzräume)<br />

an die Bedürfnisse des Nutzers angepasst werden. Die wichtigsten und wirkungsvollsten Möglichkeiten,<br />

die Wiedergabekurve in definierter Weise zu modifizieren, bieten Zusatzbohrungen<br />

(Vents) in der Otoplastik und total offene Versorgungen. Bei Zusatzbohrungen handelt es sich<br />

um Bohrungen, meist parallel zum Schallkanal, die das Gehörgangsrestvolumen nach außen<br />

eröffnen, so dass Schallkanal, Residualvolumen und Zusatzbohrung gemeinsam einen Hohlraumresonator<br />

bilden. Zusatzbohrungen stellen einen akustischen Tiefpass dar, der <strong>für</strong> niedrige<br />

Frequenzen durchlässig und <strong>für</strong> hohe Frequenzen weitgehend undurchlässig ist. So fließen<br />

tieffrequente Schallanteile aus dem Gehörgangsrestvolumen nach außen ab, was zu einer Absenkung<br />

der Wiedergabekurve im Frequenzbereich unterhalb 1000 Hz führt.<br />

Heute kann die Anpassung von Hörgeräten in vielen Fällen mit offenem Gehörgang erfolgen.<br />

Durch die Verwendung offener Ohrpassstücke wird das Auftreten des Okklusionseffekts (Verschlusseffekt)<br />

vermieden, der sich primär durch Unnatürlichkeit der eigenen Stimme äußert,<br />

was wiederum häufig zu Akzeptanzproblemen mit den Hörgeräten führt. Grund da<strong>für</strong> ist die Tatsache,<br />

dass der Schall der eigenen Stimme sowohl auf dem Luftleitungsweg über den äußeren<br />

Gehörgang als auch körpergeleitet über die Gehörgangswand ans eigene Ohr gelangt. Im unversorgten<br />

Fall fließt ein Teil des körpergeleiteten Schalls nach außen ab und der so entstehende<br />

Klangeindruck wird als natürlich empfunden. Wird dagegen ein Hörgerät mit geschlosser<br />

Otoplastik angepasst, so fängt sich der körpergeleitete Schallanteil im Gehörgang, weil ein<br />

Schallabfluss nicht möglich ist.<br />

Möglich wurden offenen Versorgung durch Fortschritte in der Signalverarbeitung. Effiziente<br />

Rückkopplungsunterdrückungssysteme (siehe 2.) erlauben bei offener Versorgung 15-20 dB<br />

höhere Verstärkung. Daneben hat die schnelle Signalverarbeitung in modernen Hörgeräten dazu<br />

beigetragen, dass die zeitliche Verzögerung des im Hörgerät verarbeiteten Schalls gegenüber<br />

dem Direktschall durch das Vent so gering geworden ist (< 5 ms), dass sie vom Hörgeräteträger<br />

nicht mehr störend wahrgenommen wird. So konnten sich zwei neue Produktgruppen<br />

etablieren, nämlich HdO-Geräte mit:<br />

• dünnem Schallschlauch und offenem Silikon-Standardohrstück (Abb. 4, Mitte) bzw.<br />

• ausgelagertem Hörer im Gehörgang (RIC: Receiver-in-Canal; Abb. 4, rechts).<br />

Geräte mit dünnem Schallschlauch (Mikroschallschlauch) und offenem Silikon-<br />

Standardohrstück zeichnen sich durch Unauffälligkeit und hohen Tragekomfort aus. Der wesentliche<br />

Vorzug dieser Kopplungssysteme besteht aber darin, dass sie bezüglich der Okklusionswirkung<br />

dem offenen Gehörgang sehr nahe kommen. Diesen Vorzügen stehen nur unbedeutende<br />

Nachteile gegenüber. So bieten Silikon-Standardohrstücke nicht immer einen sicheren<br />

Sitz im Gehörgang. In diesen Fällen können Mikroschlauchsysteme auch mit individuell gefertigten,<br />

offenen Otoplastiken ausgestattet werden. Ferner muss bei Mikroschlauchsystemen beachtet<br />

werden, dass der Schallschlauch mit abnehmendem Durchmesser eine zunehmende Höhenabsenkung<br />

verursacht, die durch entsprechende Verstärkungsanhebung kompensiert werden<br />

muss.<br />

Bei HdO-Geräten mit externem Hörer entfällt der Schallschlauch und so werden störende<br />

Schlaucheffekte, wie Tiefpasswirkung und Resonanzspitzen vermieden. Durch die Auslagerung<br />

des Hörers können die Geräte noch kleiner gestaltet werden. Die offene Anpassung erfolgt bei<br />

den Ex-Hörersystemen mit ähnlichen Standardohrstücken wie sie <strong>für</strong> Mikroschlauchsysteme<br />

üblich sind. Auch Systeme mit externem Hörer können mit offenen Maßotoplastiken angepasst<br />

werden, um eine bessere Fixierung im Gehörgang zu erreichen. Da der Hörer im Gehörgang<br />

192


Zerumen- und Feuchtigkeitseinflüssen direkt ausgesetzt ist, muss die Hörer-Kabeleinheit bei<br />

Defekten leicht austauschbar sein. Daneben haben Ex-Hörersysteme tendenziell den Nachteil,<br />

nicht ganz so offen angepasst werden zu können wie Mikroschlauchsysteme, da der Hörer einen<br />

Teil des Gehörgangsquerschnitts verlegt und damit den Grad der Offenheit reduziert.<br />

3.2 Andere Hörgerätebauformen<br />

Im-Ohr-Hörgeräte (IO-Geräte), die in Deutschland derzeit einen Marktanteil von etwa 10 % haben,<br />

werden meist als Gehörgangsgeräte ausgeführt (Abb. 5; Mitte und rechts). Nur noch selten<br />

kommen größere Bauformen, die die Concha in Teilen ausfüllen (Abb. 5, links), zum Einsatz.<br />

Die akustischen Vorteile von IO-Geräten beruhen vornehmlich auf der Platzierung des Mikrofons<br />

am Gehörgangseintritt, also der Schallaufnahme am natürlichen Ort, und darauf, dass der<br />

Schallschlauch mit den oben genannten Nachteilen entfällt.<br />

Negativ wirkt sich<br />

bei IO-Geräten aus,<br />

dass komplett offene<br />

Anpassungen<br />

nicht möglich sind,<br />

da die Hörgerätetechnik<br />

auch bei<br />

extrem kleiner Bauform<br />

den Gehörgangsquerschnitt<br />

zu<br />

großen Teilen ausfüllt.<br />

Doch können<br />

abhängig von den<br />

Abb. 5: Im-Ohr-Hörgeräte-Bauformen: Conchagerät (links), Gehörgangsgerät (Mitte), Gehörgangsgerät<br />

mit speziellem Vent zur Reduktion des Okklusionseffekts (rechts).<br />

Gehörgangsdimensionen auch mit Im-Ohr-Hörgeräten tendenziell offenere Versorgungen realisiert<br />

werden, um den Okklusionseffekt zu reduzieren. Das geling mit möglichst großen und kurzen<br />

Vents (Abb. 5, rechts), da die akustische Masse des Vents <strong>für</strong> das Ausmaß des Okklusionseffekts<br />

maßgeblich ist. Wenn der Gehörgang <strong>für</strong> derartige Lösungen nicht genügend groß ist,<br />

kann man auf IO-Varianten ausweichen, bei denen entweder das Mikrofon in die Cymba ausgelagert<br />

wird, oder das eigentliche Hörgerät in der Cymba platziert ist und über ein Kabel mit externem<br />

Hörer im Gehörgang verbunden ist, um den Gehörgang möglichst offen zu halten.<br />

Luftleitungshörbrillen stellen de facto keine separate Form der Versorgung dar, sondern verkörpern<br />

HdO-Technologie, die in einem Brillenbügel an Stelle eines HdO-Gehäuses integriert ist.<br />

Das kann durch Anbringung von HdO-Geräten mittels Adapter an eine Brille erfolgen, was nur<br />

noch sehr selten zum Einsatz kommt. Daneben werden eigens gefertigte Hörbrillenbügel angeboten,<br />

die herstellerseitig alle Hörgerätekomponenten enthalten und an nahezu jede Brille angebracht<br />

werden können.<br />

In Fällen von Schallleitungsstörungen, bei denen eine Gehör verbessernde Operation nicht indiziert<br />

oder nicht gewünscht ist, können Knochenleitungshörhilfen in Erwägung gezogen werden.<br />

In ihrer herkömmlichen Form werden Knochenleitungshörgeräte als beidseitige Hörbrille ausgeführt,<br />

bei der beide Brillenbügel mit Knochenleitungshörern ausgestattet sind. Bei Kleinkindern,<br />

<strong>für</strong> die eine Brillenlösung noch nicht in Frage kommt, kann die Knochenleitungsversorgung vorübergehend<br />

auch mit Hilfe eines Kopfbügels erfolgen. Ein Vorzug von Knochenleitungsversorgungen<br />

ist der unverschlossene Gehörgang, der eine gute Belüftung des Gehörgangs sicherstellt,<br />

die aber auch mit offener Luftleitungsversorgung erreicht werden kann. Ein kosmetischer<br />

Vorzug ergibt sich daraus, dass es bei Knochenleitungsbrillen keines Schallschlauchs bedarf.<br />

193


Dem steht der erforderliche Andruck der Knochenleitungshörer bzw. des Brillenbügels gegenüber,<br />

der gelegentlich Kopfschmerz verursacht und in manchen Fällen zur Knochenresorption<br />

führen kann. Auch reicht die Verstärkungsleistung von Knochenleitungshörbrillen oft nicht aus.<br />

194


4. Hörgeräteanpassung und -kontrolle<br />

4.1 Hörgeräteanpassung<br />

Am Beginn einer Hörgeräteanpassung muss die Erfassung des persönlichen Bedarfsprofils stehen.<br />

Das persönliche Bedarfsprofil zielt darauf ab, die Nutzungsgewohnheiten, den Anspruch<br />

und die Erwartungen zu ermitteln, die der Nutzer an seine Hörgeräte richtet. Auf dieser Grundlage<br />

können die Ausstattungsmerkmale der Hörgeräte entsprechend dem persönlichen Bedarf<br />

ausgewählt und angepasst werden. Die Erhebung des Bedarfsprofils kann informal im Rahmen<br />

eines Beratungsgesprächs erfolgen, aber grundsätzlich ist zum Abschluss der informalen Beratung<br />

eine strukturierte Befragung anhand eines Fragebogens zweckmäßig. Das in diesem Kontext<br />

wohl am häufigsten eingesetzte Befragungsinstrument ist der so genannte COSI-<br />

Fragebogen (Client Oriented Scale of Improvement), mit dem in dieser Phase zunächst die <strong>für</strong><br />

den Nutzer wichtigsten Kommunikations- bzw. Hörsituationen erfasst werden. Mit strukturierten<br />

Befragungsinstrumenten dieser Art kann das Bedarfsprofil eindeutig festgehalten, im Verlauf der<br />

Anpassung als Referenz heran gezogen und mit dem Hörgerätenutzer immer wieder besprochen<br />

und mit den persönlichen Zielen abgeglichen werden.<br />

Neben der Erfassung von grundsätzlichen Zielen und Wünschen müssen die persönlichen Präferenzen<br />

<strong>für</strong> bestimmte Ausstattungsmerkmale und die Nutzungsgewohnheiten besprochen<br />

werden soweit sie <strong>für</strong> die Typenauswahl relevant sind, so z. B. Kostenaspekte (Anschaffung,<br />

Betrieb, Service), Bedienbarkeit, Bauform (Funktionalität, Sichtbarkeit), Stellmöglichkeiten (Verstärkung,<br />

Hörprogramme, Klang), Automatikfunktionen (Verstärkungsregelung, Situationserkennung),<br />

Fernbedienung, Anschlussmöglichkeiten von Zusatzgeräten (FM, Telefon, TV, HiFi<br />

usw.).<br />

An die Erfassung des Bedarfsprofils schließt sich eine Basisanpassung der Hörgeräte an. Wie<br />

bereits an anderer Stelle dargelegt, ist die Wiederherstellung der Hörbarkeit das primäre Ziel<br />

der gängigen Anpassformeln und -prozeduren, die im Rahmen der Basisanpassung verwendet<br />

werden. Damit basiert die Hörgeräteanpassung grundsätzlich auf einem modifizierten Lautheits-<br />

Mapping. Trotzdem haben sich lautheitsgestützte Anpassprozeduren <strong>für</strong> die Basisanpassung<br />

nicht durchgesetzt sondern hörschwellenbasierte Formeln, da diese schnell und unkompliziert<br />

angewendet werden können. Die schwellenbasierten Verfahren zur Bestimmung des frequenzbezogenen<br />

Verstärkungsbedarfs gehen von einem funktionalen Zusammenhang zwischen der<br />

Hörschwelle und dem Bereich angenehmen Hörens (MCL: Most Comfortable Level) aus. Auf<br />

dieser Grundlage wurden verschiedene generische, schwellenbasierte Anpassformeln <strong>für</strong> nichtlineare<br />

Hörgeräte entwickelt (NAL-NL, DSL [i/o]). Diese Anpassformeln liefern Zielfrequenzgänge<br />

<strong>für</strong> niedrige, mittlere und hohe Eingangspegel und ggf. den maximal zulässigen Ausgangsschalldruckpegel<br />

(MPO: Maximum Power Output). Die aktuellen Versionen dieser Anpassformeln<br />

(NAL-NL-2 und DSLm [i/o] v5) erlauben eine stärker personalisierte Form der Anpassung<br />

(z. B. Alter, Geschlecht, Erfahrung mit Hörgeräten) als die Formeln der ersten Generation.<br />

Um der persönlichen Hörpräferenz gerecht zu werden, die im Einzelfall entweder klang- oder<br />

verständlichkeitsorientiert sein kann, bedarf es einer auf der Basisanpassung aufsetzenden<br />

Feinanpassung. Auf der Grundlage der Präferenzen des Hörgerätenutzers kann die Feinanpassung<br />

der Hörgeräteparameter entweder informal auf der Basis von Erfahrungswerten erfolgen<br />

oder mit Hilfe so genannter Anpassmanager (Anpassassistent), wie sie in kommerzieller Anpasssoftware<br />

angeboten werden. Daneben ist eine Reihe von generischen, also produktunabhängigen<br />

Verfahren zur interaktiv-adaptiven Feinanpassung von Hörgeräten entwickelt worden.<br />

Um im Rahmen der Feinanpassung auf die situationsspezifischen Bedürfnisse des Hörgerätenutzers<br />

individuell eingehen zu können, kann die Feinanpassung in virtuellen akustischen Situa-<br />

195


tionen durchgeführt werden. Im einfachsten Fall werden dazu Schallbeispiele mit einem Lautsprecher,<br />

stereophon oder in Surroundtechnik abgespielt, um <strong>für</strong> den Nutzer wichtige Hörsituationen<br />

im Anpassraum zu simulieren. Durch das zusätzliche Angebot von visueller Information<br />

in Form von Videosequenzen kann eine noch realitätsnähere Situation erreicht werden.<br />

Da sich die meisten Hörstörungen schleichend entwickeln und bei den Betroffenen zudem die<br />

Neigung besteht, die Hörgeräteversorgungen möglichst lange hinauszuzögern, ist das Gehör<br />

zum Zeitpunkt der Versorgung in starkem Maße vom normalen Hören entwöhnt. Deshalb ist es<br />

meist nicht sinnvoll, von Anfang an eine komplette Kompensation der Hörstörung anzustreben,<br />

da dies von vielen Hörgeräteträgern nicht toleriert wird. So wird zunächst eine reduzierte Gesamtverstärkung,<br />

und im Falle typischer Hochtonhörverluste eventuell eine überproportionale<br />

Absenkung der Höhenwiedergabe, eingestellt, um eine gute Spontanakzeptanz und ein möglichst<br />

regelmäßiges Trageverhalten zu erreichen. Aufbauend darauf wird in den ersten Wochen<br />

und Monaten die Verstärkung schrittweise erhöht, um den Hörgeräteträger an die bestmögliche<br />

Hörgeräteeinstellung heran zuführen. Diesen Prozess bezeichnet man als gleitende Anpassung,<br />

der <strong>für</strong> Erstversorgungen unverzichtbar ist, aber auch bei Wiederversorgungen eine Rolle spielen<br />

kann, wenn der Klang der neuen Hörgeräte vom Nutzer nicht sofort akzeptiert wird. Wenn<br />

im Einzelfall erforderlich, sollte die gleitende Anpassung durch Audiotherapie ergänzt werden,<br />

um das Hören- und Verstehenlernen mit Hörgeräten systematisch zu fördern. In Deutschland ist<br />

die Audiotherapie noch nicht flächendeckend verfügbar, aber das audiotherapeutische Angebot<br />

wird ständig ausgeweitet, so dass man zunehmend darauf zurückgreifen kann.<br />

Die praktische Umsetzung<br />

der beschriebenen Anpassungs-<br />

und Feinanpassungsschritte<br />

erfolgt durch<br />

Programmierung der Hörgeräte<br />

mit Hilfe der Anpasssoftware<br />

des betreffenden<br />

Hörgeräteherstellers (Abb.<br />

6). In der Regel wird die herstellerspezifische<br />

Software<br />

über die NOAH-Plattform<br />

gestartet, über die auch alle<br />

gängigen Audiometer und<br />

Hörgerätemesssysteme in<br />

die Anpassumgebung eingebunden<br />

werden können.<br />

Von dort aus kann auf alle<br />

Kundendaten zugegriffen<br />

werden kann, die in vorher- Abb. 6: Programmieroberfläche zur Feinanpassung eines mehrkanaligen Hörgerätes.<br />

gehenden Sitzungen gesammelt und gespeichert wurden (Audiogramme, Messungen, Hörgeräteeinstellungen).<br />

Aufbau der Anpasssoftware und Gestaltung der Bedienungsoberfläche sind<br />

von Hersteller zu Hersteller unterschiedlich, doch gliedert sich die Anpasssoftware typischer<br />

Weise in drei Arbeitsphasen (Voreinstellung, Basisanpassung und Feinanpassung), die vom<br />

Hörgeräteakustiker sequenziell abgearbeitet werden.<br />

4.2 Hörgerätekontrolle<br />

Ein wichtiges Element im Rahmen der Hörgeräteversorgung stellt die Hörgerätekontrolle im<br />

Sinne der Erfassung der Hörgerätewirkung dar. Wichtig ist die Hörgerätekontrolle zunächst <strong>für</strong><br />

196


den Hörgeräteakustiker, der wissen möchte, ob sich die Hörgeräte wie gewünscht verhalten.<br />

Ferner ist die Quantifizierung des Versorgungserfolgs von großer Bedeutung <strong>für</strong> den Hörgeräteakustiker,<br />

den Nutzer und den Kostenträger, die sich vom Nutzen der Hörgeräteversorgung überzeugen<br />

möchten.<br />

Zum besseren Verständnis ordnet man die Verfahren der Hörgerätekontrolle am besten synoptisch<br />

entsprechend ihres Ansatzpunktes entlang des Signalwegs bzw. des aufsteigenden auditorischen<br />

Systems:<br />

• Messung des Frequenzgangs am Ohrsimulator (oder Kuppler)<br />

• Messung des Frequenzgangs mittels Sondenmikrofon am Ohr des Nutzers<br />

• Hörschwellenbestimmung mit angepasstem Hörgerät (meist nur bei Kindern)<br />

• Lautheitsskalierung mit angepassten Hörgeräten<br />

• Sprachverständlichkeitsmessungen mit angepassten Hörgeräten<br />

• Frageninventare und Hörtagebücher zu Akzeptanz, Zufriedenheit und Performance.<br />

Die Messung des<br />

Hörgerätefrequenzgangs<br />

am Ohrsimulator<br />

(Messmikrofon<br />

in einer Kavität zur<br />

Simulation des Gehörgangs)<br />

oder mittels<br />

Sondenmikrofon<br />

am Ohr des Hörgeräteträgers<br />

(Abb. 7)<br />

und der Vergleich<br />

mit den Zielfrequenzgängen<br />

(siehe<br />

4.1) dient zunächst<br />

der Verifikation der<br />

erwarten Wirkung<br />

des Hörgeräts. Das<br />

gleiche gilt <strong>für</strong> die im<br />

peripheren Teil des<br />

auditorischen Systems<br />

ansetzenden<br />

Verstärkung in dB<br />

50<br />

40<br />

30<br />

20<br />

10<br />

0<br />

Messung mit<br />

Hörgerät:<br />

Real Ear Aided Gain<br />

(REAG)<br />

Verfahren (Hörschwellenbestimmung, Lautheitsskalierung). Mit der Verifikation können Defizite<br />

gegenüber dem beabsichtigten Verstärkungs- und Kompressionsverhalten frequenzbezogen<br />

aufgedeckt und korrigiert werden.<br />

Aussagen über die Qualität der Versorgung sind auf dieser Ebene noch nicht möglich. Das ist<br />

Gegenstand der Validierung, die sich an die Verifikation anschließt. Validierungsverfahren, wie<br />

z. B. Sprachaudiometrie in Ruhe und im Störschall, Bewertung von Klangqualität und Höranstrengung,<br />

ermöglichen in der Anpassumgebung eine Über-Alles-Kontrolle (Hörgerät, akustische<br />

Kopplung, auditorische Verarbeitung und Wahrnehmung) und geben Hinweise auf den zu<br />

erwartenden Hörgerätenutzen im Alltag. Von noch höherem Wert ist die Validierung des Hörgerätenutzens<br />

im täglichen Leben auf der Basis informaler oder formaler Befragung (Fragebögen,<br />

Hörtagtagebuch) des Hörgeräteträgers und nahe stehender Personen (Partner, Familie). Sofern<br />

die Hörgerätekontrolle Mängel erkennen lässt, ist eine weitere Feinanpassung und gleitende<br />

Nachanpassung zur Steigerung des Hörgerätenutzens erforderlich. Dabei ist ein begleitendes<br />

197<br />

Messung ohne<br />

Hörgerät:<br />

minus Real Ear Unaided Gain gleich<br />

(REUG)<br />

50<br />

50<br />

40<br />

30<br />

0<br />

0,25 0,5 1 2 4 8<br />

0,25 0,5 1 2 4 8<br />

Frequenz in kHz<br />

Frequenz in kHz<br />

20<br />

10<br />

40<br />

30<br />

20<br />

10<br />

0<br />

0,25<br />

Wirksame akustische<br />

Verstärkung =<br />

Real Ear Insertion Gain<br />

(REIG)<br />

0,5 1 2 4 8<br />

Frequenz in kHz<br />

Abb. 7: Sondenmikrofonmessung (Insitu-Messung) des Frequenzgangs der wirksamen akustischen<br />

Verstärkung (REIG: Real Ear Insertion Gain): REAG (links) – REUG (Mitte) = REIG (rechts).<br />

Oben ist jeweils die Messsituation, unten der gemessene bzw. berechnete Frequenzgang dargestellt.


Monitoring der Feinanpassung mit Hilfe der Sondenmikrofonmessung zweckmäßig. Ergänzende<br />

Informationen liefert eine Darstellung der Sprachdynamik (Pegelhäufigkeitsstatistik) am Ausgang<br />

des Hörgerätes in Relation zur Hör- und zur Unbehaglichkeitsschwelle (Abb. 8).<br />

Ausgangspegel (dB)<br />

120<br />

100<br />

80<br />

60<br />

40<br />

20<br />

Hörgeräteeingang Hörgeräteausgang<br />

0<br />

0,125 0,250 500 1 2 4 8<br />

Frequenz (kHz)<br />

5. Hörgeräteindikation und Ablauf der Hörgeräteversorgung<br />

Die Indikationskriterien gründen sich in erster Linie auf den tonaudiometrischen Hörverlust und<br />

das Einsilberverstehen ohne Hörgeräte und sind in den Hilfsmittel-Richtlinien niedergelegt<br />

(http://www.g-ba.de/downloads/62-492-66/RL-Hilfsmittel-2004-10-19.pdf). Unter tonaudiometrischem<br />

Aspekt ist eine Versorgung mit Hörgeräten möglich, wenn in mindestens einer der Prüffrequenzen<br />

im Frequenzbereich 500 - 3000 Hz der Hörverlust 30 dB übersteigt. Sofern ein<br />

Sprachtest möglich ist, muss sich die Hörgeräteindikation auch an der Sprachverständlichkeit<br />

ohne Hörgerät orientieren. Entsprechend den Hilfsmittel-Richtlinien ist das sprachaudiometrische<br />

Grenzkriterium überschritten, wenn Einsilber des Freiburger Tests über Kopfhörer bei 65<br />

dB zu 80 % oder weniger verstanden werden. Neben den audiometrischen Kriterien ist es natürlich<br />

erforderlich, dass Hörgeräte vom Nutzer akzeptiert werden und bedient werden können.<br />

Im deutschsprachigen Raum erfolgt die Hörgeräteversorgung in der Regel im Zusammenwirken<br />

von Hals-Nasen-Ohrenärzten und Hörgeräteakustikern. Dieses duale Versorgungsmodell auf<br />

der Basis der klassischen Aufgabenteilung zwischen beiden Berufsgruppen ist <strong>für</strong> Deutschland<br />

in der AWMF-Leitlinie „Hörgeräteversorgung“ Nr. 017/065 (www.uni-duesseldorf.de/AWMF/llna/017-065.htm)<br />

festgelegt. Im dualen Versorgungsmodell liegen die Indikationsstellung Verordnung<br />

von Hörgeräten in Händen des HNO-Arztes. Im Anschluss daran nimmt der Hörgeräteakustiker<br />

die Anpassung der Hörgeräte in mehreren Sitzungen vor (Hörgewöhnung). Neben der<br />

individuellen Anpassung der Hörgeräte an die Hörstörung gehören die Einweisung des Hörgeräteträgers<br />

in die Benutzung der Geräte, Nachbetreuung, Beratung bezüglich zusätzlicher Kommunikationshilfen,<br />

Service- und Reparaturleistungen zu den Aufgaben des Hörgeräteakustikers.<br />

Im Falle einer kassenärztlichen Versorgung überzeugt sich der verordnende HNO-Arzt nach<br />

Abschluss der Hörgeräteanpassung davon, dass mit den angepassten Hörgeräten eine ausreichende<br />

Verbesserung des Kommunikationsvermögens erzielt wird und die Hörhilfen zweckmäßig<br />

sind. Die HNO-ärztliche Abschlussuntersuchung stützt sich auf die sprachaudiometrische<br />

198<br />

0,125 0,250 500 1 2 4 8<br />

Frequenz (kHz)<br />

Abb. 8: Pegelhäufigkeitsstatistik am Hörgeräteeingang (links) und am Hörgeräteausgang (rechts) <strong>für</strong> ein<br />

Sprachsignal mit Eingangspegel von 65 dB. Dargestellt sind die Perzentilgrenzen <strong>für</strong> das 30%-, 65%- und<br />

99%-Perzentil in Relation zur Hör- und zur Unbehaglichkeitsschwelle in Absolutdarstellung (links Norm; rechts<br />

Fallbeispiel).


Untersuchung mit Hörgeräten sowie auf den persönlichen Eindruck des Arztes vom Versorgungserfolg<br />

und der Fähigkeit des Patienten, die Hörgeräte zu handhaben.<br />

199


200


Numerische Akustik<br />

Ennes Sarradj, <strong>Gesellschaft</strong> <strong>für</strong> Akustikforschung Dresden mbH<br />

1 Einleitung<br />

Akustischen Messungen und Berechnungen sind mittlerweile in vielen Fällen nicht ohne Einsatz<br />

eines Computers vorstellbar. Aus diesem Grund existiert eine Vielzahl so genannter numerischer<br />

Verfahren, von denen im folgenden ein kleine Auswahl vorgestellt werden soll. Die Darstellung<br />

bleibt dabei auf Verfahren zur Berechnung von Schallfeldern beschränkt. Bild 1 zeigt die verallgemeinerte<br />

Aufgabenstellung <strong>für</strong> diesen Fall. In einem Gebiet, das auch unbeschränkt ausgedehnt<br />

sein kann, lasse sich die Physik der Schallausbreitung durch eine Differentialgleichung und durch<br />

Randbedingungen beschreiben (Bsp. siehe Bild 1). Aufgabe der Berechnung des Schallfeldes ist<br />

es, eine Funktion f zu finden, die sowohl die Differentialgleichung erfüllt als auch den Randbedingungen<br />

genügt (Randwertproblem). Zur Lösung lassen sich prinzipiell folgende zwei Wege<br />

gehen:<br />

analytisch: exakte Lösung des Randwertproblems:<br />

• nur möglich, wenn der Typ der Funktion f bekannt ist (z.B. bei einfachen Geometrien<br />

wie Rechteck und Kreis)<br />

• <strong>für</strong> praktische Anwendungen meist nicht möglich<br />

numerisch: näherungsweise Lösung des Randwertproblems:<br />

• Überführung analytischer Ausdrücke und Zusammenhänge (Ableitungen, Integrale,<br />

Differentialgleichungen, . . . ) in algebraische (Addition, Multiplikation, Gleichungen,<br />

. . . )<br />

• Lösung algebraischer Gleichungen führt auf Näherungslösung <strong>für</strong> gesuchte Funktion<br />

f<br />

Die Näherungslösung <strong>für</strong> f wird dabei durch einzelne Funktionswerte gegeben, die an Stützstellen<br />

(Knoten) berechnet werden. Alle Knoten zusammen bilden ein Gitter, mit dem das gesamte<br />

Gebiet bzw. nur ein bestimmter Teil davon versehen wird. Somit ergibt sich eine Diskretisierung<br />

von f und damit auch eine veränderte Aufgabenstellung. An Stelle der Funktion f sind nun einzelne<br />

Funktionswerte gesucht.<br />

Prinzipiell bieten sich folgende Möglichkeiten <strong>für</strong> den Übergang von Analysis zu Algebra:<br />

1. numerische Differentiation:<br />

1


Beispiel:<br />

DGL: akustische Wellengleichung<br />

∆p + k 2 p = 0<br />

RB: „schallharter“ Rand<br />

∂ p<br />

∂ −→ n<br />

Bild 1: verallgemeinerte Aufgabenstellung bei der Feldberechnung<br />

• alle Ableitungen werden durch Differenzenquotienten ersetzt<br />

• Differentialgleichung wird zur Gleichung<br />

• Gebiet wird mit einem regelmäßigen (strukturierten) Gitter versehen<br />

• Werte von f an den Gitterknoten werden als Lösung eines Gleichungssystems erhalten<br />

• Bsp.: Finite-Differenzen-Methode (FDM)<br />

2. numerische Integration:<br />

• Differentialgleichung und Randbedingungen werden in Gleichungen umgewandelt, die<br />

bestimmte Integrale enthalten (Integralgleichungen)<br />

• (auch unregelmäßiges) Gitter im Gebiet oder auf Teilen davon<br />

• Integrale werden durch Summen über Funktionswerte von f in den Gitterpunkten<br />

angenähert<br />

• Werte von f an den Gitterknoten werden als Lösung eines Gleichungssystems erhalten<br />

= 0<br />

• Bsp.: Finite-Elemente-Methode (FEM), Randelemente-Methode (BEM)<br />

Nicht jedes Verfahren ist <strong>für</strong> jedes Problem einsetzbar. Welches numerische Verfahren <strong>für</strong> eine<br />

bestimmte Aufgabenstellung zu Einsatz kommt, hängt darüber hinaus auch davon ab, welcher<br />

Aufwand mit der Berechnung verbunden ist.<br />

Zwei Verfahren, die <strong>für</strong> Akustik von besonderer Bedeutung sind, werden im folgenden vorgestellt.<br />

2


Bild 2: Zwei mögliche FEM-Berechnungsgitter zur Berechnung des Schallfeldes in einem vereinfachten<br />

Pkw-Innenraum. Links: Hexaeder-Elemente, Rechts: Tetraeder-Elemente<br />

2 Finite-Elemente-Methode(FEM)<br />

Bei der FEM wird das Gebiet durch das Gitter in einzelne Teilgebiete, die finiten Elemente, zerlegt<br />

(Beispiele siehe Bild 2). Die gesuchte Funktion, z.B. die Schalldruckverteilung p(x) wird durch<br />

Interpolation angenähert und durch die (unbekannten) Werte pi in den zum Element gehörenden<br />

Knoten ausgedrückt:<br />

p(x) = ∑ i<br />

Ni(x)pi = N T p. (1)<br />

Die Interpolationsfunktionen Ni sind die so genannten Formfunktionen, z.B. lineare Funktionen,<br />

die so gewählt werden, dass sie jeweils nur in einem Knoten den Wert 1 haben und in allen<br />

anderen Knoten verschwinden.<br />

Der nächste Schritt ist die Umformung der Differentialgleichung in eine Integralgleichung, hier<br />

am Beispiel der akustischen Wellengleichung (in komplexer Schreibweise):<br />

∆p + k 2 p = 0. (2)<br />

Zunächst wird mit einer beliebigen (beschränkten) Hilfsfunktion w multipliziert und dann über das<br />

Elementvolumen integriert:<br />

<br />

w ∆p + k 2 p dV = 0 (3)<br />

V<br />

Anschließend wird die erste Greensche Formel zur Umformung dieses Integrals angewendet und<br />

außerdem die in (1) angegebene Interpolation <strong>für</strong> p und ebenso <strong>für</strong> w eingeführt, so dass sich:<br />

<br />

w T ∇N∇N T p − k 2 w T NN T <br />

pdV = w T N∇pd −→ n (4)<br />

V<br />

3<br />

S


ergibt. Nun kann die Hilfsfunktion wieder entfernt werden:<br />

<br />

V<br />

∇N∇N T dV − k 2<br />

<br />

V<br />

NN T dV<br />

<br />

p =<br />

S<br />

N∇pd −→ n (5)<br />

Damit ist ein Gleichungsystem <strong>für</strong> p (enthält die Knotenwerte pi) aufgestellt. Die auftretenden<br />

Integrale, die nur die Formfunktionen und deren Ableitungen enthalten, werden numerisch berechnet.<br />

Die rechte Seite ist als Randbedingung nutzbar und der auftretende Ausdruck ∇p muss<br />

nicht ausgerechnet werden. Da (5) jeweils nur innerhalb eines Elementes gilt, wird die rechte Seite<br />

zur Verknüpfung des Gleichungsystems mit dem anderer Elemente genutzt (Die Details dazu<br />

sind hier fortgelassen). Somit entsteht ein großes Gleichungssystem, dass gelöst werden kann.<br />

Dabei sind in der Akustik prinzipiell zwei Fälle zu unterscheiden:<br />

• keine Berücksichtigung äußerer Anregung: Eigenfrequenzen (Resonanzen) und zugehörige<br />

Schwingungszustände werden berechnet (Modalanalyse, Bild 3)<br />

• mit Berücksichtigung äußerer Anregung: Schallfeld infolge einer oder mehrerer Quellen<br />

wird berechnet (harmonische bzw. transiente Analyse, Bild 4)<br />

Damit die mit der FEM erhaltene Näherungslösung noch brauchbar ist, dürfen die Elemente nicht<br />

zu groß gegenüber der Schallwellenlänge sein. Als Faustregel gilt, dass mindestens 6 Elemente<br />

pro Wellenlänge vorgesehen werden müssen. Mit steigender Frequenz bzw. größeren Abmessungen<br />

des Berechnungsgebietes steigt der Aufwand stark an und wird bald nicht mehr beherrschbar.<br />

Derzeit ist die Behandlung von Problemen mit etwa 10 7 Unbekannten auf größeren<br />

Rechnern möglich. Übliche Rechenzeiten liegen <strong>für</strong> praktische Probleme dabei im Bereich von<br />

vielen Stunden bis zu einigen Tagen.<br />

Der <strong>für</strong> die Akustik wichtige Fall der Schallausbreitung über große Entfernungen (viele Wellenlängen<br />

bzw. bis ins Unendliche) ist nicht ohne weiteres mit der FEM zu behandeln, da das<br />

gesamte Gebiet mit einem Rechengitter versehen werden müsste und die Anzahl der Unbekannten<br />

viel zu groß werden würde. Eine Alternative bietet das im folgenden Abschnitt beschriebene<br />

Verfahren.<br />

3 Randelemente-Methode (Boundary Element Method, BEM)<br />

Zum Verständnis der diesem Verfahre zugrunde liegenden Idee sei noch einmal die allgemeine<br />

Aufgabenstellung nach Bild 1 betrachtet. Oft genügt es, die gesuchte Funktion f (z.B. Schalldruckverteilung<br />

p) nur in einem Teil des Gebietes zu kennen. In diesem Fall reicht es aus, f nur<br />

auf dem Rand des Gebietes zu bestimmen und daraus dann die gesuchten Funktionswerte im<br />

Innern des Gebietes zu berechnen.<br />

Ausgangspunkt <strong>für</strong> ein solches Verfahren ist eine Integralgleichung der Akustik, die so genannte<br />

Kirchhoff-Helmholtz-Integralgleichung (KHI). Sie besagt, dass der Schalldruck an einem<br />

Punkt −→ Y innerhalb, auf dem Rand und außerhalb des Gebietes V bestimmt werden kann, wenn<br />

4


Bild 3: Ergebnisse einer Modalanalyse eines Pkw-Innenraums: Schalldruckverteilungen bei vier verschiedenen<br />

Eigenfrequenzen<br />

Bild 4: Berechnung des Übertragungsverhaltens eines Schalldämpfers Links: verwendetes Berechnungsgitter,<br />

Rechts: Übertragungsmaß in dB als Ergebnis einer harmonischen Analyse<br />

5


Bild 5: Außenraumproblem: Durch einen dünnen Schlauch und eine Hüllfläche in unendlicher Entfernung<br />

wird das außerhalb des Randes liegende Gebiet zu einem innerhalb des Randes liegenden<br />

die Schalldruckverteilung (1.Term) und die Normalenableitung des Schalldrucks (=Schallschnelle,<br />

2.Term) auf dem Rand des Gebietes S bekannt sind:<br />

<br />

S<br />

<br />

p( −→ X ) ∂G(−→ X , −→ Y )<br />

∂ −→ n<br />

− G( −→ X , −→ Y ) ∂ p(−→ X )<br />

∂ −→ <br />

dS(<br />

n<br />

−→ X ) = p( −→ ⎧<br />

⎪⎨ 0,<br />

Y ) ·<br />

⎪⎩<br />

−→ Y ∈ V ;<br />

1<br />

2 , −→ Y ∈ S;<br />

1, −→ Y ∈ V ∩ −→ Y ∈ S.<br />

G ist die Greensche Funktion der akustischen Wellengleichung (<strong>für</strong> den dreidimensionalen Fall:<br />

e − jkr /4πr).<br />

Bevor aber die Gleichung zur Berechung des gesuchten Schalldrucks verwendet werden<br />

kann, müssen der Schalldruck und die Schallschnelle auf dem Rand bekannt sein.<br />

Liegt auch der Punkt −→ Y auf dem Rand, so taucht der gesuchte Schalldruck auf dem Rand<br />

auf beiden Seiten der Integralgleichung auf. Wird nun der Rand ähnlich wie bei der FEM in einzelne<br />

Knoten und (Rand-)Elemente zerlegt und p mit Hilfe von Formfunktionen interpoliert, dann<br />

kann das Integral als Summe ausgedrückt werden. Der Schalldruck an einem bestimmten Randpunkt(=Knoten)<br />

ergibt sich dann aus der Summe, in der die Schalldrücke und Schallschnellen an<br />

allen anderen Knoten enthalten sind. Werden so alle N Knoten betrachtet ergibt sich ein Gleichungsystem,<br />

das N Gleichungen und 2N Unbekannte enthält, nämlich p und ∂ p/∂ −→ n an allen<br />

Knoten. Mit Hilfe von N Randbedingungen <strong>für</strong> p oder ∂ p/∂ −→ n erhält man die fehlenden N Gleichungen<br />

und kann das Gleichungsystem und damit die gestellte Berechnungsaufgabe lösen.<br />

Mit einem kleinen gedanklichen Trick kann man sich klar machen, dass das Verfahren auch<br />

funktioniert, wenn das Gebiet außerhalb des Randes liegt (Aussenraum-Problem, Bild 5). Dazu<br />

wird der Rand um einen kleinen, dünnen Schlauch mit vernachlässigbar kleiner Oberfläche mit<br />

einer zweiten Berandung verbunden, die sich unendlich weit weg befindet. Somit befindet sich<br />

das Gebiet innerhalb des so neu definierten Randes, jedoch tragen Schlauch als auch unendlich<br />

weit entfernte Oberfläche nichts zum Integral in (6) bei.<br />

6<br />

(6)


Bild 6: Frontaler Einfall einer ebenen Schallwelle auf ein Modell eines menschlichen Kopfes und Torso.<br />

Links: verwendetes Modell und Visualisierungsfläche, Mitte: Berechnungsgitter, Rechts: berechnete<br />

Schalldruckverteilung bei 1600 Hz (Quelle: Jan Rejlek „Modellierung der Schallstreuung mit Hilfe der<br />

Randelementemethode“ Diplomarbeit CVUT Praha 2004)<br />

Besonders die Möglichkeit, Schallfelder außerhalb einer Randfläche mit beherrschbarem Aufwand<br />

zu berechnen, macht die BEM zu einem attraktiven Werkzeug der Akustik. Ein Beispiel zeigt<br />

Bild 6, wo die Schalldruckverteilung an einem Torso mit Kopf berechnet wurde.<br />

Bei der BEM müssen deutlich weniger Unbekannte bestimmt werden als bei der FEM. Allerdings<br />

ist der Aufwand zur Lösung des Gleichungssystem höher. Deshalb sind nur etwa 10 5<br />

Unbekannte praktisch beherrschbar. Um die Vorteile beider Verfahren zu nutzen, lassen sich<br />

FEM und BEM auch gekoppelt anwenden.<br />

7

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!