Deutsche Gesellschaft für Audiologie - Universität Oldenburg
Deutsche Gesellschaft für Audiologie - Universität Oldenburg
Deutsche Gesellschaft für Audiologie - Universität Oldenburg
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
<strong>Deutsche</strong> <strong>Gesellschaft</strong> <strong>für</strong> <strong>Audiologie</strong><br />
<strong>Deutsche</strong> <strong>Gesellschaft</strong> <strong>für</strong> Medizinische Physik<br />
Österreichische <strong>Gesellschaft</strong> <strong>für</strong> Medizinische Physik<br />
Schweizerische <strong>Gesellschaft</strong> <strong>für</strong> Strahlenbiologie<br />
und Medizinische Physik<br />
XVII. Winterschule <strong>für</strong> Medizinische Physik<br />
Medizinische Akustik und <strong>Audiologie</strong><br />
Birger Kollmeier/<strong>Oldenburg</strong><br />
Pichl/Steiermark<br />
1. bis 6. März 2009
<strong>Deutsche</strong> <strong>Gesellschaft</strong> <strong>für</strong> <strong>Audiologie</strong><br />
<strong>Deutsche</strong> <strong>Gesellschaft</strong> <strong>für</strong> Medizinische Physik<br />
Österreichische <strong>Gesellschaft</strong> <strong>für</strong> Medizinische Physik<br />
Schweizerische <strong>Gesellschaft</strong> <strong>für</strong> Strahlenbiologie<br />
und Medizinische Physik<br />
XVII. Winterschule<br />
Pichl/Steiermark 1. bis 6. März 2009<br />
Kurs 1<br />
Medizinische Akustik und <strong>Audiologie</strong><br />
Prof. Dr. Dr. Birger Kollmeier<br />
2009<br />
1
Inhalt<br />
Liste der Referenten 3<br />
Kursprogramm 4<br />
Liste der Sponsoren 5<br />
Kurzfassungen der Vorträge<br />
1. Bau- und Raumakustik 7<br />
2. Elektroakustik 31<br />
3. Das periphere Hörorgan – Funktionsweise und Modellbildung 53<br />
4. Psychoakustik und Sprachperzeption bei Normal- und<br />
Schwerhörigen 63<br />
5. Hördiagnostik <strong>für</strong> die rehabilitative <strong>Audiologie</strong> 93<br />
6. Audiometrische Standardverfahren, Otoakustische Emissionen,<br />
Auditorisch evozierte Potentiale und Qualitätssicherung 103<br />
7. Physikalische Grundlagen der Akustik 121<br />
8. Akustische Messverfahren 141<br />
9. Signalverarbeitung <strong>für</strong> Hörhilfen und <strong>Audiologie</strong> 157<br />
10. Cochlea-Implantate 167<br />
11. Implantierbare Hörgeräte 179<br />
12. Versorgung und Rehabilitation mit technischen Hörhilfen 187<br />
Anhang: Numerische Akustik 201<br />
2
Referenten<br />
Prof. Dr. Matthias Blau, FH <strong>Oldenburg</strong>-Ostfriesland-Wilhelmshaven, Institut <strong>für</strong> Hörtechnik<br />
und <strong>Audiologie</strong> Haus des Hörens, Marie-Curie-Straße 2, 26129 <strong>Oldenburg</strong><br />
Dr. Dipl. Inform. Andreas Büchner, Hörzentrum Hannover an der MHH,<br />
Wissenschaftlicher Leiter, Karl-Wiechert-Allee 3, 30625 Hannover<br />
Prof. Dr. Norbert Dillier, Labor <strong>für</strong> experimentelle <strong>Audiologie</strong>, <strong>Universität</strong>s-Spital Zürich,<br />
Ch-8091 Zürich<br />
Dr.-Ing. Janina Fels, Institut <strong>für</strong> Technische Akustik, RWTH Aachen<br />
52056 Aachen<br />
Prof. Dr.-Ing. Herbert Hudde, Institut <strong>für</strong> Kommunikationsakustik, Ruhr-<strong>Universität</strong> Bochum<br />
44780 Bochum<br />
Prof. Dr.-Ing. Thomas Janssen, HNO-Klinik der Technischen <strong>Universität</strong>,<br />
Experimentelle OtoRhino, Ismaningerstr. 22, 81675 München<br />
Prof. Dr. Jürgen Kießling, <strong>Universität</strong>sklinikum Gießen und Marburg GmbH,<br />
Funktionsbereich <strong>Audiologie</strong>, Klinikstraße 29, 35385 Gießen<br />
Prof. Dr. Dr. Birger Kollmeier, Fakultät V/Institut <strong>für</strong> Physik, Abt. Medizinische Physik,<br />
<strong>Universität</strong> <strong>Oldenburg</strong>, Carl-von-Ossietzky-Straße 9-11, 26129 <strong>Oldenburg</strong><br />
Prof. Dr. Thomas Lenarz, Medizinische Hochschule Hannover, Direktor der Klinik<br />
und Poliklinik <strong>für</strong> Hals-Nasen-Ohrenheilkunde, Carl-Neuberg-Straße 1, 30625 Hannover<br />
Dr.-Ing. Klaus Welker ehem. Radiolog. Klinik, Krankenhaus Berlin-Moabit<br />
Teplitzerstr.12, 14193 Berlin<br />
3
Kursprogramm<br />
Sonntag : Anreise<br />
19.00 Empfang im Pichlmayrgut & Begrüßung (B. Kollmeier, R. Weise)<br />
Montag: Grundlagen der Kommunikationsakustik und Signalverarbeitung<br />
08.00 – 08.45 Bau- und Raumakustik Fels<br />
08.45 - 09.30 Binauraltechnik und virtuelle Akustik Fels<br />
09.30 – 10.00 Pause<br />
10.00 – 11.30 Elektroakustik Hudde<br />
16.30 – 18.00 Modelle von Außen-, Mittel- und Innenohr Hudde<br />
20.30 – 21:30 Abendveranstaltung: Akustische Täuschungen und<br />
ihr Bezug zur Hörtheorie Kollmeier<br />
Dienstag: Hördiagnostik<br />
08.00 – 09.30 Psychoakustik und Sprachperzeption bei Normal- und Schwerhörigen Kollmeier<br />
09.30 – 10.00 Pause<br />
10.00 – 10.45 Hördiagnostik <strong>für</strong> die rehabilitative <strong>Audiologie</strong> Kollmeier<br />
10.45 – 11.30 Audiometrische Standardverfahren, Qualitätssicherung<br />
in der Hördiagnostik Janssen<br />
16.30 – 18.00 Otoakustische Emissionen und auditorisch evozierte Potentiale Janssen<br />
Mittwoch : Akustische und physiologische Grundlagen<br />
08.00 – 09.30 Physikalische Grundlagen der Akustik Blau<br />
09.30 – 10.00 Pause<br />
10.00 – 10.45 Numerische Methoden in der Akustik Blau<br />
10.45 – 11.30 Akustische Messverfahren Blau<br />
16.30 – 18.00 Signalverarbeitung <strong>für</strong> Hörhilfen und <strong>Audiologie</strong> Dillier<br />
Donnerstag: Rehabilitative <strong>Audiologie</strong> & Anwendungen<br />
08.00 – 09.30 Cochlea-Implantate und Implantierbare Hörgeräte Dillier<br />
09.30 – 10.00 Pause<br />
10.00 – 11.30 Aktuelle Entwicklungen implantierbarer Hörsysteme Büchner<br />
16.30 – 18.00 Versorgung und Rehabilitation mit technischen Hörhilfen Kiessling<br />
20.30 – 21.30 Ausbildungen und Berufsfelder in der <strong>Audiologie</strong> und<br />
Medizinischen Physik Kiessling/<br />
Welker/ Lenarz<br />
Freitag: Praxis + Abschluß<br />
08.00 – 09.30 Kurzvortrag/ Einführung in die Praxisphase von 4 Firmen<br />
• Standard-Audiometrie (Innoforce, C. Wille)<br />
• Computergestützte Verfahren (HörTech, Michael Buschermöhle)<br />
• Hörgeräte (Phonak, S. Kalis)<br />
• Cochlear Implantate und implantierbare Hörgeräte (Med-El, Marcus Schmidt)<br />
10.00 –10.45 Praxisphase I: Teilnehmer verteilt in 4 Kleingruppen führen praktische Demonstrationen<br />
bei den vier Stationen durch<br />
10.45 –11.30 Praxisphase II<br />
11.30 – 12.15 Praxisphase III<br />
12.15 – 12.45 Praxisphase IV<br />
Ausgabe der Teilnahmebescheinigungen: Kollmeier, Welker<br />
4
Sennheiser AG,<br />
Am Labor 1, 30900 Wedemark 2<br />
Sponsoren<br />
Die Winterschule wird unterstützt von den Firmen:<br />
Cochlear AG Basel<br />
Margarethenstraße 47, CH-4053 Basel, Schweiz<br />
Phonak AG, Laubisrütistraße 28, CH-Stäfa, Schweiz<br />
Widex Hörgeräte GmbH, Albstadtweg 6, 70567 Stuttgart<br />
5
1 Raumakustik<br />
Bau- und Raumakustik<br />
Janina Fels / Aachen<br />
1.1 Einleitung<br />
Es ist eine allgemeine Erfahrung, dass man in manchen Sälen die Sprachverständlichkeit<br />
sehr gut ist, in anderen dagegen nicht. Sieht man davon ab, wie deutlich<br />
der Redner spricht und wie laut der Lärmpegel ist, so bleibt noch ein sehr erheblicher<br />
Einfluss des Raumes auf die Sprachverständlichkeit aufgrund seiner akustischen<br />
Eigenschaften, oder wie man oft kurz sagt, aufgrund seiner Akustik.<br />
Ähnlich liegen die Dinge in einem Opernhaus oder in einem Konzertsaal. Auch<br />
hier gibt es Beispiele <strong>für</strong> gute oder schlechte Akustik. Wir erwarten in einem Konzertsaal<br />
einen schönen, runden, räumlich wirkenden Orchesterklang als ein Ganzes,<br />
und es ist die Aufgabe der Raumakustik herauszufinden, was das eigentlich<br />
bedeutet und mit welchen greifbaren physikalischen Sachverhalten dies korreliert.<br />
Auch in einem Arbeitsraum, in einer Fabrikhalle oder einem Großraumbüro hängt<br />
der Lärmpegel von der Art und der Leistung der Schallquelle ab, zu einem erheblichen<br />
Teil aber auch davon, was der Raum aufgrund seiner akustischen Eigenschaften<br />
daraus macht.<br />
Die Aufgabe der Raumakustik ist also zum Teil physikalischer Art, nämlich aus<br />
den baulichen Daten, also aus den Abmessungen, den verwendeten Materialien,<br />
der Anordnung des Publikums usw. das Schallfeld im Raum zu ermitteln. Zum anderen<br />
hat sie zu quantifizieren, welche objektiven Schallfelddaten oder Schallfeldparameter<br />
<strong>für</strong> gute oder weniger gute Hörbedingungen an den einzelnen Zuhörerplätzen<br />
verantwortlich sind. Der zweite Teil der Aufgabe ist nur durch Befragungen<br />
von Zuhörern oder durch systematische Hörversuche zu lösen. Schließlich werden<br />
von dem Raumakustiker - gewissermaßen durch Rückverfolgung dieser Aufgabenkette<br />
- Auskünfte darüber erwartet, wie ein Raum baulich gestaltet werden<br />
muss, bzw. welche Änderungen an einem geplanten oder existierenden Raum<br />
vorgenommen werden müssen, um die akustischen Erwartungen der Zuhörer zu<br />
erfüllen.<br />
1.2 Nachhall und Nachhallzeit<br />
Die physikalisch einwandfreie Beschreibung räumlicher Schallfelder geht von der<br />
Wellengleichung aus, deren Lösungen den durch Lage und Beschaffenheit der<br />
Wände bestimmten Randbedingungen anzupassen sind. Sie muss <strong>für</strong> praktische<br />
Zwecke ausscheiden, da sie auch mit den heutigen Mitteln rechnerisch nicht zu<br />
bewältigen ist und überdies weit mehr Informationen liefern würde, als <strong>für</strong> die akustische<br />
Beurteilung eines Raumes sinnvoll wäre. Eine <strong>für</strong> die raumakustische<br />
7
Praxis wesentlich brauchbarere Beschreibung geht im einfachsten Fall von einer<br />
Energiebilanz aus. Dem zufolge ist die zeitliche Energieänderung in einem Raum<br />
mit dem Volumen V gegeben durch die Leistung P der Schallquelle, vermindert<br />
um die Energie, die pro Zeit- und Flächeneinheit an der Raumwand absorbiert<br />
wird:<br />
dw<br />
cS<br />
V = P − α ⋅ w<br />
dt<br />
4<br />
Gl. 1-1<br />
Es ist w die Schallenergiedichte, c die Schallgeschwindigkeit, S die gesamte<br />
Wandfläche; α ist der Absorptionsgrad der Wände, definiert als das Verhältnis der<br />
nicht reflektierten Energie zur einfallenden Energie; Überstreichung kennzeichnet<br />
den gewogenen Mittelwert über alle Wandteile.<br />
Für dw/dt = P = const. ist die stationäre Energiedichte w und der Schalldruckpegel<br />
L wird:<br />
bzw.<br />
4P<br />
4P<br />
w = =<br />
cSα<br />
cA<br />
~ 2<br />
p w 4P<br />
L = 10 log = 10 log = 10 log , w<br />
p w cA w<br />
2<br />
0<br />
0<br />
0<br />
0<br />
= 3,<br />
4 ⋅10<br />
−10<br />
J/m<br />
3<br />
Gl. 1-2<br />
Gl. 1-3<br />
Die Größe A = Sα wird als äquivalente Absorptionsfläche bezeichnet. Sie ist eine<br />
ebenfalls wichtige Grundgröße der Bauakustik (s. Abschn. 2.2). Dagegen lautet<br />
die Lösung der Differentialgleichung (Gl. 1-1) <strong>für</strong> P = 0:<br />
⎛ cS ⎞<br />
w( t)<br />
= w0<br />
exp⎜<br />
αt<br />
⎟<br />
⎝ 4 ⎠<br />
Gl. 1-4<br />
(w0 = Anfangswert der Energiedichte zur Zeit t = 0.) Die obigen Überlegungen gelten<br />
aber nur <strong>für</strong> den Fall des „diffusen Schallfelds“, in dem alle Raumrichtungen<br />
(im Mittel) gleichermaßen an der Schallausbreitung beteiligt sind. In der Praxis ist<br />
die Voraussetzung oft nur näherungsweise erfüllt, wenn überhaupt. Erfahrungsgemäß<br />
gilt Gl. 1-4 auch dann einigermaßen, nicht aber die Gl. 1-2. Zur Berechnung<br />
des Lärmpegels in einem großen oder flachen oder langen Arbeitsraum<br />
muss man daher die Gl. 1-2 durch eine genauere Berechnungsmethode ersetzen.<br />
Das ist <strong>für</strong> die Raumakustik besonders wichtig, da die Dauer des durch Gl. 1-4 beschriebenen<br />
Abklingvorgangs, d.h. des so genannten Nachhalls, bei den verschiedenen<br />
Frequenzen die wichtigste akustische Kenngröße eines Raumes darstellt.<br />
Man kennzeichnet sie durch die „Nachhallzeit“ T. Das ist die Zeit, in der die<br />
Energiedichte auf das 10 -6 -fache ihres Anfangswertes (um 60 dB) abgesunken ist.<br />
Sie ergibt sich aus Gl. 1-4 nach Einsetzen der Konstanten und Näherung <strong>für</strong> kleine<br />
mittlere Absorptionsgrade zu<br />
⎛ s ⎞ V ⎛ s ⎞ V<br />
T = ⎜0,<br />
16 ⎟ ⋅ = ⎜0,<br />
16 ⎟ ⋅<br />
⎝<br />
m<br />
⎠ Sα<br />
⎝<br />
m<br />
⎠ A<br />
8<br />
Gl. 1-5
Diese Formel erlaubt bei bekannten Raumdaten eine meist hinreichend genaue<br />
Berechnung der Nachhallzeit.<br />
Der Sprachverständlichkeit sind lange Nachhallzeiten grundsätzlich abträglich, da<br />
der Nachhall die Tendenz hat, die zeitliche und spektrale Struktur der Sprachlaute<br />
und der Silben zu verwischen. Da Räume mit völlig fehlendem Nachhall aber nur<br />
mit großem Kostenaufwand zu realisieren sind und auch andere Nachteile haben,<br />
gilt im Sinne eines Kompromisses eine Nachhallzeit von 0,6 s bis 1 s als optimal<br />
<strong>für</strong> Vortrags- oder Hörsäle, <strong>für</strong> Sitzungssäle usw. Bei Sprechtheatern lässt man in<br />
der Regel Nachhallzeiten bis etwa 1,2 s zu. Für die Sprachverständlichkeit ist weiterhin<br />
vorteilhaft, wenn die Nachhallzeit bei tiefen Frequenzen eher noch niedriger<br />
ist als im mittleren Frequenzbereich.<br />
Günstige Bereiche der Nachhallzeit<br />
Art der Darbietung mittlere Nachhallzeit in s<br />
Sprache (Hörsaal, Sitzungsraum) < 1<br />
Sprechtheater 1,0 - 1,2<br />
Konzertsaal 1,7 - 2,1<br />
Oper 1,0 - 1,8<br />
1.3 Weitere raumakustische Kenngrößen<br />
Eine einigermaßen korrekte Nachhallzeit ist zwar ein notwendiges, nicht aber ein<br />
hinreichendes Kriterium <strong>für</strong> gute Akustik. Außerdem charakterisiert sie eine allgemeine<br />
akustische Eigenschaft des Raumes, nicht aber die meist unterschiedlichen<br />
Hörbedingungen an verschiedenen Zuhörerplätzen. Weitere charakteristische Parameter<br />
lassen sich auf der Grundlage der so genannten Raumimpulsantwort gewinnen.<br />
Hierunter versteht man das Signal, das an einem Empfangsort auftritt,<br />
wenn der Schallsender einen sehr kurzen Impuls aussendet (s. Bild). In diesem<br />
Diagramm kennzeichnet die erste Spitze den so genannten Direktschall, das ist<br />
der Schallanteil, der sich auf dem kürzesten Weg von dem Schallsender zum<br />
Empfänger ausbreitet. Alle anderen Spitzen kennzeichnen nach Lage und Höhe<br />
den Beitrag der Schallanteile, die an der Decke und den Wänden des Raumes<br />
einmal, zweimal oder noch öfter reflektiert worden sind.<br />
Da bei werden diese<br />
Anteile nach Maßgabe<br />
des Absorptionsgrads<br />
der betreffenden<br />
Wandteile abgeschwächt;<br />
eine weitere<br />
Abschwächung und<br />
außerdem eine mehr<br />
oder weniger große<br />
Verzögerung gegen-<br />
Energie<br />
a) Direktschall<br />
b) frühe Reflexionen<br />
9<br />
c) Nachhallbereich<br />
Zeit
über dem Direktschall ergibt sich daraus, dass diese reflektierten Schallanteile<br />
größere Wege zurückzulegen haben.<br />
Hinsichtlich ihrer subjektiven Wirkung kann man im Allgemeinen in einer Raumimpulsantwort<br />
nach dem Bild drei Teile unterscheiden: Zum einen den Direktschall<br />
(a), der nach dem Gesetz der ersten Wellenfront die Richtung bestimmt, aus dem<br />
das Schallereignis gehört wird. Der zweite Bereich (b) umfasst die wenig verzögerten,<br />
noch weitgehend getrennt eintreffenden frühen Reflexionen. Schließlich folgen<br />
in immer kürzeren Abständen die zahlreichen schwächeren und länger verzögerten<br />
Reflexionen, die den eigentlichen Nachhall ausmachen (c). Da der letztere<br />
durch die Nachhallzeit meist ausreichend charakterisiert ist, sind die <strong>für</strong> eine bestimmte<br />
Hörposition im Raum maßgebenden und über die Nachhallzeit hinausgehenden<br />
akustischen Kennzeichen in dem zwischen 0 und 80 ms liegenden Bereich<br />
zu suchen.<br />
Die Bemühungen der Raumakustiker konzentrierten sich in der zurückliegenden<br />
Zeit darauf, aus solchen gemessenen oder auch vorausberechneten Impulsantworten<br />
Parameter abzuleiten, welche - ergänzend zur Nachhallzeit - die akustische<br />
Qualität eines Saales oder auch nur bestimmter Plätze oder Platzgruppen in<br />
ihm kennzeichnen. Stellvertretend <strong>für</strong> viele andere sei hier die „Deutlichkeit“ erwähnt,<br />
die als Maß <strong>für</strong> die Verständlichkeit von Sprache oder der Durchsichtigkeit<br />
von Musikdarbietungen dienen kann. Sie ist durch<br />
D<br />
=<br />
50ms<br />
∫<br />
∫<br />
0<br />
∞<br />
0<br />
()<br />
Et<br />
()<br />
Et<br />
dt<br />
dt<br />
Gl. 1-6<br />
definiert. Dabei kennzeichnet E(t) die Energie in der Impulsantwort, die zur Zeit t<br />
am Empfangsort eintrifft. Dieser Definition liegt die Erkenntnis zugrunde, dass die<br />
um weniger als 50 ms gegenüber dem Direktschall verzögerten Schallreflexionen<br />
subjektiv dem Direktschall zugeschlagen werden, also dessen Lautstärke zu erhöhen<br />
scheinen. Diese Bestandteile der Impulsantwort werden daher oft als „nützliche<br />
Reflexionen“ bezeichnet. Eine weitere, besonders <strong>für</strong> Konzertsäle wichtige Erkenntnis<br />
ist, dass die Richtungsverteilung der im Zeitbereich zwischen 0 und etwa<br />
80 ms beim Hörer eintreffenden Reflexionen <strong>für</strong> den subjektiven Räumlichkeitseindruck<br />
maßgebend ist, der ein wesentliches Qualitätsmerkmal ist. Aufgrund entsprechender<br />
psychoakustischer Untersuchungen lässt sich dieser durch den so<br />
genannten „Seitenschallgrad“ gut kennzeichnen:<br />
LF<br />
80ms<br />
∫<br />
E(<br />
t)<br />
cos<br />
5ms<br />
= 80ms<br />
∫<br />
0<br />
2<br />
E(<br />
t)<br />
dt<br />
Θdt<br />
Gl. 1-7<br />
Hierin ist E die Energie der Reflexionen und Θ der Winkel, den Einfallsrichtung mit<br />
einer durch die beiden Ohren des Zuhörers gelegten Achse bildet. Die Integrale<br />
10
sind über alle Reflexionen einschließlich des Direktschalls mit Verzögerungszeiten<br />
von weniger als 80 ms zu erstrecken.<br />
Die Ergebnisse zahlreicher, von verschiedenen Forschern und Forschergruppen<br />
durchgeführter psychoakustischer Untersuchungen lassen sich dahingehend zusammenfassen,<br />
dass bei Sälen, die <strong>für</strong> irgendwelche akustischen Darbietungen<br />
bestimmt sind, die Nachhallzeit nach wie vor an erster Stelle unter den objektiven<br />
raumakustischen Kriterien zu sehen ist. Welche weiteren Kriterien von Bedeutung<br />
sind, hängt in erster Linie von der Art der Darbietung (Sprache oder Musik) ab.<br />
1.4 Schallabsorption und Schallabsorber<br />
Für die Schallabsorption an Wänden gibt es im Wesentlichen zwei Ursachen: die<br />
Bewegung von Luft in Poren des Wandmaterials (Verluste durch Reibung) und<br />
das Mitschwingen von Wänden im Schallfeld.<br />
1.4.1 Poröse Absorptionsmaterialien<br />
Der <strong>für</strong> das Absorptionsvermögen eines porösen Materials (Watte, Glaswolle, Filz<br />
u.ä.) charakteristische längenspezifische, äußere Strömungswiderstand Ξ wird<br />
durch einen Versuch mit konstanter Luftströmung gemäß folgender Formel bestimmt:<br />
− Δp = Ξ ⋅Δx⋅v a<br />
wobei va die äußere Strömungsgeschwindigkeit ist. Im Inneren einer Probe<br />
herrscht die um 1/σ vergrößerte Strömungsgeschwindigkeit vi, da sich die Stromlinien<br />
auf den kleineren Porenquerschnitt zusammenziehen müssen (σ = Porosität<br />
< 1):<br />
Noppenschaumstoff zur Auskleidung<br />
von Raumbereichen<br />
Steinwolle <strong>für</strong> raum- und<br />
bauakustische Zwecke<br />
Da in praktischen Fällen das poröse Material sich meist als Schicht endlicher Dicke<br />
vor einer starren Wand befindet, wird ein Teil der eindringenden Wellen an<br />
dieser reflektiert und interferiert an der Grenzfläche mit der auftreffenden Welle.<br />
Dadurch ergeben sich häufig Schwankungen des Absorptionsgrades bei Variation<br />
der Frequenz. Eine merkliche Absorption wird erst erreicht, wenn der erste<br />
Schnellebauch der stehenden Welle vor der Wand im porösen Material liegt, dieses<br />
somit mindestens λ/4 dick ist. Man spart also Absorptionsmaterial, wenn man<br />
11
dieses nicht direkt auf die Wand bringt, sondern dahinter einen Zwischenraum frei<br />
lässt.<br />
1.4.2 Resonanzabsorber<br />
Fällt eine Schallwelle auf eine bewegliche Wand, so wird diese im Allgemeinen<br />
zum Schwingen angeregt. Zugleich wird auf der abgewandten Seite eine Schallwelle<br />
abgestrahlt. Ist m’’ die Flächenmasse der Wand (in kg/m 2 ), dann ist ihr Absorptionsgrad<br />
bei senkrechtem Schalleinfall<br />
1<br />
α =<br />
⎛ ωm'<br />
' ⎞<br />
1+<br />
⎜<br />
2 ⎟<br />
⎝ ρ 0c<br />
⎠<br />
2<br />
Er fällt mit wachsender Frequenz monoton ab - eine Folge der Massenträgheit. In<br />
der Praxis macht sich diese Art der Absorption nur bei dünnen Wänden (Fensterscheiben,<br />
Folien) bemerkbar und auch da nur bei tiefen Frequenzen. Wichtiger ist<br />
dagegen die Absorption einer schwingungsfähigen Wand, die im Abstand d vor<br />
einer schallharten Wand montiert ist. Der Luftraum der Dicke d wirkt wie eine Feder<br />
mit der flächenbezogenen Nachgiebigkeit<br />
d<br />
n''<br />
=<br />
ρ c<br />
0<br />
2<br />
Bei der Frequenz<br />
f<br />
0<br />
=<br />
1<br />
2π<br />
1<br />
=<br />
m''<br />
n''<br />
1<br />
2π<br />
ρ c<br />
0<br />
2<br />
m''<br />
d<br />
wird die Schwingungsamplitude sehr groß, und unvermeidbare Verluste z.B. durch<br />
Biegung der Verkleidung (elastische Verluste) bilden einen Absorptionsmechanismus.<br />
Um eine höhere Absorption zu erhalten, kann man den Hohlraum zusätzlich<br />
ganz oder teilweise mit porösem Material mit der Verlustkonstante w (Reibungswiderstand)<br />
füllen. Derartige Resonanzabsorber spielen in der Raumakustik<br />
eine große Rolle, da man mit ihnen durch geeignete Dimensionierung Wände mit<br />
weitgehend vorgebbarer Absorption herstellen kann. Auch <strong>für</strong> Loch- oder Schlitzplatten<br />
kann man eine effektive mitschwingende Masse m’’ berechnen. Diese<br />
Masse entspricht der Masse der Luft in den Löchern.<br />
ρ0<br />
m'' = 6<br />
σ<br />
( b + 1,<br />
a)<br />
12
Plattenresonator Loch- / Schlitzabsorber Helmholtz-Resonator<br />
Hierin ist b die Plattendicke, a der Radius der als kreisförmig angenommenen Löcher<br />
und σ der „Perforationsgrad“, d.h. der Bruchteil der Öffnungsfläche an der<br />
Gesamtfläche. Durch starke Perforation lassen sich also auch Schichten mit kleinen<br />
Flächenmassen herstellen, die zusammen mit einer porösen Schicht einen<br />
Resonator mit relativ hoher Resonanzfrequenz und wenig ausgeprägter Resonanz<br />
ergeben. Daher eignen sich dünne, hochperforierte Platten aus Blech, Gips oder<br />
Holz zur Abdeckung von Schluckstoffschichten (Mineralwolle oder ähnliche Stoffe),<br />
was praktisch aus Gründen des Berührungsschutzes, aber auch eines besseren<br />
Aussehens erforderlich ist. Diese Form findet oft Anwendung als sog. „Akustik-<br />
Decke“. Dies ist typischerweise folgender Aufbau (von oben gesehen): massive<br />
Rohdecke - Luftraum - Mineralwolle - Lochplatte.<br />
Frontplatte mit Speziallochmuster<br />
In der Vergangenheit fanden ebenfalls so genannte mikroperforierte Absorber zunehmend<br />
Beachtung. Diese bestehen aus einer Folie (z.B. transparenter Kunststoff)<br />
oder Platte (z.B. Acrylglas) mit sehr kleinen Löchern (d = 0,05 – 0,5 mm). In<br />
Abhängigkeit der Anwendung ist der Lochungsgrad im Bereich von 0,5 – 2 %. Bei<br />
solchen Anordnungen ist die Absorption hauptsächlich auf die viskose Reibung<br />
der Luftmoleküle an den Wänden der Mikro-Lochung zurückzuführen. Da mikroperforierte<br />
Absorber auch aus transparentem Material hergestellt werden können<br />
finden sie oft in Situationen Einsatz, in denen aus ästhetischen Gründen die Nutzung<br />
anderer Absorptionsmechanismen unerwünscht ist.<br />
13
2 Bauakustik<br />
2.1 Einleitung<br />
Die Bauakustik beschäftigt sich mit der Schall- und Schwingungsausbreitung in<br />
Gebäuden sowie mit der Beurteilung des Schallschutzes in Gebäuden. Dabei ist<br />
Luftschall und Körperschall hinsichtlich der Anregung und der Fortpflanzung in<br />
Gebäude zu unterscheiden. Beispielsweise würde eine laut eingestellte Hifi-<br />
Anlage zunächst Luftschall im „Senderaum“ abstrahlen. Die Schallübertragung in<br />
den sog. „Empfangsraum“, der ein schutzbedürftiger Raum im Sinne des baulichen<br />
Lärmschutzes sein kann (z.B. ein Schlafzimmer in fremdem Wohnbereich)<br />
erfolgt dann über vielfältige Wege, z.B. als Luftschall über Lüftungskanäle, als<br />
Körperschall direkt über die Trennwand oder als Umwandlungen von Luft- in Körperschall<br />
und umgekehrt. Körperschall, der durch Gehen auf Decken erzeugt wird,<br />
nennt man „Trittschall“. Ebenfalls von Interesse ist Körperschall aus haustechnischen<br />
Anlagen (Frisch- und Abwasserinstallation, Klimaanlagen, etc.) sowie die<br />
Schalldämmung gegen Außenlärm (Industrielärm, Straßen- und Luftverkehrslärm).<br />
2.2 Luftschalldämmung<br />
Eine wichtige Größe ist das Schalldämmmaß R = -10log τ mit dem Transmissionsgrad<br />
τ = Id/I0. In der Praxis werden die einfallende und die durchgelassene Schallintensität<br />
allerdings nicht unmittelbar gemessen, sondern die Messung des Schalldämmmaßes<br />
erfolgt zwischen zwei Räumen mit einem indirekten Verfahren. Dann<br />
gilt:<br />
R S E<br />
= L − L + 10log<br />
S / A<br />
Gl. 2-1<br />
(LS = Senderaum-Schalldruckpegel, LE = Empfangsraum-Schalldruckpegel, S =<br />
Trennbauteilfläche, A = äquivalente Absorptionsfläche des Empfangsraumes)<br />
L S<br />
L E<br />
Messungen dieser Art werden in Gebäuden durchgeführt, um festzustellen, ob der<br />
gesetzlich vorgeschriebene Mindestschallschutz gewährleistet ist. Andererseits<br />
gibt es Labor-Prüfverfahren, die auf ähnlichen messtechnischen Grundlagen stehen<br />
und die dazu dienen, die Schalldämmung von Bauteilen oder Baukonstruktio-<br />
14<br />
I o<br />
Ir<br />
Iw<br />
Id
nen zu ermitteln. Letztere Daten können verwendet werden, um bereits bei der<br />
Planung von Bauten die schalltechnische Eignung nachzuweisen.<br />
Der wesentliche physikalische Unterschied<br />
dieser beiden Betrachtungsweisen<br />
liegt in der Tatsache, dass im Prüfstand<br />
nur jeweils eine Konstruktion beurteilt<br />
wird, dass aber im fertigen<br />
Gebäude alle Übertragungswege über<br />
alle trennenden und flankierenden Bauteile<br />
eine Rolle spielen. Letztere Tatsache<br />
kennzeichnet man dadurch, dass<br />
man das Schalldämmmaß mit einem<br />
Apostroph (R' statt R) versieht.<br />
Die Ergebnisse der Schalldämmmaße<br />
werden im Frequenzbereich von 100 Hz<br />
– 3,15 kHz in Terzen dargestellt und<br />
beurteilt. Einfacher und letztlich relevant<br />
ist das sog. bewertete Schalldämmmaß<br />
Rw (oder R'w), welches durch einen Vergleich<br />
der gemessenen Schalldämm-<br />
Kurve mit einer international genormten<br />
Bezugskurve ergibt.<br />
2.3 Berechnung der Schalldämmmaße einzelner Bauteile<br />
a) einschalige Bauelemente<br />
p<br />
R = 10 log( 2<br />
p<br />
2<br />
ein<br />
durch<br />
Bau-Schalldämm-Maß R'<br />
90<br />
dB<br />
80<br />
70<br />
60<br />
50<br />
40<br />
30<br />
Frequenzbereich entsprechend der Kurve<br />
der Bezugswerte<br />
63 125 250 500 1000 2000 Hz 4000<br />
Frequenz f<br />
m‘<br />
ρ0c ρ0c<br />
Die Einfachwand und ihr elektrisches Analogon<br />
⎛ ω m'<br />
⎞ ⎛ ωm'<br />
⎞<br />
) = 10 log1+<br />
⎜<br />
⎟ ≈ 20 log<br />
⎜<br />
⎟<br />
⎝ 2Z<br />
0 ⎠ ⎝ 2Z<br />
0 ⎠<br />
2<br />
Gl. 2-2<br />
Dieses sog. „Massegesetz“ gilt <strong>für</strong> biegeweiche Bauteile, wobei ω die Kreisfrequenz,<br />
m' die flächenbezogene Masse und Z0 = ρ0c die Kennimpedanz von Luft<br />
ist. Bei Schalleinfall unter dem Winkel ϑ wird das Argument des Logarithmus mit<br />
dem Faktor „cos ϑ“ ergänzt. R steigt um 6 dB pro Oktav (doppelte Frequenz) oder<br />
pro Masseverdopplung an.<br />
15
) zweischalige Bauelemente<br />
m‘ 1<br />
m‘2<br />
ρ0c<br />
n‘<br />
ρ0c<br />
Die Doppelwand und ihr elektrisches Analogon<br />
Bei zweischaligen Elementen wird das Massegesetz von einem wesentlich stärkeren<br />
Effekt überlagert, der auf das Zusammenwirken zweier Masse-Schalen auf einer<br />
Luftschicht, die als Feder wirkt, zurückzuführen ist.<br />
3 ⎡ω<br />
dm'1<br />
m'<br />
R = 20 log⎢<br />
2 3<br />
⎢⎣<br />
2ρ<br />
o c<br />
2<br />
⎤<br />
⎥ ,<br />
⎥⎦<br />
Schalldämmmaß einer Doppelwand<br />
ω =<br />
0<br />
m ' + m'<br />
1<br />
n'<br />
m'<br />
16<br />
1<br />
2<br />
m'<br />
2<br />
Gl. 2-3<br />
Dabei tritt zwar bei der Resonanzfrequenz<br />
ω0 eine Verschlechterung ein, aber<br />
im eigentlichen Nutzbereich steigt<br />
das Schalldämmmaß steil (18 dB/Oktav)<br />
an, bis die Wellenlänge so klein wird,<br />
dass statt der Federwirkung der Luftschicht<br />
stehende Wellen im Zwischenraum<br />
auftreten. In der Praxis findet man<br />
„Doppelwände“ bei Haustrennwänden,<br />
Leichtbauwänden (z.B. Gipskartonplatten),<br />
im Fertighausbau, bei Fenstern und<br />
bei Vorsatzschalen zur Verbesserung<br />
der Schalldämmung. Wichtig sind eine<br />
gute Körperschallentkopplung der Schalen<br />
(keine Schallbrücken!) und eine geeignete<br />
Füllung des Hohlraums mit absorbierendem<br />
Material zur Dämpfung<br />
des Resonanzeinbruches.
3 Binaurales Hören<br />
3.1 Dreidimensionale Schallwahrnehmung<br />
Die Richtung eines Schallereignisses kann von normalhörenden Menschen aufgrund<br />
charakteristischer Merkmale identifiziert werden. Betrachtet wird zunächst<br />
das Schallfeld einer einzelnen Schallquelle im Freifeld, also ohne weitere Reflexionen<br />
von Wänden oder sonstigen Hindernissen. Ist in diesem Feld eine einzelne<br />
Person vorhanden, wird die sonst ungehinderte Ausbreitung des Schallfeldes<br />
durch Reflexionen und Beugungseffekte an Rumpf, Schulter, Kopf und Ohrmuschel<br />
gestört, das Schallsignal der Quelle wird auf dem Weg in die beiden Ohren<br />
dadurch linear verzerrt. Diese Verzerrungen sind insbesondere abhängig von der<br />
Einfallsrichtung des Schalls bezogen auf den Körper und dessen Abstand zur<br />
Schallquelle.<br />
Der Schall einer seitlich angeordneten Schallquelle erreicht beide<br />
Ohren nach unterschiedlicher Laufzeit, weil der Schall zum abgewandten<br />
Ohr einen längeren Weg zurücklegen muss als zum zugewandten.<br />
Außerdem wird das abgewandte Ohr durch den Kopf<br />
akustisch abgeschattet. Die Schalldrücke an beiden Ohren unterscheiden<br />
sich also. Die beiden Abweichungen werden durch die „Interaurale Laufzeitdifferenz“<br />
und die „Interaurale Pegeldifferenz“ quantifiziert. Bei tiefen Frequenzen<br />
ist der Einfluss auf die Schallausbreitung weniger ausgeprägt, da der Kopf<br />
gegenüber der Wellenlänge klein ist, die Pegelunterschiede sind dann eher gering.<br />
Daher wird <strong>für</strong> tiefe Frequenzen eher die Laufzeitdifferenz ausgewertet, bei höheren<br />
Frequenzen ist dann die Pegeldifferenz entscheidend.<br />
Liegt die Schallquelle aber in der Medianebene, d.h. in der Ebene senkrecht durch<br />
den Kopf, auf der die Ohrachse senkrecht steht, dann treten die oben genannten<br />
Effekte nicht auf (unter Annahme eines symmetrischen Kopfes). Aber auch in dieser<br />
Ebene ist die Schallquellenlokalisation möglich.<br />
Die Laufzeiten der Reflexionen von Kopf, Rumpf, Schulter und Ohrmuschel sind<br />
abhängig vom Elevationswinkel, dem Winkel zwischen der Einfallsrichtung und der<br />
horizontalen Ebene. Daraus ergibt sich ein charakteristisches Frequenzverhalten<br />
des Übertragungsweges von der Schallquelle bis zum Trommelfell. Dieses wird<br />
von Gehirn ausgewertet um auf den Elevationswinkel zu schließen.<br />
Die oben beschriebenen linearen Verzerrungen auf dem Weg von der Schallquelle<br />
bis zum Trommelfell des linken und rechten Ohrs lassen sich <strong>für</strong> verschiedene<br />
Richtungen in reflexionsarmer Umgebung messen. Man erhält dann eine Sammlung<br />
von kopfbezogenen Übertragungsfunktionen, die man nach ihrer englischen<br />
Bezeichnung auch HRTF nennt (Head-Related Transfer Function). Wird das Signal<br />
einer Schallquelle mit der HRTF <strong>für</strong> eine bestimmte Einfallsrichtung gefiltert,<br />
und anschließen geeignet wiedergegeben (siehe weiter unten), wird die Schall-<br />
17
quelle unter der entsprechenden Richtung wahrgenommen. Das funktioniert allerdings<br />
nur, wenn die Person mit den verwendeten HRTFs kompatibel ist.<br />
3.2 Außenohr-Übertragungsfunktionen: HRTF Head-Related Transfer<br />
Function)<br />
Das System „Außenohr“ kann als LTI-System behandelt werden. Dementsprechend<br />
wird es mit Hilfe einer Stoßantwort oder einer komplexen Übertragungsfunktion<br />
eindeutig beschrieben. Die Außenohr-Übertragungsfunktion enthält die<br />
Information über die linearen Verzerrungen, die durch das Vorhandensein des<br />
Körpers, des Kopfes, der Ohrmuschel, des Gehörganges usw. hervorgerufen werden.<br />
Frontalebene Medianebene<br />
Horizontalebene<br />
Einige Anteile sind richtungsabhängig, andere nicht. Als Bezugsschallfeld dient im<br />
einfachsten Fall eine ebene Schallwelle, die von vorne auf den Kopf einfällt. Zur<br />
exakten Angabe der Richtung muss man jedoch genauere Angaben machen, wobei<br />
man sich eines kopfbezogenen Koordinatensystems bedient.<br />
18
Die Horizontalebene wird von einem um den Kopf laufenden Kreis von ϕ = 0 o bis<br />
360 o und ϑ = 0 o aufgespannt; die Medianebene entsprechend bei ϕ = 0 o und von<br />
ϑ = 0 o bis ϑ = 360 o . Zur vollständigen Beschreibung einer Schalleinfallsrichtung<br />
reicht somit die Angabe zweier Winkel aus. Die oben erwähnte „Vorne“-Richtung<br />
wird durch ϕ = 0 o und ϑ = 0 o festgelegt.<br />
dB<br />
20<br />
VP 1<br />
VP 2<br />
VP 3<br />
VP 4<br />
Kopfbezogenes Koordinatensystem<br />
0.5 1 2 5 10 kHz<br />
Einige typische Außenohr-Übertragungsfunktionen (HRTF) von vier Versuchspersonen,<br />
gemessen <strong>für</strong> die „vorne“-Richtung.<br />
3.3 Kunstkopftechnik<br />
Die Messung binauraler Signale muss nach dem zuvor Gesagten alle richtungsabhängigen<br />
Anteile einer Außenohr-Übertragungsfunktion beinhalten, denn richtungsunabhängige<br />
Anteile, die von Komponenten hinter dem Ohrkanal-Eingang<br />
stammen, können auch durch elektrische (typischerweise digitale) Filter nachgebildet<br />
werden. Für Laborzwecke ist es daher zunächst möglich, mit einer Versuchspersonengruppe<br />
(evtl. auch gezielt individuell) und Gehörgangs-<br />
Miniaturmikrofonen oder Sondenmikrofonen zu arbeiten. Hierbei werden typischerweise<br />
Mittelwerte über eine Anzahl von Versuchspersonen gewonnen und<br />
ausgewertet. Für die objektive binaurale Geräuschmesstechnik ist jedoch der Ersatz<br />
der Versuchspersonengruppen durch ein spezielles zweikanaliges Richtmikrofon<br />
wichtig, wodurch der Zeit- und Kostenaufwand sinkt und die Reproduzierbarkeit<br />
der Messergebnisse erhöht wird. Ein solches Richtmikrofon heißt „Kunstkopf“<br />
oder auch „Kopf- und Rumpfsimulator“.<br />
Die Entwicklung eines Kunstkopfes bedarf zahlreicher Detailuntersuchungen der<br />
Formen von Kopf, Rumpf, Ohrmuschel usw. Entweder versucht man, eine mittlere<br />
Geometrie zu finden, oder man stellt einen repräsentativen Kopf- und Rumpfsimulator<br />
her, der einer typischen Versuchsperson ähnelt. Die genaue Ausführung des<br />
Gehörganges und die Positionierung der Mikrofone sind <strong>für</strong> die richtungsabhängigen<br />
Anteile der Außenohr-Übertragungsfunktion nicht relevant. Eine geeignete<br />
19
Entzerrung der Ohrsignale ist <strong>für</strong> verschiedene Anwendungen ohnehin notwendig,<br />
sei es <strong>für</strong> Kopfhörerwiedergabe oder <strong>für</strong> messtechnische Zwecke in vorgegebenen<br />
Schallfeldern.<br />
Drei Ausführungen standardisierter Kopf- und Rumpfsimulatoren<br />
Geeignete Bezugsschallfelder sind speziell das „Freifeld“ und das „Diffusfeld“.<br />
Dementsprechend meint man bei einem freifeldentzerrten Kunstkopf, dass sein<br />
Übertragungsmaß bei Beschallung unter ϕ = 0 o und ϑ = 0 o horizontal verläuft (d.h.<br />
unabhängig von der Frequenz konstant ist). Diese Eigenschaft ist daher auch ein<br />
wichtiges Prüfkriterium bei Eignungstests von Kunstköpfen. Unter Bezug auf die<br />
„Vorne-Richtung“ können nämlich die Übertragungsfunktionen anderer Einfallsrichtungen<br />
oder auch das Übertragungsmaß <strong>für</strong> diffuse Beschallung beurteilt und<br />
<strong>für</strong> Qualifikationstests verwendet werden.<br />
Die Geometrie und das Übertragungsverhalten von Kunstköpfen im freien und diffusen<br />
Schallfeld ist in internationalen Normen festgelegt (ISO TR 959 und ITU<br />
p.58). Beispiele <strong>für</strong> Anwendungsbereiche sind Messungen von Hörgeräten und<br />
von Telefonen (Hören und Sprechen) sowie die Raumakustik und der wichtige Bereich<br />
„Sound Quality“, der in der Industrie mehr und mehr an Bedeutung gewinnt<br />
(z.B. im Fahrzeugbau und bei Haushaltsgeräten).<br />
3.4 Binaurale Messgrößen<br />
Binaurale Messungen haben oft nicht nur den Schalldruckpegel oder das Trommelfell-Schalldruckspektrum<br />
zum Ziel, sondern zunehmend auch komplexere<br />
Funktionen, die spezielle Eigenschaften des menschlichen Gehörs beschreiben<br />
sollen. Als Beispiele <strong>für</strong> binaurale Messgrößen seien hier nur einige Parameter<br />
erwähnt:<br />
• ILD, ITD (Interaural Level Difference, Interaural Time Difference): werden allgemein<br />
als die wesentlichen Merkmale binauraler Schallreize angesehen. Die<br />
an den beiden Ohren auftretende Pegel und Laufzeitunterschiede werden im<br />
20
neuronalen System in verschiedenen Entscheidungsstufen ausgewertet. Spezielle<br />
Nervenzellen sind insbesondere in der Lage, „Gleichzeitigkeit“<br />
festzustellen bzw. die Zeitbezüge zwischen „links“ und „rechts“ zu messen, so<br />
dass aus ITD unmittelbar die azimutale Schalleinfallsrichtung ermittelt werden<br />
kann.<br />
• BMLD (Binaural Masking Level Difference): Pegelschwelle, bei welcher ein<br />
Testsignal unter binauralen Abhörbedingungen (evtl. mit einem Maskierer) unterschiedlich<br />
wahrgenommen wird. Die Variationen des Testschallfeldes können<br />
sehr vielfältig sein, z.B. können die Maskierer aus unterschiedlichen Richtungen<br />
einwirken, oder sie können einem Diffusfeld entsprechen.<br />
• IACC (Interaural Cross Correlation Coefficient): Die interaurale Kreuzkorrelation<br />
wird in der Raumakustik als Maß da<strong>für</strong> verwendet, zu quantifizieren wie viel<br />
Schallanteile am Ort des Zuhörers aus der Medianebene einfallen. Bei<br />
Schalleinfall aus der Medianebene ist bekanntlich die Korrelation (Ähnlichkeit)<br />
zwischen den Ohrsignalen sehr groß (im Idealfall ist die Korrelation gleich Eins<br />
bei τ = 0). Seitlicher Schalleinfall bedeutet eine Verkleinerung und Verschiebung<br />
des Korrelationsmaximums. Das Maximum der Korrelationsfunktion zwischen<br />
-1 ms < τ < 1 ms wird als Wert des IACC angegeben. Ein geringer I-<br />
ACC bedeutet, dass die Akustik eines Raumes durch einen hohen „Räumlichkeitseindruck“<br />
gekennzeichnet ist.<br />
21
4 Raumakustische Auralisation<br />
4.1 Binaurale Raumimpulsantworten<br />
Impulsantworten, die <strong>für</strong> die Hörbarmachung des simulierten Schallfeldes geeignet<br />
sind, müssen eine Abtastrate von typischerweise 44,1 kHz aufweisen. Daher sind<br />
nur Spiegelschallquellenansätze oder gemischte Verfahren einsetzbar.<br />
Natürlich muss „Auralisation“ das zweiohrige (binaurale) Hören berücksichtigen.<br />
Monophone Signale können zwar einen Eindruck über das verhallte Signal verschaffen,<br />
aber erst das räumliche Hören vermittelt den Klangeindruck in seiner<br />
Gesamtheit. Die Binauraltechnik erlaubt mit Hilfe der sog.<br />
„Außenohrübertragungsfunktionen“ HRTF (siehe Abschn. 3.1) oder den<br />
zugehörigen HRIRs (head-related impulse responses) eine Simulation der<br />
einzelnen Schalleinfallsrichtungen. HRTF-Daten werden normalerweise an<br />
Versuchspersonen oder an Kunstköpfen gemessen.<br />
Schließlich kann so eine binaurale Schalldruck-Impulsantwort aus der Summe der<br />
einzelnen Reflexionen (und dem Direktschall) erzeugt werden. Die binaurale<br />
Raumimpulsantwort setzt sich aus den Beiträgen des Direktschalls, falls dieser<br />
hörbar ist, und aus den Beiträgen der hörbaren Spiegelschallquellen zusammen.<br />
Die Formulierung der Superposition der Spiegelschallquellenbeiträge stellen wir<br />
zunächst im Frequenzbereich auf. Dazu wird der Begriff der Raumübertragungsfunktion<br />
verwendet. Die Erzeugung der Impulsantwort geschieht also mittelbar über<br />
die Erzeugung einer Frequenzfunktion.<br />
Liegt von einem System die Impulsantwort h(t) vor, so kann diese Funktion mit der<br />
Fourier-Transformation<br />
F { h ( t)<br />
} = H ( f ) bzw.<br />
h(<br />
t)<br />
H ( f )<br />
Gl. 4-4<br />
in die Übertragungsfunktion H(f) überführt werden und mit der inversen fouriertransformation<br />
entsprechend umgekehrt. Die Transformationsgleichung ist<br />
durch das Fourierintegral gegeben. Somit können LTI-Systeme vollständig entweder<br />
im Zeitbereich oder im Frequenzbereich charakterisiert werden, und an mehreren<br />
Stellen ist mittels der Fouriertransformation ein Übergang zwischen den Bereichen<br />
in beide Richtungen möglich.<br />
4.1.1 Übertragungsfunktion<br />
Die Übertragungseigenschaften des Raumes bzw. der einzelnen Reflexionen lassen<br />
sich im Frequenzbereich durch sog. Frequenzfunktionen H(f) darstellen, und<br />
22
zwar entweder durch die Komponenten Real- und Imaginärteil (Re{Hf)} bzw.<br />
Im{H(f)}) oder in der äquivalenten Form als Betrag und Phase (|H(f)| bzw. ϕ(f))<br />
jϕ<br />
( f )<br />
{ H ( f ) } + j Im{<br />
H ( f ) } = H ( f ) ⋅ e<br />
H ( f ) = Re<br />
Gl. 4-5<br />
Das Spektrum des Direktschalls wird dabei über folgende Formel gebildet:<br />
H f = H f<br />
v<br />
r ⋅ H f , d ⋅ H<br />
v<br />
f , r Gl. 4-6<br />
direkt<br />
( ) ( ) ( ) ( )<br />
Sender<br />
, S Luft<br />
Empf<br />
Dabei ist HSender das Spektrum der Senderrichtcharakteristik und ist abhängig von<br />
der Richtung, in die der Schallstrahl vom Sender aus startet. HLuft ist das Spektrum<br />
der Luftdämpfung, abhängig von der zurückgelegten Strecke des Schallstrahls,<br />
was beim Direktschall gleichbedeutend mit der Entfernung vom Sender ist. HEmpf<br />
ist schließlich das komplexe Spektrum der jeweiligen binauralen Außenohrübertragungsfunktion<br />
und ist abhängig von der Richtung, aus welcher der Schallstrahl<br />
des Direktschalls beim Empfänger eintrifft. Diese Richtung ist beim Direktschall<br />
identisch mit der Richtung, in die der Schallstrahl am Ort des Senders startet.<br />
Der Beitrag der j´ten gültigen Spiegelschallquelle ist:<br />
H<br />
j<br />
− jkrj<br />
e<br />
=<br />
r<br />
j<br />
H<br />
Sender<br />
H<br />
Empf<br />
H<br />
n j<br />
Luft∏<br />
i=<br />
1<br />
H<br />
i<br />
E<br />
Gl. 4-7<br />
wobei rj den Abstand zwischen Spiegelschallquelle und Empfänger, k die Wellenzahl<br />
= 2πf/c, HSender die Richtcharakteristik der Quelle, HEmpf die „HRTF“ (des rechten<br />
oder des linken Ohres, siehe Abschn. 3.1), HLuft die Luftabsorption und Hi die<br />
Reflexionsfaktoren der betroffenen Wände in der Spiegelschallquellenkette bedeutet.<br />
Die komplette binaurale Impulsantwort gewinnt man dann durch Addition aller<br />
Spiegelschallquellenbeiträge (r, l = rechtes, linkes Ohr) und durch inverse Fourier-<br />
Transformation:<br />
h<br />
total, r, l<br />
⎧<br />
N<br />
−1<br />
( t)<br />
= F ⎨H<br />
direkt<br />
+ ∑ H<br />
⎩<br />
j=<br />
1<br />
j,<br />
r, l<br />
4.2 Verarbeitung trockener Signale<br />
⎫<br />
⎬<br />
⎭<br />
Gl. 4-8<br />
Sobald die relevanten Funktionen, welche die Übertragung des Schalls im Raum<br />
beschreiben (Raumimpulsantwort) bekannt sind, und auch die Eigenschaften der<br />
23
Empfänger in Form der Außenohr-Übertragungsfunktionen HRTF und HRIR richtungstreu<br />
angewendet wurden, ist das System Quelle – Raum – Empfänger vollständig<br />
repräsentiert. Dessen Übertragungseigenschaften können nun mit beliebigen<br />
Anregungssignalen verarbeitet werden. Wird der Raum als lineares zeitinvariantes<br />
„LTI-System“ aufgefasst, so darf man <strong>für</strong> den Fall der rückwirkungsfreien<br />
Signalübertragung die Filterung des Signals durch die Raumeigenschaften durch<br />
eine Faltung vollziehen.<br />
4.2.1 Eingangssignale<br />
Das Eingangssignal s(t) sollte möglichst gut einem realistischen „Quellsignal“ entsprechen.<br />
Ein Quellsignal kann beispielsweise von einem Musikinstrument, von<br />
einem Sprecher oder von einer lärmerzeugenden Maschine stammen. In diesem<br />
Zusammenhang bedeutet „Rückwirkungsfreiheit“, dass die Leistungsabgabe der<br />
Quelle unabhängig von den Raumeigenschaften ist. In der Praxis ist das in der<br />
raumakustischen Auralisation immer erfüllt, ganz im Gegensatz zur Körperschallquellen<br />
und deren Auralisation.<br />
Ein Quellsignal <strong>für</strong> die raumakustische Auralisation kann leicht in reflexionsfreier<br />
Umgebung aufgenommen und gespeichert werden. Es ist allerdings darauf zu<br />
achten, dass sich die Mikrofonposition bei der Aufnahme im Fernfeld befindet,<br />
damit keine Nahfeldeffekte und damit verbundene Verzerrungen in das Quellsignal<br />
gelangen. Derartige Aufnahmen sind <strong>für</strong> Musikstücke, <strong>für</strong> Sprache und auch <strong>für</strong><br />
typische Lärmbeispiele verfügbar. Sie werden „trockene Signale“ genannt, da sie<br />
vollkommen nachhallfrei (und somit unnatürlich) klingen. Aufnahmen in relativ gedämpften<br />
Raumumgebungen wie z.B. in Tonstudios können als Eingangssignale<br />
verwendet werden, sofern der Rest-Nachhall im Signal wesentlich geringer ist als<br />
der Hall des zu auralisierenden Raumes.<br />
4.2.2 Der Begriff der Faltung<br />
Wird ein LTI-System mit einem Eingangssignal<br />
s(t) gespeist, so kann ausgangsseitig<br />
ein Signal g(t) empfangen werden, <strong>für</strong><br />
welches gilt:<br />
∞<br />
= ∫<br />
-∞<br />
g( t)<br />
s(<br />
τ ) h(<br />
t −τ<br />
) dτ<br />
= s(<br />
t)<br />
∗ h(<br />
t)<br />
s(t) h(t) g(t)<br />
Gl. 4-9<br />
wobei h(t) die Impulsantwort (oder Stoßantwort) des Systems genannt wird und<br />
das Integral eine Faltungsoperation ausdrückt. Diese allgemeine und sehr wichtige<br />
Formel ist die Grundlage <strong>für</strong> alle theoretischen Betrachtungen an LTI-Systemen.<br />
Sie erlaubt insbesondere die Konstruktion von Filtern und die digitale Filterung beliebiger<br />
Eingangssignale mit Impulsantworten h(t). Die Beschreibung von Filtern ist<br />
aber nach 4.1.1 ebenso im Frequenzbereich möglich. Sollen die Übertragungseigenschaften<br />
eines Systems bezüglich der Frequenz dargestellt werden, ist besonders<br />
die Information von Interesse, um wel-<br />
S(f) H(f) G(f)<br />
24
ches Maß ein eingespeistes Signal einer bestimmten Frequenz von dem System<br />
gedämpft oder verstärkt wird. Die Faltung wird im Frequenzbereich durch eine<br />
Multiplikation ersetzt:<br />
G( f ) = S(<br />
f ) ⋅ H ( f )<br />
Gl. 4-10<br />
s(t)<br />
h(t)<br />
g(t)<br />
F LTI F<br />
S(f)<br />
*<br />
.<br />
H(f)<br />
Ob die Faltung im Zeitbereich „zu Fuß“ oder mit Hilfe der Fouriertransformation im<br />
Frequenzbereich durchgeführt wird, ist <strong>für</strong> das Resultat unerheblich. Es kommt<br />
letztlich nur darauf, welche Methode schneller ist.<br />
G(f)<br />
4.3 Freifeld-Verfahren: Binauraler Richtungsmischer<br />
Schon unter Freifeldbedingungen gibt es interessante Anwendungen der Echtzeit-<br />
Auralisation. Eine elementare Aufgabe besteht darin, eine Schallquelle „in den<br />
Raum zu stellen“, d.h. eine Quelle (mono) ohne Richtungs- und Entfernungsinformation<br />
im dreidimensionalen Raum außerhalb des Kopfes in einer gewissen Entfernung<br />
zu platzieren. Ein derartiger „Richtungsmischer“ muss dem mehr Signal<br />
Merkmale aufprägen als einer einfacher Balance-Regler, der in der Stereobreite<br />
Verschiebungen hervorrufen kann. Vielmehr sind die aus Abschn. 3.1 bekannten<br />
HRTF zu verwenden, siehe Bild.<br />
HRTF<br />
Richtung<br />
HRTF<br />
Richtung<br />
rechtes Ohr<br />
mono in stereo out<br />
linkes Ohr<br />
Ebenso können Richtungsinformationen in Signalen manipuliert, d.h. in der Richtung<br />
geändert werden.<br />
Mit der Möglichkeit, Schallereignisse in den 3D-Raum zu platzieren und zu bewegen,<br />
ist das wichtigste Element der virtuellen Akustik bereits beschrieben. Alle akustischen<br />
und algorithmischen Details sind nun im Prinzip bekannt und müssen<br />
„nur“ in Echtzeit realisiert werden.<br />
Die notwendigen Blocklängen der HRTF-Filter liegen im Bereich von 128. Typischerweise<br />
reichen FIR-Filter (Transversalfilter) aus, auch ohne den Einsatz von<br />
DSP.<br />
25
4.4 Erstellung der binauralen Raumimpulsantworten<br />
Die binaurale Synthese ist auch <strong>für</strong> Schallfelder in Räumen einsetzbar, wobei die<br />
Anteile jeder Reflexion (Spiegelschallquelle) nach Gleichung 4.10 bzw. in der<br />
Summe nach 4.11 berechnet werden. Zu beachten ist dabei, dass die entsprechenden<br />
HRTF nicht pauschal, sondern <strong>für</strong> jede Reflexion spezifisch richtungsabhängig<br />
eingehen müssen.<br />
26
5 Integration von Binauraltechnik in virtuelle Umgebungen<br />
Die Computersimulation akustischer Szenen ist eine wichtige Grundlage <strong>für</strong> das<br />
Rendering. Die 3D-fähige Wiedergabeeinheit, sozusagen das „Audio-Frontend“<br />
oder die „Mensch-Audio-Schnittstelle“, ist jedoch ebenfalls ein sehr kritisches Element,<br />
welches hohe Qualitätsansprüchen hinsichtlich Klangtreue und Lokalisation<br />
erfüllen muss, und zwar ähnlich hoch wie bei modernen Shutterbrillen und entsprechenden<br />
Stereo-Projektionsflächen mit Auflösungen von mindestens 2000 x<br />
1600 Pixel. Ein derartiges Wiedergabesystem darf man durchaus als Super-HiFi-<br />
Anlage bezeichnen, wobei allerdings im Vergleich mit Techniken im Consumer-<br />
Hifi-Bereich völlig andere Synthese- (Aufnahme-) Techniken beachtet werden<br />
müssen. Steht bei einer Tonstudio- oder Liveaufnahme ein guter „Sound“ und eine<br />
ansprechende räumliche Abbildung in der Stereobasis im Vordergrund, so muss<br />
bei der Virtuellen Realität (VR) nicht nur ein Stereo-Effekt, sondern eine korrekte<br />
3-D-Abbildung erzielt werden. Eine im Frequenzgang neutrale Wiedergabe ist natürlich<br />
ohnehin vorausgesetzt.<br />
5.1 Kopfhörer-basierte Wiedergabetechnik<br />
Naheliegend ist die Verwendung von Kopfhörern, die auch weit verbreitet ist. Leider<br />
sind mit der Kopfhörerwiedergabe einige Nachteile verbunden. Es kann insbesondere<br />
zu „Im-Kopf-Lokalisation“ kommen. Da die Wahrnehmung einer Schallquelle<br />
im Kopf in der Realität nicht vorkommt, kommt es in einem solchen Fall unweigerlich<br />
zu Diskrepanzen zwischen den Wahrnehmungen der verschiedenen<br />
Sinne.<br />
Die Entzerrung von Kopfhörern ist weitaus schwieriger als die Entzerrung von<br />
Lautsprechern. Sowohl die Herstellung einer repräsentativen Strahlungsimpedanz<br />
in Form eines „künstlichen Ohres“ (wie auch in der Audiometer-Kalibrierung verwendet)<br />
als auch eine reproduzierbare Anpassung des Kopfhörers an das künstliche<br />
oder an natürliche Ohren bergen große Messunsicherheiten. Selbst bei idealen<br />
Messbedingungen, guten Ergebnissen und wirkungsvoller digitaler Signalverarbeitung<br />
zur Entzerrung der linearen Übertragungseigenschaften ist nicht gewährleistet,<br />
dass die Bedingungen beim erneuten Aufsetzen des Kopfhörers oder<br />
beim Wechsel der Abhörperson bestehen bleiben.<br />
5.2 Lautsprecher-basierte Wiedergabetechnik<br />
Die Erzeugung räumlicher Schallfelder mit Lautsprechern kann prinzipiell auf zwei<br />
verschiedene Arten erfolgen. Zum einen kann versucht werden, mit Lautsprechern<br />
„ohrgerechte“ Signale zu erzeugen, ohne auf die speziellen Eigenschaften des<br />
Schallfeldes im Abhörraum zu achten. Dies ist zulässig, denn das Hörempfinden<br />
hängt ausschließlich (jedenfalls sehr weitgehend) vom Schalldruck am Trommelfell<br />
ab und nicht vom großräumigen Wellenfeld. Zum anderen kann jedoch ver-<br />
27
sucht werden, in einem bestimmten Raumvolumen das zu simulierende Schallfeld<br />
tatsächlich nachzubilden. Eine sehr einfache Variante, die auf die Abbildung von<br />
Schallquellen in der horizontalen Ebene beschränkt ist und keine echte Schallfeldnachbildung,<br />
sondern nur eine Näherung über „Phantomschallquellen“, ist Dolby-<br />
Surround. Diesem Verfahren deutlich überlegen, aber auf mit extrem hohen Aufwand<br />
verbunden, ist die Wellenfeldsynthese (Wave Field Synthesis, WFS). Hier<br />
wird tatsächlich ein realistisches Schallfeld erzeugt, das bei Beschränkung auf eine<br />
agierende Person auch kopfnahe Schallquellen abbilden kann. Leider wird eine<br />
immense Zahl von Lautsprechern und DSP-Filterkanälen benötigt, so dass dieses<br />
Verfahren nur schwer große Verbreitung finden kann. Es gibt allerdings Ansätze<br />
<strong>für</strong> Kinobeschallung und High-End Audio. Ein guter Kompromiss <strong>für</strong> eine räumliche<br />
Wiedergabe ist das Verfahren „Ambisonics“, eine Art Abbildung des Wellenfeldes<br />
aus Kugelfunktionen.<br />
5.2.1 Kopfbezogene Verfahren<br />
Mit deutlich weniger Aufwand kann eine dreidimensionale Schallfeldwahrnehmung<br />
mit binauralen Techniken (siehe Kapitel 7) erzeugt werden. Dieses Verfahren beruht<br />
auf der direkten Berechnung des Schalldrucks am Trommelfell unter Verwendung<br />
der oben bereits genannten HRTFs. Durch die Wiedergabeeinrichtung muss<br />
dann aber da<strong>für</strong> gesorgt werden, dass das Signal <strong>für</strong> das linke Ohr auch nur beim<br />
linken Ohr ankommt und ebenso das <strong>für</strong> das rechte.<br />
Y L<br />
H LL<br />
X L<br />
H LR<br />
binaurale Signale<br />
Übersprechkompensation<br />
Z L<br />
Alternativ zu Kopfhörern können binaurale Signale nämlich auch über zwei Lautsprecher<br />
wiedergegeben werden. Zunächst hat man dann aber das Problem, dass<br />
ohne weiteres keine hinreichende Kanaltrennung erreicht wird, weil beide Lautsprecher<br />
von beiden Ohren gehört werden können. Die Kanaltrennung muss erst<br />
durch eine geeignete Signalverarbeitung hergestellt werden. Dazu wird das Übersprechen<br />
vom abgewandten Lautsprecher durch ein geeignet gefiltertes Signal<br />
vom zugewandten Lautsprecher durch destruktive Interferenz am Ohr ausgelöscht.<br />
Die auf Interferenz beruhende Übersprechkompensation ist sehr empfindlich<br />
gegen Phasenfehler, die durch geringe Unterschiede in der Laufzeit der Signale<br />
von rechtem und linkem Lautsprecher resultieren.<br />
28<br />
Z R<br />
H RL<br />
X R<br />
H RR<br />
Y R
Sind die Übersprechkompensationsfilter statisch <strong>für</strong> einen Punkt eingemessen,<br />
dann muss sich die Person genau an dem Punkt befinden, <strong>für</strong> den eingemessen<br />
wurde. Bereits bei einer seitlichen Abweichung von unter zwei Zentimetern konnten<br />
von Versuchspersonen in Hörtests Unterschiede bei der Lokalisation oder der<br />
Klangfarbe wahrgenommen werden.<br />
Bei der dynamischen Übersprechkompensation wird das System auf die jeweilige<br />
Position der Ohren adaptiert. Dies erfordert eine aufwendige und schnelle Datenverarbeitung.<br />
Die Positionsdaten werden von einem Head-Tracker-System übermittelt,<br />
welches in typischen VR-Systemen <strong>für</strong> die stereoskopische Projektion ohnehin<br />
integriert ist. Interessant ist dieses Verfahren, weil es die Vorteile eines binauralen<br />
Verfahrens ohne „Im Kopf Lokalisation“ und ohne die Verwendung von<br />
Kopfhörern erlaubt, die einen unnatürlichen Einflussfaktor auf die Immersion in die<br />
virtuelle Umgebung darstellen. Sofern diese Technik <strong>für</strong> die Wiedergabe binauraler<br />
Szenen aus Kunstkopfaufnahmen verwendet wird, arbeitet sie nicht anders als<br />
ein Kopfhörer: Bei Kopfdrehung dreht sich das Schallereignis mit.<br />
Ein kombinierter Ansatz, welcher schließlich die head-getrackte Wiedergabeeinheit<br />
mit der binauralen Synthese koppelt, stellt das Ideal dar. Somit lassen sich<br />
raumfeste Quellen realisieren. Erst dann ist gewährleistet, dass trotz vollständiger<br />
Bewegungsfreiheit die akustische Szene mit der visuellen Szene gekoppelt und im<br />
3D-Raum fixiert ist.<br />
29
Elektroakustik<br />
Herbert Hudde / Elektroakustik<br />
1. Einleitung<br />
2. Elektrodynamischer Lautsprecher<br />
2.1 Aufbau und Grundprinzip<br />
2.2 Ersatzschaltbild unter Verwendung der elektromechanischen und elektroakustischen<br />
Analogien<br />
2.3 Schallabstrahlung, Kugelstrahler nullter Ordnung<br />
2.4 Betriebsverhalten des eingebauten Lautsprechers<br />
3. Kondensatormikrofon<br />
3.1 Aufbau und Ersatzschaltbild<br />
3.2 Betriebsverhalten<br />
4. Richtwirkung<br />
4.1 Richtwirkung durch Interferenz<br />
4.2 Druck- und Druckgradientenempfänger<br />
Anhang: Kleine Schallsender und -empfänger <strong>für</strong> Hörgeräte<br />
1. Einleitung<br />
Grundlage der Elektroakustik sind Komponenten, mit denen (a) Schall aufgrund einer elektrischen<br />
Anregung erzeugt werden kann oder (b) akustische Messgrößen - meist Schalldrücke<br />
- in proportionale elektrische Signale verwandelt werden. In das Fachgebiet der Elektroakustik<br />
gehören auch alle Anwendungen solcher Komponenten zur Schallaufnahme, Speicherung<br />
und Schallwiedergabe. Dies umfasst die Erfassung von Schallfeldern mit vielen gemeinsam<br />
ausgewerteten Mikrofonsignalen (Mikrofon-Arrays) oder etwa Kunstköpfen und die<br />
Schallwiedergabe über Surround-Systeme oder die Beschallung von Räumen mit einer Vielzahl<br />
geeignet angesteuerter Lautsprecher oder. Die Elektroakustik ist daher ein sehr umfangreiches<br />
Fachgebiet.<br />
In diesem Kurs können nur einige Grundlagen besprochen werden. Die Basis der meisten<br />
elektroakustischen Komponenten sind elektromechanische Wandler, die über eine schwingungsfähige<br />
Membran an ein Schallfeld angekoppelt sind. In den meisten Fällen arbeiten die<br />
so entstehenden elektroakustischen Wandler annähernd linear, zeitinvariant und reziprok. Die<br />
Reziprozität beinhaltet, dass die Wandler in beide Richtungen, also als Schallsender und -<br />
empfänger, betrieben werden können, und dass zwischen beiden Betriebsrichtungen wohldefinierte<br />
Beziehungen bestehen. In aller Regel wird ein elektroakustischer Wandler aber<br />
selbstverständlich <strong>für</strong> eine gewünschte Betriebsrichtung entworfen und dimensioniert.<br />
Neben zwei speziellen Wandlern, dem elektrodynamischen Lautsprecher und dem Kondensatormikrofon,<br />
wird die Erzeugung von Richtcharakteristiken betrachtet.<br />
2. Elektrodynamischer Lautsprecher<br />
Zur Realisierung von Lautsprechern wird mit Abstand am häufigsten ein elektrodynamischer<br />
Wandler eingesetzt. Bei einem solchen Wandler bewegt sich eine Spule im Luftspalt<br />
eines Magnetkreises. Neben dem dynamischen Wandlerprinzip gibt es noch ein zweites<br />
Wandlerprinzip, das auf Wirkungen von Magnetfeldern beruht. Dieses "elektromagnetische<br />
Wandlerprinzip", bei dem die stromdurchflossene Spule unbewegt bleibt, wird hier nicht be-<br />
31
sprochen.<br />
2.1 Aufbau und Grundprinzip<br />
In Abb. 2-1 ist ein Schnitt durch einen rotationssymmetrischen dynamischen Lautsprecher<br />
dargestellt. Das Kernstück ist ein Magnetkreis, der einen Permanentmagneten und<br />
Weicheisen zur Führung der magnetischen Feldlinien enthält. Auf diese Weise wird im Luftspalt<br />
eine magnetische Induktion B erzeugt, die eine elektrische Spule der Länge l senkrecht<br />
durchsetzt. Die Grundgleichungen, die den dynamischen Wandler charakterisieren, beschreiben<br />
die Lorentzkraft auf einen stromdurchflossenen Leiter und das Induktionsgesetz.<br />
Abb. 2-1: Schnitt durch einen elektrodynamischen Lautsprecher<br />
Verhindert man eine Bewegung der Schwingspule durch "Festbremsen", so gelten die<br />
aus der Elektrotechnik bekannten Gleichungen. Ein Strom i erzeugt eine proportionale Lorentzkraft<br />
F = i⋅ ( l× B), bzw. F = Bli=<br />
Mi (2-1)<br />
Man überzeuge sich anhand der Abb. 1 und der Vektorbeziehung in Gl. (1), dass die erzeugte<br />
Kraft die Spule tatsächlich in die gewünschte Richtung bewegt.<br />
Die Größe M = Bl charakterisiert die Stärke des Wandlers. Sie wird als Wandlerkonstante<br />
bezeichnet. Die Luftspaltinduktion B und die Leiterlänge l sollten also prinzipiell möglichst<br />
groß sein, wobei große Leiterlängen zu großen Schwingspulenmassen und zu großen<br />
Luftspalten führen, die die Luftspaltinduktion wiederum verkleinern. Man benötigt also vor<br />
allem eine große Luftspaltinduktion B an, so dass die Leiterlänge nicht zu groß gemacht werden<br />
muss. Die erreichbare Größenordnung der Wandlerkonstanten beträgt einige N/A.<br />
Versetzt man nun umgekehrt die Schwingspule durch eine externe Kraft in Bewegung,<br />
so entsteht an den Enden der elektrisch leerlaufenden Spule eine induzierte Spannung<br />
u = l⋅ ( v× B), bzw. u = Blv=<br />
Mv (2-2)<br />
Man überzeuge sich wieder davon, dass die Richtung der beteiligten Vektoren so ist, dass<br />
tatsächlich eine Spannung induziert wird.<br />
2.2 Ersatzschaltbild unter Verwendung der elektromechanischen und elektroakustischen<br />
Analogien<br />
Mit den beiden Gleichungen wird der so genannte "innere Wandler" bereits erfasst. Er<br />
32
enthält das idealisierte Grundprinzip, ohne die bei der Realisierung zwangsläufig auftretenden<br />
elektrischen und mechanischen Zusatzeffekte zu erfassen. Der reale Wandler besitzt darüber<br />
hinaus weitere elektrische und mechanische Eigenschaften: die Spule hat elektrisch gesehen<br />
eine Induktivität und einen Verlustwiderstand; die Schwingspule zusammen mit der<br />
Schall abstrahlenden Membran hat eine Masse und muss federnd aufgehängt werden. Dies<br />
kann durch Hinzufügen einer elektrischen und einer mechanischen Impedanz im Ersatzschaltbild<br />
(Abb. 2-2) approximiert werden.<br />
Abb. 2-2: Ersatzschaltbild eines elektrodynamischen Wandlers. Der Index iw kennzeichnet die Größen<br />
am inneren Wandler. Die Schnelle viw am inneren Wandler ist gleichzeitig die Membranschnelle<br />
vM.<br />
Die zusätzlichen elektrischen Zusatzeigenschaften ergeben sich bei Festbremsung der<br />
Spule. Dann lässt sich eine komplexe elektrische Eingangsimpedanz Zel messen, die näherungsweise<br />
durch die Reihenschaltung eines ohmschen Widerstandes R und einer Induktivität<br />
L beschrieben werden kann.<br />
Z = R+ jωL<br />
(2-3)<br />
el<br />
Auch die zusätzlichen mechanischen Eigenschaften lassen sich mit Netzwerkelementen<br />
beschreiben, da die mechanischen Grundeigenschaften, gegeben durch Masse, Steife und<br />
Reibung zu Gleichungen führen, die zu elektrischen Elementgleichungen analog sind. Hierzu<br />
benötigt man die Beziehungen zwischen Elongation ξ, Schnelle (Schwinggeschwindigkeit) v<br />
und Beschleunigung a:<br />
2<br />
dξdvd ξ<br />
v= , a=<br />
= (2-4)<br />
2<br />
dt dt<br />
dt<br />
bzw. in komplexer Schreibweise<br />
2<br />
v= j ωξ , a= jωv=<br />
− ω ξ<br />
(2-5)<br />
Die gewünschten analogen Beziehungen ergeben sich, wenn man die mechanischen Gesetze<br />
durch Kräfte und Schnellen beschreibt. Aus dem Newtonschen Gesetz F = m a wird<br />
F = ma= jωm⋅<br />
v<br />
(2-6)<br />
Man kann somit eine mechanische Impedanz Zm = F / v definieren, die bei der Masse jω m<br />
beträgt.<br />
Die naheliegende Wahl, dass man bei der elektromechanischen Analogie entsprechend<br />
der Impedanz die Kraft F als Analogon der elektrischen Spannung u und die Schnelle v als<br />
Analogon de Stroms i ansieht, ist zwar möglich, führt aber zu der Schwierigkeit, dass die<br />
Struktur der elektrischen Ersatzschaltung dual zu der mechanischen Struktur ist. Das bedeutet,<br />
dass in Netzwerken Knoten- und Maschengleichungen vertauscht werden, also z. B. Rei-<br />
33
henschaltungen und Parallelschaltungen gegenüber der originalen mechanischen Struktur<br />
vertauscht werden.<br />
Abb. 2-3: Zur Wahl der translatorischen mechanischen Analogiebeziehungen<br />
Abb. 2-3 soll veranschaulichen, dass man die Wahl der Analogiepaare gemäß<br />
F ⇔i, v⇔u<br />
treffen muss, wenn man strukturelle Übereinstimmung zwischen analogen<br />
mechanischen und elektrischen Netzwerken erreichen will. Will man eine Kraft messen, die<br />
auf ein mechanisches System wirkt, so muss man die Verbindung auftrennen und einen<br />
Kraftmesser in den Zweig schalten. Die Kraft entspricht strukturell also einem elektrischen<br />
Strom. Die Schnelle einer schwingen Masse muss relativ zu einem Bezugspunkt gemessen<br />
werden. Dies entspricht einer Spannung zwischen zwei Klemmen, also einem Potenzial mit<br />
Bezug auf eine Bezugsklemme. Die Komplikation dieser Wahl besteht darin, dass nun elektrische<br />
Impedanzen mechanischen Admittanzen und umgekehrt entsprechen, was etwas gewöhnungsbedürftig<br />
ist.<br />
Nach dieser strukturtreuen Wahl der Analogie wird eine Masse nicht durch nach Gl. (2-<br />
6) nahe liegende Induktivität, sondern durch eine Kapazität dargestellt.<br />
Die Elongation einer idealen Feder mit der Steife s ist kraftproportional ( ξ = F / s).<br />
Drückt man dies wieder durch die Schnelle v aus und geht von der Steife zum Kehrwert<br />
"Nachgiebigkeit" n= 1/ s über, so erhält man bei der gewählten Analogie eine mechanische<br />
Induktivität.<br />
1 1<br />
F = ξ = ⋅v (2-7)<br />
n jωn<br />
Schließlich ist mechanische Reibungskraft häufig annähernd der Schnelle proportional,<br />
was auf einen mechanischen Wirkwiderstand w führt.<br />
F = w⋅ v<br />
(2-8)<br />
Im Fall der Schwingspule ist die Schnelle bzw. Auslenkung <strong>für</strong> die beteiligten Elemente<br />
Masse, Nachgiebigkeit und Reibung identisch. Die Gesamtkraft in Abb. 2 ist somit<br />
⎛ 1 ⎞<br />
F = Fiw = ⎜w+ jωm+<br />
⎟⋅<br />
v= ZmechvM (2-9)<br />
⎝ jωm<br />
⎠<br />
Danach ist die mechanische Gesamtimpedanz die Summe aller Teilimpedanzen. Dies<br />
bestätigt die genannte Dualität zwischen elektrischen und mechanischen Netzwerken: bei<br />
mechanischen Netzwerken sind bei Parallelschaltung die Teilimpedanzen zu addieren!<br />
Die drei Grundelemente der strukturtreuen elektromechanischen Analogie sind in der<br />
folgenden Abbildung zusammen gefasst.<br />
34
Abb. 2-4: Masse, Feder und Reibungswiderstand und ihre Entsprechungen gemäß der strukturtreuen<br />
mechanischen Analogie<br />
Aus der Wahl der strukturtreuen Analogie folgt, dass die Grundgleichungen des inneren<br />
Wandlers einem elektrischen Übertrager entsprechen, der die Gln. (2-2) repräsentiert. Dieser<br />
wurde bereits in Abb. 2-2 verwendet.<br />
Strahlt der dynamische Wandler Schall ab, so addiert sich noch eine der akustischen Belastung<br />
entsprechende Impedanz zu Zmech. Um im Ersatzschaltbild nach Abb. 2 auch die akustische<br />
Last zu berücksichtigen, muss man die akustische Impedanz Zak = p/ q auf die mechanische<br />
Seite transformieren. Die akustische Impedanz ist definiert als Verhältnis von<br />
Schalldruck p zu Schallfluss q. Die Umrechnung der akustischen Größen in mechanische ergibt<br />
sich aus der wirksamen Membranfläche A gemäß<br />
F = pA, v= q/ A<br />
(2-10)<br />
Da man bei der akustischen Analogie sinnvollerweise die struktur- und impedanztreuen<br />
p ⇔ u und ( q i benutzt, während ja mechanisch die Paare v⇔u Analogiepaare ( )<br />
(F ⇔ i)<br />
⇔ )<br />
( )<br />
und angewandt wurden, stellt sich das verkoppelnde Element nicht als Übertrager,<br />
sondern als Gyrator heraus. Formal muss man also das Ersatzschaltbild nach Abb. 2-2 wie<br />
folgt ergänzen (Abb. 2-5).<br />
Abb. 2-5: Vollständiges Ersatzschaltbild des dynamischen Wandlers inklusive einer akustischen Belastung<br />
Zrad (Abstrahlimpedanz, radiation impedance).<br />
Die ins Mechanische umgerechnete akustische Belastung lässt sich einfach angeben<br />
Frad prad A 2<br />
Zmrad , = = = AZrad<br />
(2-11)<br />
v q / A<br />
M rad<br />
35
Die gesamte wirksame mechanische Impedanz, die den Wandler belastet, ist also<br />
Z = Z + Z = Z + A Z , (2-12)<br />
2<br />
mech, ges mech m, rad mech rad<br />
wobei Zak die so genannte Abstrahlimpedanz des Lautsprechers ist. Allerdings spielt die<br />
akustische Lastimpedanz bei Lautsprechern hinsichtlich der Wandlerbelastung meist keine<br />
wesentliche Rolle. Sie nimmt jedoch einen erheblichen Einfluss auf den abgestrahlten Schall.<br />
Um das Betriebsverhalten eines elektrodynamischen Lautsprechers untersuchen zu können,<br />
benötigt man zunächst eine Abschätzung der wirksamen Abstrahlimpedanz.<br />
2.3 Schallabstrahlung, Kugelstrahler nullter Ordnung<br />
Die Abstrahlimpedanz eines Lautsprechers nach Abb. 2-1 hängt in komplizierter Weise<br />
von den geometrischen Details der Anordnung ab. Für den nicht eingebauten Lautsprecher<br />
müsste man berücksichtigen, dass Schall auf Vorder- und Rückseite der Membran abgestrahlt<br />
wird; man müsste also zumindest zwei getrennte Abstrahlimpedanzen annehmen. Eine einfache<br />
Abschätzung ergibt sich nur, wenn der Lautsprecher in eine Box eingebaut wird. Die<br />
rückwärtige Schallabstrahlung wird dadurch unterbunden. Damit erhält man ein einseitig<br />
Schall abstrahlendes Element. Solche Elemente arbeiten bei niedrigen Frequenzen fast wie<br />
ein Kugelstrahler, der Schall völlig gleichmäßig in alle Richtungen abstrahlt. Die Entstehung<br />
angenäherter Kugelwellen ergibt sich aus den Grundgleichungen der linearen Akustik bzw.<br />
aus dem Huygens-Fresnelschen Prinzip. In idealisierter Form entspricht danach der eingebaute<br />
Lautsprecher bei niedrigen Frequenzen einem Kugelstrahler nullter Ordnung, den man sich<br />
als eine "atmende Kugel" vorstellen kann.<br />
Für diese Idealisierung erhält man bei Abstrahlung ins freie Schallfeld einen mit dem<br />
Abstand r gemäß<br />
p<br />
pr () e<br />
r<br />
+ − jβ0r<br />
= . (2-13)<br />
abklingenden Schalldruck. In der Gleichung bedeutet p+ eine zur Amplitude der abgestrahlten<br />
Schalldruckwelle proportionale Konstante und β0 die Wellenzahl, <strong>für</strong> die folgende Zusammenhänge<br />
mit Wellenlänge λ, Schallgeschwindigkeit c, Frequenz f und Kreisfrequenz ω gelten<br />
2π2π f<br />
β0<br />
= = =<br />
λ c c<br />
ω . (2-14)<br />
Die Schallschnelle ergibt sich nach der akustischen Eulergleichung gemäß ( ρ = bezeichnet<br />
die Ruhedichte der Luft)<br />
1 ∂p<br />
p 1 jβ<br />
v r =− =− − −<br />
(2-15)<br />
+<br />
−jβ0r 0 −jβ0r<br />
() ( e e )<br />
2<br />
jωρ= ∂r<br />
jωρ=<br />
r r<br />
Um auf akustische Impedanzen überzugehen, benötigt man den zugehörigen Schallfluss<br />
2<br />
an der Kugeloberfläche, der sich durch Multiplikation mit der Kugeloberfläche Ar ( ) = 4πr<br />
⎡ 1 1 ⎤ − jβ00<br />
r p ⎡ 1 1 ⎤<br />
+<br />
qr ( 0) = Ar ( 0) vr( r0) = Ar ( 0) p+ ⎢ + e Ar ( 2 ⎥ = 0)<br />
⎢ + ⎥<br />
⎣r0⋅ρ= c jωρ= r0 ⎦ r0 ⎣ρ= c jωρ=<br />
r0⎦<br />
0 0<br />
(2-16)<br />
Damit erhält man <strong>für</strong> die akustische Impedanz an der Kugeloberfläche, also die Abstrahlimpedanz<br />
der Kugel<br />
36
Z ( r )<br />
rad<br />
0<br />
pr ( ) 1 ρ c 1 ρ c 1<br />
( ) ( ) ( )<br />
+<br />
ρ c jωρ<br />
r<br />
( )<br />
1+ jωr ( ) 1<br />
1+<br />
jβr<br />
0<br />
= =<br />
= = = =<br />
qr Ar 0 0 Ar0 Ar c<br />
0<br />
Ar0<br />
= = 0<br />
0 0 0<br />
. (2-17)<br />
Um dieses Ergebnis zu interpretieren, benötigen wir die Elemente der elektroakustischen<br />
Analogie. Die sind in Abb. 2-6 dargestellt.<br />
Abb. 2-6: Elektroakustische Analogie: Ein abgeschlossenes Volumen bewirkt eine Nachgiebigkeit, die<br />
einem elektrischen Kondensator entspricht. Die akustische Masse in einem (engen) Röhrchen entspricht<br />
einer Induktivität, ein absorbierendes Element kann im einfachsten Fall durch einen Widerstand<br />
gekennzeichnet werden.<br />
Abb. 2-7: Abstrahlimpedanz eines Kugelstrahlers nullter Ordnung.<br />
Die Impedanz nach Gl. (2-17) lässt sich somit als Parallelschaltung einer Masse (Induktivität)<br />
und eines Widerstandes (akustische Feldimpedanz des freien Schallfeldes) interpretieren.<br />
Bei niedrigen Frequenzen "schließt die Induktivität den Widerstand fast kurz". Die Abstrahlimpedanz<br />
ist dann fast nur durch die mitschwingende akustische Masse mak (Induktivität)<br />
mit der akustischen Impedanz j ak m ω gegeben.<br />
37
2.4 Betriebsverhalten des eingebauten Lautsprechers<br />
Nun liegen alle Elemente vor, um das Betriebsverhalten des Lautsprechers berechnen zu<br />
können. Um von der elektrischen Spulenimpedanz unabhängig zu werden, betrachten wir den<br />
Fall einer Stromspeisung des Lautsprechers. Der von einem Spulenstrom i hervorgerufene<br />
Schalldruck p lässt sich aus dem Ersatzschaltbild nach Abb. 2-5 leicht berechnen.<br />
Z AF BlAZ BlAZ<br />
p = Zradq= Zrad Av= = ⋅i≈ ⋅ i.<br />
(2-18)<br />
Z A Z Z A Z Z<br />
rad i rad rad<br />
mech +<br />
2<br />
rad mech +<br />
2<br />
rad mech<br />
Dies ist der tatsächlich vor der Membran auftretende Druck. Offenbar ist es günstig, die<br />
Wandlerkonstante M = Bl und die abstrahlende Fläche A groß zu wählen.<br />
Meist interessiert man sich nicht <strong>für</strong> den unmittelbar an der Membran auftretenden<br />
Schalldruck, sondern <strong>für</strong> die ins Fernfeld abgestrahlte Leistung bzw. den dort auftretenden<br />
Schalldruck. Dazu muss man die akustische Wirkleistung betrachten. Für diese ist nicht die<br />
gesamte Abstrahlimpedanz, sondern nur ihr Realteil verantwortlich.<br />
1 1 ⎧⎪ ρ c A() r ⎫⎪<br />
1 ρ c 1<br />
P= q { Z } = q = q ⋅<br />
2 2 ⎩ 1 1 j ⎭ 2 ( ) 1 1<br />
2 2 = 2 =<br />
Re rad Re ⎨ ⎬<br />
⎪ 0 ⎪<br />
0<br />
[ + β r] A r + ( β r)<br />
2<br />
(2-19)<br />
Bei niedrigen Frequenzen ist die abgestrahlte Wirkleistung nur sehr gering. Aus Gl. (2-<br />
19) ergibt sich die Näherung<br />
1 c 1<br />
P q ( r) q<br />
2 ( ) 2 4<br />
2<br />
ρ ρ=<br />
≈ ⋅ =<br />
A r πc<br />
2 =<br />
2 2<br />
β0 ω<br />
.<br />
(2-20)<br />
Die Schallabstrahlung ist also bei niedrigen Frequenzen sehr schlecht. Die abgestrahlte<br />
Wirkleistung steigt proportional mit dem Quadrat der Frequenz. Die schlechte Schallabstrahlung<br />
bei niedrigen Frequenzen lässt sich physikalisch so interpretieren, dass hier vor allem<br />
nur eine akustische Masse ohne Transport von Wirkleistung hin und her bewegt wird. Die<br />
Abstrahlimpedanz ist fast rein imaginär. Erst mit wachsender Frequenz wird auch der Realteil<br />
größer. Trotz eines hohen Schalldrucks vor der Membran kommt niederfrequent kaum<br />
Schallabstrahlung zustande.<br />
Offenbar besteht die einzige Möglichkeit, die Schallabstrahlung zu vergrößern, darin,<br />
den erzeugenden Schallfluss q so groß wie möglich zu machen. Das bedeutet: man braucht<br />
große Membranflächen und große Auslenkungen der Membranen, um niedrige Frequenzen<br />
abzustrahlen ("Tieftöner").<br />
Für das Fernfeld wird nur der Teil des Membrandrucks wirksam der mit der Membranschnelle<br />
in Phase ist. Dies lässt sich über den Realteil der Abstrahlimpedanz ausdrücken. Der<br />
im Fernfeld wirksame Anteil des Membranschalldrucks ist demnach<br />
M, Fern rad rad<br />
mech, ges<br />
2<br />
( ρ 4πc)<br />
⋅ω<br />
ω 1/ ( ω )<br />
Bli<br />
p = q⋅ Re{ Z } = A Re{<br />
Z } ≈ BlA i<br />
Z w+ j m+ j n<br />
(2-21)<br />
Bei sehr niedrigen Frequenzen steigt dieser Druckanteil mit der dritten Potenz der Frequenz,<br />
oberhalb der mechanischen Resonanz des Lautsprechers linear mit der Frequenz. Unterhalb<br />
der mechanischen Resonanz ist die Schallabstrahlung also denkbar schlecht. Der<br />
Lautsprecher muss also so tief abgestimmt werden, dass der gewünschte Frequenzbereich<br />
oberhalb der Resonanzfrequenz liegt. Dies bedeutet eine relativ weiche Lagerung der Membran,<br />
da die Resonanzfrequenz gemäß<br />
f<br />
0<br />
1<br />
=<br />
2π<br />
⋅ m⋅n 38<br />
(2-22)
von der Nachgiebigkeit abhängt. Die Masse wird man nicht unnötig groß machen, da dies die<br />
Schallabstrahlung bei hohen Frequenzen verschlechtern würde.<br />
Die Zusammenhänge werden in Abb. 2-8 veranschaulicht. Die Schnelle der Membran<br />
folgt der mechanischen Admittanz. Der massebestimmte Abfall proportional 1/ω oberhalb<br />
der Resonanz führt wegen des Anstiegs des Realteils der Abstrahlimpedanz mit ω 2 zu einem<br />
ansteigenden Druckanteil <strong>für</strong> das Fernfeld. Erst wenn die Abstrahlimpedanz allmählich zunehmend<br />
reell wird, fällt der Druck. Man beachte die große Differenz zwischen dem tatsächlich<br />
vor der Membran auftretenden Druck und dem Fernfeldanteil. Ferner erkennt man, dass<br />
die abgestrahlte Schallleistung im mittleren Frequenzbereich in etwa frequenzunabhängig ist.<br />
Abb. 2-8: Schallabstrahlung beim elektrodynamischen Lautsprecher bei frequenzunabhängigem Speisestrom.<br />
Die schlechte Schallabstrahlung bei niedrigen Frequenzen kann durch verschiedene<br />
Maßnahmen verbessert werden. Hier sind neben den bereits genannten großen Membranschallflüssen<br />
vor allem eine tiefe mechanische Resonanzabstimmung und Bassreflexöffnungen<br />
zu nennen, bei denen der rückwärtige Schallanteil der Membran durch geeignete Phasendrehung<br />
zu einer Schallverstärkung genutzt werden kann.<br />
Strahlt der Schallsender nicht in den freien Raum, sondern z. B. direkt in den Gehörgang,<br />
so wird er durch eine völlig andere Impedanz als ein Kugelstrahler nullter Ordung belastet.<br />
Ein Kopfhörer oder ein Hörgeräte-Wandler arbeitet auf ein mehr oder minder geschlossenes<br />
Volumen. Dies hat den positiven Effekt, dass die Schallabstrahlung bei den tiefen Frequenzen<br />
kein großes Problem ist. In einem kleinen Volumen lassen sich mit geringen Flüssen bereits<br />
große Schalldrücke erzeugen. Ein Volumen V ist im Rahmen der elektroakustischen Analogie<br />
(Abb. 2-6) durch eine Nachgiebigkeit nak (Kondensator) gegeben, der entsprechend<br />
der Gleichung<br />
q<br />
p= , nak<br />
= 2<br />
jωn<br />
ρ = c<br />
V (2-23)<br />
ak<br />
bei geringen Volumina und niedrigen Frequenzen hohe Schalldrücke erzeugt.<br />
39
3. Kondensatormikrofon<br />
3.1 Aufbau und Ersatzschaltbild<br />
Bei dielektrischen Wandlern wird die Änderung eines elektrischen Feldes ausgenutzt.<br />
Das elektrische Feld befindet sich in einem Dielektrikum zwischen zwei metallisch leitenden<br />
Elektroden. Es wird also ein elektrischer Kondensator wirksam. Wie später gezeigt wird, ist<br />
das dielektrische Wandlerprinzip grundsätzlich nichtlinear. Man benötigt daher eine Linearisierung<br />
<strong>für</strong> kleine Signale um einen einzustellenden Arbeitspunkt herum. Die Spannung am<br />
Kondenstor muss also einen Gleichanteil enthalten, der viel größer als die Signalspannung<br />
ist. Den Gleichanteil nennt man Polarisationsspannung. Die Polarisationsspannung kann extern<br />
durch eine geeignete Gleichspannungsquelle erzeugt werden. Alternativ kann man Elektretfolien<br />
verwenden, die vorpolarisiert wurden. Die Polarisationsspannung ist dann sozusagen<br />
"bereits eingebaut".<br />
Die Wandlerkonstante N des dielektrischen Mikrofons erhält man durch Berechnung der<br />
Kraft im Kondensator. Diese wiederum erhält man am einfachsten aus der gespeicherten Energie<br />
1 1 Q<br />
W Cu<br />
2 2 C<br />
2<br />
=<br />
2<br />
= . (3-1)<br />
Im leerlaufenden Kondensator (keine Änderung der Ladung) mit einem Dielektrikum der<br />
Dielektrizitätszahl ε entsteht aufgrund der elektrischen Feldstärke eine Kraft F, die vom Plattenabstand<br />
x abhängt.<br />
2 2 2 2<br />
dW d 1 Q Q d x Q C0 2 C0<br />
F( x) u u<br />
d d 2 ( ) 2 d 2 2 2<br />
2<br />
⎧ ⎫ ⎧ ⎫<br />
= = ⎨ ⎬= ⎨ ⎬=<br />
≈ =<br />
x x⎩ C x ⎭ x⎩εA⎭ εA εA<br />
x<br />
(3-2)<br />
Der Zusammenhang zwischen Spannung und Kraft ist offenbar nicht linear, sondern<br />
quadratisch, annähernd gültig <strong>für</strong> den Kondensator C0 in Ruheposition der Platten ( x = d ).<br />
Für eine Spannung mit Gleichanteil U P (Polarisationsspannung) wird daraus<br />
( ) 2<br />
C0 2 C0 C0 CU 0 P<br />
F = u = ⋅ UP + u~ ⇒ F~ ≈ ⋅ 2UPu~<br />
= u~ = Nu<br />
~<br />
(3-3)<br />
2d 2d 2d<br />
d<br />
Mit der Polarisationsspannung U P kann der Arbeitspunkt gut eingestellt werden. Die<br />
Wandlerkonstante des linearisierten inneren Wandlers ist<br />
N<br />
CU<br />
d<br />
0 P = . (3-4)<br />
Für den verlust- und speicherfreien inneren Wandler ist das Verhältnis von Kraft zu<br />
Spannung mit dem von Strom zu Schnelle identisch. Zusammengefasst gilt also <strong>für</strong> den inneren<br />
dielektrischen Wandler<br />
CU 0 P<br />
F = Nu, v= i/ N , mit N = . (3-5)<br />
d<br />
Der Begriff "Kondensatormikrofon" ist eigentlich mit dem Begriff "dielektrisches Mikrofon"<br />
identisch. Man spricht jedoch meist nur dann von Kondensatormikrofonen, wenn<br />
hochwertige Mikrofone gemeint sind. Messmikrofone werden aus Gründen der Langzeitstabilität<br />
vorwiegend mit externer Polarisationsspannung, jedoch auch mit Elektretfolie hergestellt.<br />
Im letzteren Fall wird die Elektretfolie ausschließlich auf die feste Gegenelektrode geklebt<br />
("Rückplatten-Elektretmikrofone"). Hochwertige Studiomikrofone sind häufig als Elektretmikrofone<br />
ausgeführt. Dielektrische Mess- und Studiomikrofone zeichnen sich vor<br />
40
allem durch ihren extrem glatten Frequenzgang aus. Diese ergibt sich - wie im Verlauf dieses<br />
Abschnitts deutlich werden wird - aus der typischerweise sehr geringen Membranmasse, wodurch<br />
Trägheitseffekte erst bei sehr hohen Frequenzen relevant werden. Der glatte Frequenzgang<br />
ist auch der Grund <strong>für</strong> die Herstellung von besonders hochwertigen dielektrischen<br />
Kopfhörern.<br />
Unter dem Begriff "Elektretmikrofone" werden meist kleine, wenig aufwändig hergestellte,<br />
relativ billige Mikrofone verstanden. Derartige Mikrofone kosten inklusive des integrierten<br />
Impedanzwandlers ca. 100 €. Hochwertige Kondensatormikrofon-Kapseln kosten dagegen<br />
500-1500 €, hinzu kommt der Mikrofonvorverstärker und ein Mikrofonspeisegerät, das<br />
die Betriebsspannung <strong>für</strong> den Vorverstärker und evtl. die Polarisationsspannung liefert. Elektretmikrofone<br />
werden als Industriemikrofone, aber auch als Labormikrofone vielfach verwendet,<br />
wenn die Anforderungen an die Qualität (Glätte des Frequenzgangs, Unempfindlichkeit<br />
gegenüber Umwelteinflüssen wie Temperatur und Luftfeuchtigkeit, Langzeitstabilität,<br />
Klirrfaktor, etc.) nicht sehr hoch sind. Bei geeigneter Betriebsweise und mit sorgfältiger Kalibrierung<br />
lassen sich mit den Billig-Mikrofonen durchaus sehr genaue Messungen durchführen.<br />
Da Elektretmikrofone sich gut miniaturisieren lassen, werden sie auch in Hörgeräten<br />
verwendet.<br />
Kondensatormikrofone kann man auch in der so genannten Hochfrequenzschaltung<br />
betreiben. Dabei bildet die Kondensatormikrofon-Kapsel den Kondensator eines Schwingkreises.<br />
Man wertet bei dieser Betriebsart die Amplitudenschwankungen eines hochfrequenten<br />
Trägers durch die Kapazitätsänderungen aus. Die Hochfrequenzschaltung hat insbesondere<br />
dann Vorteile, wenn man sehr niederfrequente Schallsignale erfassen will oder auch unter<br />
Bedingungen, bei denen elektrische Störungen eine Rolle spielen. Diese können durch die<br />
Trägerfrequenztechnik weitgehend ausgefiltert werden. Hier wird aber nur die wesentlich<br />
häufiger verwendete NF-Schaltung besprochen. Eine typische Kapselausführung zeigt die<br />
nächste Abbildung.<br />
Die Membran bildet eine der beiden Elektroden (Abb. 3-1). Sie muss also metallisch und<br />
sehr dünn sein. Als Dielektrikum dient die Luft im Raum zwischen den beiden Elektroden.<br />
Der Abstand muss sehr schmal sein, um eine hinreichend große Kapazität C0 zu erhalten, er<br />
beträgt z.B. 20 μm. Damit das Kondensatormikrofon linear arbeitet, muss neben dem Vorhandensein<br />
einer Polarisationsspannung sichergestellt sein, dass die Membranauslenkungen<br />
nicht in die Größenordnung des Abstands kommen, sie sind also auf etwa 1 μm begrenzt.<br />
Dieser Wert entspricht dem Maximalpegel. Bei einer typischen Dynamik von etwa 120 dB<br />
und mehr liegt also die Auslenkung an der unteren Messgrenze bei 1 pm!<br />
Abb. 3-1: Aufbau einer Kondensatormikrofon-Kapsel<br />
Die Druckausgleichsöffnung dient dem statischen Druckausgleich. Ohne sie würden<br />
Schwankungen des statischen Drucks zu einer Vorspannung der Membran und damit zu einer<br />
Reduzierung der Empfindlichkeit führen. Allerdings wirkt sich die Druckausgleichsöffnung<br />
auch auf sehr niederfrequenten Schall aus. Die Öffnung wird daher äußerst klein gemacht,<br />
41
um nicht ungewollt ein Druckgradienten-Mikrofon zu bauen. Sie bewirkt eine untere Grenzfrequenz<br />
des Mikrofons, die man meist etwas unter die elektrische Grenzfrequenz legt, die<br />
durch die elektrischen Eigenschaften der Mikrofonkapsel und des Vorverstärkers bestimmt<br />
wird.<br />
3.2 Betriebsverhalten<br />
Abb. 3-2: Verschaltete Mikrofonkapsel (Ersatzschaltbild)<br />
Die elektrische Verschaltung der Mikrofonkapsel inklusive der unvermeidlichen Ersatzelemente<br />
zeigt Abb. 3-2. Die maßgebliche Kapazität Ct () = C0+Δ Ct () liegt in der Größenordung<br />
von mehreren pF. Sie ist also extrem klein, so dass der Anschluss eines Kabels die<br />
Kapazität stark verändert. Daher ist es notwendig, einen Impedanzwandler unmittelbar hinter<br />
die Kapsel zu schalten. Dieser drückt sich im Ersatzschaltbild als Eingangsimpedanz des<br />
Vorverstärkers aus (CV, RV). Eine unerwünschte Streukapazität Cs, die zwar kleiner als C(t)<br />
ist, aber durchaus die Größenordnung von einem pF erreicht, ist unvermeidlich.<br />
16<br />
Der Isolationswiderstand R0 kann mit großem Aufwand auf etwa 10 Ω gebracht werden.<br />
Der Vorwiderstand RP<br />
der Polarisationsspannungsquelle und der Eingangswiderstand<br />
des Verstärkers liegen typischerweise im GΩ-Bereich. Die Polarisationsspannung UP weist in<br />
der Regel Werte zwischen 30 und 500 V auf.<br />
Der Kondensator CK ist eine "Koppelkapazität", die der Auskopplung der Polarisationsspannung<br />
dient. Die gewünschte Ausgangsspannung ist ja nur die gegenüber der Polarisationsspannung<br />
UP äußerst kleine Wechselspannung u~ (gute Linearisierung). Die Koppelkapazität<br />
kann so groß gewählt werden, dass sie nicht stört (sinnvolle untere Grenzfrequenz).<br />
Die Kapselkapazität ändert sich mit der Auslenkung gemäß<br />
εA εA 1 ⎛ ξ(<br />
t)⎞<br />
Ct () = = ≈C0⎜1− ⎟<br />
d + ξ() t d 1 + ξ()/<br />
t d ⎝ d ⎠<br />
(3-6)<br />
wobei die Näherung <strong>für</strong> hinreichend kleine Auslenkungen gilt. Eine Analyse des Ersatzschaltbildes<br />
nach Abb. 3-2 ergibt <strong>für</strong> die Ausgangsspannung bei harmonischer Anregung,<br />
genähert <strong>für</strong> kleine Kapazitätsänderungen<br />
R0<br />
ξ<br />
jωC0U ξ<br />
P<br />
jωCU<br />
R 0<br />
0 + R P<br />
P d d jωNξ<br />
u ≈ ≈ = (3-7)<br />
1 1 1 1 1<br />
+ + + j ω( C + C + C ) + jωC + jωC<br />
0 s V<br />
R0RP RV R R<br />
mit den Abkürzungen R R0 RP RV<br />
= und C C0CsCV = + + . Offensichtlich tritt durch alle<br />
elektrischen Elemente zusammen eine untere Grenzfrequenz fu = 12πRC<br />
auf.<br />
Man legt die elektrische Grenzfrequenz des Mikrofons natürlich so tief wie möglich (R<br />
möglichst groß). Oberhalb dieser Grenzfrequenz gilt<br />
jωNξ<br />
N UC P 0 ξ<br />
u ≈ = ξ =<br />
j ωC<br />
C ( C + C + C ) d<br />
0<br />
s V<br />
42<br />
(3-8)
Das Mikrofon arbeit dann als Elongationswandler (u ξ ). Die Gleichung zeigt ferner,<br />
dass die Streukapazität und die Kapazität des Vorverstärkers die Empfindlichkeit reduzieren.<br />
Man darf also nicht etwa die Grenzfrequenz durch Vergrößerung von CV absenken, sondern<br />
durch großes R (der niedrigste Teilwiderstand ist maßgeblich!). Wenn man bei sehr niedrigen<br />
Frequenzen im Infraschallbereich messen muss, benötigt man Mikrofone in Hochfrequenzschaltung.<br />
Damit können sogar statische Auslenkungen gemessen werden.<br />
Gl. 3-7 lässt sich auf der elektrischen Seite des inneren Wandlers als Beschaltung mit einer<br />
Parallelschaltung aus R und C deuten. Insgesamt ergibt sich damit folgendes Ersatzschaltbild<br />
des Kondensatormikrofons.<br />
Abb. 3-3: Ersatzschaltung eines dielektrischen Mikrofons. Rechts: Vereinfachung <strong>für</strong> den Fall einer<br />
bereits bekannten Schnelle-Anregung.<br />
Abb. 3-4: Kondensatormikrofon-Kapseln mit Vorverstärker.<br />
Wie bereits gesagt, muss der Vorverstärker (als Impedanzwandler) direkt hinter die Mikrofonkapsel<br />
geschaltet werden. Ein längeres Anschlusskabel würde durch seine parallel geschaltete<br />
Kapazität die Empfindlichkeit des Mikrofons nach Gl. 3-8 stark herabsetzen. Ferner<br />
würden Störfelder aufgrund des hohen Impedanzniveaus leicht in den Vorverstärker eindringen<br />
können. Die Verbindung vom Mikrofon zum Vorverstärker wird daher stets gut gekapselt<br />
und abgeschirmt ausgeführt. Die Baugröße des Mikrofons wird meist im Wesentlichen<br />
durch den Vorverstärker (mit Heizung zur Vermeidung des Temperatureinflusses) bestimmt<br />
(Abb. 3-4).<br />
Aus dem Ersatzschaltbild liest man <strong>für</strong> elektrischen Leerlauf ab<br />
N⋅Z A⋅N⋅Z u = Zel ⋅ ii= Zel ⋅N⋅ vi= ⋅ F = ⋅ p.<br />
(3-9)<br />
2<br />
Z N Z Z N Z<br />
el el<br />
mech +<br />
2<br />
⋅ el mech + ⋅ el<br />
2<br />
Bei realen Ausführungen ist im Nenner die transformierte elektrische Impedanz N ⋅ Zel<br />
gegenüber<br />
der mechanischen Impedanz vernachlässigbar. Dann lässt sich die Gleichung oberhalb<br />
der elektrischen Grenzfrequenz schreiben<br />
43
( ω )<br />
( )<br />
A⋅N⋅ 1j C A⋅N⋅n/ C<br />
1<br />
u = ⋅ p= ⋅ p mit f =<br />
w+ m+ n + nw− f f mn<br />
2<br />
0<br />
jω 1 jω 1 j ω ( / 0)<br />
2π<br />
(3-10)<br />
Diese Gleichung zeigt, dass man mit Hochabstimmung, also mit einer Resonanzfrequenz<br />
f 0 oberhalb des gewünschten Frequenzbereichs einen äußerst glatten Frequenzgang erreichen<br />
kann. Da auch der Reibungswiderstand w problemlos gering gehalten werden kann, ist die<br />
elektrische Spannung u im Messfrequenzbereich nur durch den konstanten Zähler bestimmt.<br />
Die Hochabstimmung liegt wegen der geringen Membranmasse von Kondensatormikrofonen<br />
konstruktiv ohnehin nahe. Die zu einer Hochabstimmung notwendige steife Membraneinspannung<br />
(geringe Nachgiebigkeit n) steht allerdings im Widerspruch zu einer hohen Empfindlichkeit<br />
(Abb. 3-5).<br />
Abb. 3-5: Frequenzgänge eines Kondensatormikrofons mit veränderlicher Steife der Membran. Eine<br />
Erniedrigung der Membransteife erhöht zwar die Mikrofonempfindlichkeit, jedoch wird die mechanische<br />
Resonanzfrequenz herabgesetzt. Bei den drei gezeigten Verläufen liegt jeweils ein Faktor 10 zwischen<br />
den Membransteifen. Die angenommene Güte der mechanischen Resonanz beträgt 50.<br />
Die Umwandlung eines Schalldrucks in eine proportionale elektrische Spannung ist offenbar<br />
mit einem Kondensatormikrofon nahezu ideal realisierbar. Größere Fehler treten jedoch<br />
durch die Rückwirkung des Mikrofons auf das Schallfeld auf. Das Mikrofon bewirkt<br />
durch seine Anwesenheit Beugungs- und Streuungseffekte, die wesentlich von der Baugröße<br />
abhängen.<br />
Bei Messungen im freien Schallfeld bzw. in einem reflexionsarmen Raum, bei denen der<br />
Schall von nur einer Schallquelle auf das Mikrofon gelangt, kann man daher eine deutliche<br />
Richtungsabhängigkeit des resultierenden Frequenzgangs beobachten (Abb. 3-6). Bei dem<br />
betrachteten Mikrofon handelt es sich um ein so genanntes "Druckmikrofon", weil es eine<br />
druckproportionale Ausgangsspannung mit flachem Frequenzgang liefert. Bei Schalleinfall<br />
von vorne in der Mittelachse der Mikrofonmembran entsteht ein deutlicher Druckstau-Effekt<br />
bis zu etwa 12 dB. Dies ist weit mehr als der Druckstau vor einer schallharten Wand (Druckverdopplung<br />
entspricht 6 dB).<br />
44
Abb. 3-6: Frequenzgänge eines "Druckmikrofons" <strong>für</strong> verschiedene Schalleinfallsrichtungen. (Verhältnis<br />
zwischen dem Schalldruck an der Mikrofonmembran und dem Druck, der an der gleichen Stelle<br />
ohne Vorhandensein des Mikrofons auftreten würde.)<br />
Neben den "Druckmikrofonen" werden auch "Freifeld-Mikrofone" angeboten, deren<br />
Empfindlichkeit bei hohen Frequenzen durch akustomechanische Maßnahmen so abgesenkt<br />
wird, dass der durch Beugung und Streuung hervorgerufene Anstieg möglichst gut kompensiert<br />
wird. Dies lässt sich selbstverständlich nur <strong>für</strong> eine Richtung, nämlich <strong>für</strong> frontalen<br />
Schalleinfall realisieren. Freifeld-Mikrofone werden hauptsächlich <strong>für</strong> Messungen im freien<br />
Schallfeld (z. B. im reflexionsarmen Raum) eingesetzt, wenn man eindeutig eine Schallausbreitungsrichtung<br />
definieren kann. Natürlich muss man darauf achten, dass das Mikrofon tatsächlich<br />
in Richtung der Ausbreitung ausgerichtet wird. Wie Abb. 3-6 weiterhin zu entnehmen<br />
ist, sind die Frequenzgang-Abweichungen bei diffusem Schalleinfall relativ gering. Man<br />
wird also bei Messungen in diffusen Schallfeldern (z. B. im Hallraum) auch Druck-<br />
Mikrofone verwenden.<br />
4. Richtwirkung<br />
4.1 Richtwirkung durch Interferenz<br />
Als einfachsten Fall betrachten wir Wandler, die entlang einer Linie angebracht sind. Bei<br />
Schallsendern bedeutet das eine Lautsprecherzeile, bei Empfängern ein entlang einer Linie<br />
angeordnetes Mikrofonarray. Im Folgenden wird die Richtwirkung anhand einer kontinuierlichen<br />
Belegung der Linie mit Schallstrahlern betrachtet. Aus der Reziprozität akustischer Systeme<br />
lässt sich folgern, dass die Richtcharakteristik einer Anordnung erhalten bleibt wenn<br />
man zwischen Sende- und Empfangsbetrieb wechselt. Die hier zunächst <strong>für</strong> den Sendebetrieb<br />
erhaltenen Richtcharakteristiken gelten also genauso <strong>für</strong> den Schallempfang.<br />
Die Belegung der Linie mit Schallstrahlern beschreibt man am besten durch Punktstrahler<br />
mit gegebenen Quellschallflüssen, die man auch als Ergiebigkeit der Strahler bezeichnet.<br />
Durch Reduzierung des Kugelstrahlers nullter Ordnung auf einen Punkt erhält man aus der<br />
hier wiederholten Gleichung <strong>für</strong> den Kugelstrahler nullter Ordnung<br />
45
p<br />
pr () e<br />
r<br />
+ − jβ0r<br />
= . (2-13)<br />
den Schalldruckverlauf <strong>für</strong> einen Punktstrahler nullter Ordnung mit der Ergiebigkeit q0.<br />
jωρ<br />
q<br />
pr () e<br />
4π<br />
r<br />
= 0 − jβ0r<br />
= . (4-1)<br />
Abb. 4-1: Zur Interferenz beim Linienstrahler in einem weit entfernten Aufpunkt. Der Linienstrahler<br />
hat die Gesamtlänge L und besitzt einen längenbezogenen Ergiebigkeitsbelag q0( ′ x)<br />
. Der Ausdruck<br />
x cosθ<br />
bezeichnet die ortsabhängige Abweichung der Weglänge von der mittleren Weglänge.<br />
Betrachtet man nun eine Linienstrahler endlicher Länge L, der einen längenbezogenen ,<br />
i. A. ortsabhängigen Ergiebigkeitsbelag q0( ′ x)<br />
besitzt, so kann man an einem weit entfernten<br />
Aufpunkt durch Integration die Beiträge aller differentiell kleinen Punktstrahler überlagern<br />
("Huygens-Fresnelsches Prinzip").<br />
L/2 −j 0( r0−xcos ) L/2<br />
j 0xcos<br />
jωρ= e jωρ= − jβ<br />
e<br />
00 r<br />
0 = ′ 0 =<br />
′ 0<br />
r - L/2 0 −x r - L/2<br />
0 −x<br />
β θ β θ<br />
∫ ∫ (4-2)<br />
p( r , θ ) q ( x) dx e q ( x)<br />
dx<br />
4π cosθ 4π cosθ<br />
Da wir einen Aufpunkt im Fernfeld betrachten, sind die Amplitudenänderungen aufgrund<br />
der unterschiedlichen Weglängen nur gering (also der Nenner im Integranden). Hingegen<br />
bleiben die Laufzeitdifferenzen trotzdem wichtig, weil sich die Laufzeit in der Phase widerspiegelt,<br />
die modulo 2π wirksam wird. Die lange Grundstrecke mit der zugehörigen Phase<br />
β 0r0 entspricht einer konstanten Laufzeit und ist ist <strong>für</strong> die Richtcharakteristik uninteressant.<br />
Für die Interferenz werden nur die Phasendifferenzen β0x cosθ<br />
wirksam. Mit der genannten<br />
Näherung erhalten wir<br />
L/2 L/2<br />
jωρ= −jβ00 r jβ0xcosθ jωρ=<br />
−jβ00<br />
r jkx<br />
0 θ = ′ 0<br />
=<br />
′ 0<br />
4πr0 4πr<br />
- L/2 0 - L/2<br />
p( r , ) e ∫ q ( x)e dx e ∫ q ( x)e dx<br />
(4-3)<br />
Die Größe<br />
k = β cosθ = 2π cos θ / λ . (4-4)<br />
0<br />
bezeichnet man als Ortswellenzahl oder "Raumfrequenz".<br />
Die zuletzt genannte Bezeichnung ergibt sich daraus, dass Gl. 4-3 zeigt, dass der entstehende<br />
Schalldruck aus dem Ergiebigkeitsbelag durch eine Fourier-Transformation hervorgeht.<br />
Der Ergiebigkeitsbelag q0( ′ x)<br />
spielt darin die Rolle der Zeitfunktion. Der Druck ist pro-<br />
46
portional zu einer Fourier-Transformierten, wobei die Rolle der Frequenz von der Ortswellenzahl<br />
(Raumfrequenz) übernommen wird. Die Berechnung von Schalldruckverteilungen<br />
aus Ergiebigkeitsbelägen mit Hilfe der Fourier-Transformation wird als "Fourier-Akustik"<br />
bezeichnet.<br />
f() t ⇔ F(j ω)<br />
⇐⇒ q′ () x ⇔ p( −j<br />
k)<br />
L /2<br />
∫<br />
- L /2<br />
′ 0<br />
+jkx<br />
0<br />
= β0 2π<br />
θ =<br />
λ<br />
θ (4-5)<br />
pk ( ) q( x)e d x , k cos cos<br />
Um daraus den Richtfaktor zu erhalten, muss man auf den Druck in der Richtung der<br />
größten Schallabstrahlung beziehen, so dass der Maximalwert 1 wird und alle Vorfaktoren<br />
herausfallen. Für den Linienstrahler mit konstantem Ergiebigkeitsbelag q′ 0 ergibt das Integral<br />
entsprechend der Fourier-Transformierten des Rechteckpulses eine Spaltfunktion ("Sinus<br />
cardinalis" si(x) oder auch sinc(x)), so dass man <strong>für</strong> den Betrag des Richtfaktors erhält<br />
0<br />
( )<br />
( )<br />
sin( kL / 2) sin ⎡β0⋅ L / 2 ⋅cosθ⎤<br />
⎧β0L⎫ ⎧ L ⎫<br />
D(<br />
θ ) = =<br />
⎣ ⎦<br />
= si⎨ ⋅ cosθ⎬ = si⎨π cosθ⎬<br />
kL /2 β ⋅ L /2 ⋅cosθ ⎩ 2 ⎭ ⎩ λ ⎭<br />
(4-6)<br />
Abb. 4-2: Richtcharakteristik eines Linienelements mit konstantem Ergiebigkeitsbelag q'0 der Länge L<br />
<strong>für</strong> den Fall L = 2λ<br />
.<br />
Mit der Lautsprecherzeile bzw. dem Mikrofonarray kann man also eine deutliche Richtwirkung<br />
erzielen. Mit längeren Linienelementen wird die "Hauptkeule" schärfer, aber es entstehen<br />
immer mehr "Nebenkeulen".<br />
Eine wichtige Anwendung kann man sich durch Anwendung einer bekannten Regel der<br />
Fouriertransformation überlegen:<br />
ω<br />
f()e t ⇔ F(jω− j ω ) bzw. q′ ( x)e ⇔ D( k− k ) = D(cosθ<br />
−cos θ ) (4-8)<br />
j 0t -jk0x<br />
0 0 0<br />
Durch Belegung der Lautsprecherzeile mit einer linearen Phase gemäß Gl. 4-8 kann also der<br />
Bezugswinkel θ 0 verändert werden. Die Richtcharakteristik wird kann somit durch das Hinzufügen<br />
des Phasenverlaufs kontinuierlich geschwenkt werden, was <strong>für</strong> die Beschallungstechnik<br />
sehr hilfreich ist. Das "elektronische Schwenken" wird durch entsprechend verzöger-<br />
47<br />
0
te Ansteuerung von Lautsprechern realisiert, so dass der Ergiebigkeitsbelag durch die<br />
Teilstrahler den gewünschten Phasenverlauf über der Länge der Lautsprecherzeile hat. Da die<br />
D(cosθ cos θ )<br />
D cos( θ − θ ) ist, ändert die Richtcharakteris-<br />
Abhängigkeit 0<br />
tik dabei etwas ihr Aussehen.<br />
− , nicht jedoch [ ]<br />
Abb. 4-3: Schwenken der Richtcharakteristik einer Lautsprecherzeile durch Laufzeitketten.<br />
Die entsprechenden Möglichkeiten zum Schwenken der Richtcharakteristik kann man<br />
auch <strong>für</strong> linienförmig angeordnete Mikrofonarrays ("Beamforming") anwenden. Hier<strong>für</strong> werden<br />
bei Hörgeräten bis zu drei Mikrofone verwendet.<br />
Die hier nur <strong>für</strong> Linienstrahler- und empfänger dargestellten Möglichkeiten lassen sich<br />
auf flächenhafte Elemente übertragen. Dies läuft auf eine räumliche Fouriertransformation<br />
hinaus. Richtcharakteristiken lassen sich damit beliebig im Raum schwenken.<br />
4.2 Druck- und Druckgradientenempfänger<br />
Einfache Richtcharakteristiken kann man auch dadurch erzielen, dass man Schall nicht<br />
nur auf die Vorderseite einer Membran auftreffen lässt, sondern in konstruktiv definierter<br />
Weise auch auf die Rückseite.<br />
Zunächst betrachten wir aber den Fall, dass der Schall tatsächlich nur von einer Seite auf<br />
eine Mikrofonmembran treffen kann. Damit hat man einen einseitig Schall aufnehmenden<br />
Empfänger realisiert, der dem einseitig Schall abstrahlenden Sender entspricht. Wie dieser<br />
hat er niederfrequent eine kugelförmige Richtcharakteristik nullter Ordnung, die keine Richtung<br />
bevorzugt ("omnidirektionales" Mikrofon). Ein solches Mikrofon nennt man auch<br />
Druckempfänger.<br />
Lässt man nun den Schall auch von der Rückseite auf das Mikrofon treffen, so wird das<br />
Ausgangssignal des Mikrofons xmic proportional zur Druckdifferenz Δp. Geht man vereinfachend<br />
davon aus, dass das Schallfeld durch die Anwesenheit des Mikrofons nicht gestört<br />
wird, ergibt sich bei einer endlichen effektiven Länge Δx des Mikrofons folgender Zusammenhang<br />
∂p<br />
xmic Δp≈ ⋅Δx.<br />
(4-9)<br />
∂x<br />
Es wird also der räumliche Druckgradient als akustisches Eingangssignal wirksam. Daher<br />
bezeichnet man solche Mikrofone als Druckgradientenmikrofone.<br />
In einem rein fortschreitenden ebenen Schallfeld bzw. im Fernfeld eines Kugelstrahlers,<br />
das aus einem Winkel ϑ gegenüber der Mittelachse durch die Membran einfällt, erhält man<br />
den Druckgradienten wie folgt<br />
∂p<br />
p= p ⇒ =− β ϑ⋅ p ω<br />
∂x<br />
− jβ0xcosϑ + e j 0 cos j cos<br />
0<br />
ϑ,<br />
(4-10)<br />
Man erhält eine dem Term cosϑ entsprechende Richtcharakteristik. Diese hat die Form einer<br />
48
liegenden Acht und wird deswegen auch als Achtercharakteristik bezeichnet. Räumlich entspricht<br />
die "Acht " zwei Kugeln, die mit entgegengesetzter Phasenlage empfangen.<br />
Abb. 4-4: Achter-Charakteristik eines Druckgradientenempfängers (Kugelschallempfänger erster<br />
Qrdnung)<br />
Gl. (4-10) zeigt, dass die Empfindlichkeit bei niedrigen Frequenzen sehr gering ist. Dies<br />
erklärt sich dadurch, dass die Drücke auf beiden Seiten der Membran fast identisch sind. Sie<br />
unterscheiden sich niederfrequent ja fast nur durch die (kleine) Phase.<br />
Durch Kombination eines Druck- und eines Druckgradienten-Empfängers lassen sich<br />
weitere Richtcharakteristiken einstellen. Man kann eine Linearkombination beider Anteile<br />
bilden, indem man entweder elektrisch die Ausgangssignale eines Druck- und eines Druckgradienten-Empfängers<br />
addiert oder indem man nur ein einziges Mikrofon verwendet, bei<br />
dem der rückwärtige Schalleinlass nur teilweise wirksam wird.<br />
Dadurch erhält man Ausgangssignale, die einen Druck- und einen Druckgradientenanteil<br />
besitzen<br />
x = c p+ c<br />
mic<br />
1 2<br />
∂p<br />
. (4-11)<br />
∂ r<br />
Damit erzeugt man die Richtcharakteristik<br />
xmic ( ϑ) c1+ c2cosϑ<br />
D(<br />
ϑ)<br />
= =<br />
x ( ϑ)<br />
c + c<br />
mic<br />
max<br />
1 2<br />
(4-12)<br />
So lässt sich ein bevorzugt aus einer Seite empfangendes Mikrofon realisieren. Für gleiche<br />
Gewichtung, also c c erhält man die "Nierencharakteristik" ("Kardioide")<br />
1 = 2<br />
D = 0.5 (1+ cos ϑ)<br />
. (4-13)<br />
Abb. 4-53: Bildung einer Nierencharakteristik aus Kugel- und Achtercharakteristik<br />
49
Durch Variation der Koeffizienten lassen sich auch andere Nierenformen bilden. So unterscheidet<br />
man z. B. die Superniere und die Hyperniere. In der Realität lassen sich solche<br />
Idealformen allerdings nur approximieren. Reale Richtcharakteristiken sind immer deutlich<br />
frequenzabhängig.<br />
Abb. 4-6: Verschiedene Nierencharakteristiken.<br />
Verschiedenartige Richtcharakteristiken bei Verwendung einer einzigen Membran werden<br />
durch akustische Filter erzeugt, die den rückwärtigen Schalleintritt frequenzabhängig<br />
variieren. Ein Beispiel ist in Abb. 4-7 dargestellt. Allerdings ist diese Darstellung eher als<br />
Prinzipschema zu sehen, praktische Ausführungen sind meist aufwändiger.<br />
Abb. 4-7: Richtmikrofon mit akustischen Filtern<br />
Anhang: Kleine Schallsender und -empfänger <strong>für</strong> Hörgeräte<br />
Im Folgenden sind <strong>für</strong> einige besonders kleine Schallsender und -empfänger, wie sie in Hörgeräten<br />
verwendet werden, die erreichbaren Empfindlichkeiten angegeben. Neben den hier<br />
gezeigten Eigenschaften sind selbstverständlich weitere Daten von Interesse. Dazu zählt insbesondere<br />
das Rauschverhalten.<br />
50
Elektromagnetische Sender<br />
Knowles electromagnetic receiver BK (Dimensions: 7.87mm x 5.59mm x 4.04mm)<br />
Angaben in dB re 20μPa, also als sound pressure level (SPL) <strong>für</strong> Stromspeisung mit 1 mA<br />
Knowles electromagnetic mini receiver FFH (Dimensions: 5.09mm x 2.80mm x 2.59mm)<br />
Bauform eines miniaturisierten elektromagnetischen Hörgeräte-Schallsenders (Hörer). Die beiden<br />
Spulen erzeugen gegenphasige Induktionen im oberen und unteren Teil, wodurch eine Wechselkraft<br />
auf den Anker ausgeübt wird. Diese wird über ein Koppelelement auf die Membran übertragen. Der<br />
Schallauslass ist rechts zu sehen.<br />
51
Elektretmikrofone<br />
Knowles electret microphone EA (5.56 mm x 3.98 mm x 2.21 mm)<br />
-60 dB re 1V/0.1 Pa = -60 dB re 10 4 mV/Pa entspricht 10 mV/Pa<br />
Knowles electret microphone FG (dimensions: 2.59 mm diameter x 2.59 mm)<br />
52
-<br />
Das periphere Hörorgan – Funktionsweise und Modellbildung<br />
Herbert Hudde / Bochum<br />
Außenohr<br />
Akustische Modellierung des Gehörgangs<br />
Der Gehörgang bildet eine akustische Leitung. Dadurch kann in bestimmten Frequenzbereichen<br />
eine (passive) Schalldruckverstärkung realisiert werden. Nur bei niedrigen Frequenzen<br />
(unter 1 kHz) kann der Gehörgang als Volumen angesehen werden, in dem überall fast der<br />
gleiche Schalldruck herrscht.<br />
Abb. 1: Grundmodell des Gehörgangs. pecE: Quellschalldruck des äußeren Schallfelds am Eingang E<br />
des Gehörgangs. ZecE: Innenimpedanz der äußeren Quelle, identisch mit der Abstrahlimpedanz des<br />
Gehörgangs aus Ebene E. ZD: „Trommelfellimpedanz“ in der Ebene D, K: akustische Kettenmatrix<br />
des Gehörgangs.<br />
Impedanzen, Übertragungsfunktionen, Resonanzen<br />
Abb 2: Übertragungsfunktionen verschiedener Gehörgänge von einer äußeren Schallquelle zum<br />
Trommelfell. Die Anhebungen entstehen aufgrund des harten Trommelfells bei Frequenzen, bei denen<br />
der Gehörgang etwa eine bzw. drei viertel Wellenlängen lang ist.<br />
Die Übertragungsfunktion Quelle bis Trommelfell zeigt Gehörgangsresonanzen:<br />
pD<br />
p<br />
=<br />
1+ YZ ′ ′ ⋅ cos β l<br />
1<br />
+ j Y′ + Z′ ⋅sin<br />
β l<br />
( ) ( ) ( ) ( )<br />
ecE D ecE 0 ec D ecE 0 ec<br />
′ = ′ = = ⋅ .<br />
cos β l = 0 , sin β l =<br />
1<br />
mit ZecE ZecE / ZL YD1/( ZD/ ZL) YDZL Hauptresonanzen bei: ( ) ( )<br />
0 ec 0 ec<br />
53
-<br />
Das sind die λ/4-Resonanz und (schwächer) die 3λ/4-Resonanz. Sie treten auf, weil der Gehörgang<br />
am Ende ziemlich hart (Trommelfellimpedanz) und am Eingang ziemlich weich<br />
(Abstrahlimpedanz) abgeschlossen ist.<br />
Modellierung von Außenohr-Übertragungsfunktionen<br />
Man benötigt allgemeine numerische Verfahren <strong>für</strong> Schallfeldberechnungen im Außenraum<br />
eines Kopfes. Da sich HRTFs auf Beschallung aus dem Fernfeld beziehen, ist die Verwendung<br />
von Randelementen (Boundary Element Method, BEM) besonders vorteilhaft.<br />
Zusammenfassung Außenohr<br />
• Funktional gesehen gehören nicht nur die Pinna, sondern der gesamte Kopf und sogar der<br />
Rumpf (zumindest die Schultern) zum Außenohr, weil alle genannten Elemente die richtungsabhängige<br />
Schalleinkopplung in den Gehörgang beeinflussen.<br />
• Der Gehörgang bietet Schutz vor Verletzungen des Mittelohres.<br />
• Der Gehörgang bildet einen Leitungsresonator, der im <strong>für</strong> die Sprachkommunikation<br />
wichtigen Frequenzbereich zwischen 2 und 5 kHz eine Anhebung des Schalldrucks um bis<br />
zu etwa 15 dB bewirkt.<br />
• Die Übertragungsfunktionen des Gehörgangs werden vor allem durch seine Länge, aber<br />
auch durch seine gesamte Form individuell beeinflusst.<br />
Eindimensionale Modellierung<br />
Mittelohr<br />
Abb. 3: Einfachste Grundstruktur eines Mittelohrmodells ohne Berücksichtigung von elastischen Elementen<br />
und Massen: Mittelohr als Hebelübertrager mit Hebelverhältnis h. Die Impedanz Zcav beschreibt<br />
die (geringe) Wirkung der Paukenhöhle. Hingegen bestimmt die akustische Eingangsimpedanz<br />
ZC der Cochlea, auf die die Stapesfußplatte arbeitet, wesentlich die Mittelohrübertragungsfunktionen<br />
mit.<br />
Wenn man annimmt, dass das Mittelohres mechanisch durch einen einfachen Hebelübertrager<br />
mit dem Hebelverhältnis h charakterisiert werden kann, so ergibt sich aus dem Ersatzschaltbild<br />
folgender Zusammenhang zwischen den akustischen Ein- und Ausgangsgrößen<br />
(am Trommelfell bzw. hinter der Stapesfußplatte).<br />
⎛ AF<br />
⎞<br />
0<br />
pD 1 AD 0 1 h 0 AF<br />
0 p<br />
⎜<br />
C h A<br />
⎟<br />
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⋅ D ⎛ pC⎞<br />
⎜ ⎟= ⎜ ⎟⋅ qD 0 A<br />
⎜ ⎟⋅⎜<br />
⎟⋅<br />
⎜ ⎟= ⎜ ⎟⋅⎜<br />
⎟<br />
⎝ ⎠ ⎝ D⎠ ⎝ 0 h⎠ ⎝ 0 1 AF<br />
⎠ ⎝qC ⎠ ⎜ h⋅AD⎟ qC<br />
0<br />
⎝ ⎠<br />
⎜<br />
A<br />
⎟<br />
⎝ F ⎠<br />
Das gesamte wirksame Übertragungsverhältnis ist danach durch das Flächenverhältnis<br />
Trommelfell zu Stapesfußplatte und das Hebelverhältnis gegeben. Da das Hebelverhältnis<br />
jedoch nahe bei 1 liegt, wird hauptsächlich das Flächenverhältnis wirksam.<br />
54
-<br />
Übertragungsverhalten<br />
Die Annahme, dass das Mittelohr mechanisch ein Hebelübertrager sei, ist viel zu grob, um<br />
die tatsächlichen Verhältnisse richtig zu beschreiben. Die elastischen Elemente (Trommelfell,<br />
Bänder, Muskeln) und die vor allem durch ihre Massenträgheit wirksamen Ossikel führen<br />
dazu, dass die vereinfachte Betrachtung eines Hebelübertragers allenfalls im Bereich der<br />
Hauptresonanz des Mittelohres näherungsweise anwendbar ist. Eine realistischere Beschreibung<br />
des Mittelohres führt auf folgende Übertragungsfunktionen.<br />
Abb. 4: Schalldruckübertragungsfunktion von einer äußeren Quelle (pecE) zur Cochlea (pC) <strong>für</strong> verschiedene<br />
Fälle im Vergleich zu einem theoretischen Optimum, das der (unrealistischen) Annahme<br />
entspricht, dass dem äußeren Schallfeld die maximale Leistung entnommen und vollständig in die<br />
Cochlea übertragen wird.<br />
Die tatsächlich auftretenden Schwingungen können von den üblichen eindimensionalen<br />
Netzwerkmodellen des Mittelohres nicht erfasst werden. Mit verallgemeinerten Netzwerkmodellen<br />
oder mit finiten Elementen können realistischere Vorhersagen gemacht werden.<br />
Dabei zeigt sich, dass die Ossikel in verschiedenen Frequenzbereichen recht unterschiedlich<br />
schwingen. Trotzdem entstehen ähnliche Übertragungsfunktionen wie bei eindimensionalen<br />
Modellen.<br />
Abb. 5: Stapesauslenkung bei Anregung mit einem Schalldruck von 1 Pa als Funktion der Frequenz.<br />
Dieser Frequenzgang wurde mit einem verallgemeinerten Netzwerkmodell berechnet, das räumliche<br />
Schwingungen der Ossikel erfasst. Die Schwingungsformen ändern sich stark mit der Frequenz.<br />
55
-<br />
Besondere Merkmale und Mechanismen des Mittelohrs<br />
• Existenz einer besonders empfindlichen Vorzugsrichtung.<br />
• Sehr flexibles Incudostapedial-Gelenk.<br />
• Hohe Flexibilität der gesamten Ossikelkette.<br />
• Seitlich aus dem Übertragungsweg vom Manubrium zum ovalen Fenster ausgelagertes<br />
Massenzentrum (Malleus-Kopf und Incus-Hauptkörper).<br />
• Konisch eingezogene Form des Trommelfells.<br />
• Überlastschutz im Incudomallear-Gelenk.<br />
• Breitbandige Luftschall-Übertragung auch unter ungünstigen Bedingungen.<br />
• Allgemein geringe Parameter-Empfindlichkeit.<br />
• Erhöhte Stoß-Isolation.<br />
Zusammenfassung Mittelohr:<br />
• Das Mittelohr bildet im Bereich seiner Hauptresonanz bei etwa 800-1000 Hz einen Anpassungsübertrager<br />
zur Verbesserung der Energieübertragung von der Luft im Gehörgang in<br />
die Flüssigkeiten des Innenohres. Das theoretische Optimum wird allerdings um etwa 20<br />
dB verfehlt.<br />
• Das Übertragerverhältnis wird vorwiegend durch das Flächenverhältnis Trommelfell/Stapes-Fußplatte<br />
gebildet.<br />
• Bei niedrigen und bei hohen Frequenzen bestimmen allerdings weitgehend die elastischen<br />
Elemente (Trommelfell und Bänder) und die Massen (Ossikel) das Übertragungsverhalten.<br />
Daher ist die Abweichung vom Optimum dort viel größer (60 dB bei 160 Hz, 50 dB bei<br />
16 kHz).<br />
• In Kombination mit der Druckverstärkung durch den Gehörgang entsteht im Frequenzbereich<br />
zwischen 800 Hz und 4 kHz eine gute Annäherung an das Optimum (bis auf etwa<br />
20 dB).<br />
• Das "biomechanische Design" des menschlichen Mittelohrs macht aus der Not eine Tugend:<br />
Die mangelnden Möglichkeiten, präzise Lager und Führungen zu realisieren, werden<br />
ausgeglichen durch einen ausgeklügelten Einsatz von Flexibilität und Massenverteilung.<br />
• Dadurch werden u. A. eine gute Isolation vor Stößen auf den Kopf und eine insgesamt<br />
geringe Parameterempfindlichkeit erzielt.<br />
Innenohr<br />
Abb. 6: Das Innenohr besteht aus dem Gleichgewichtsorgan und der Cochlea. Nur die Cochlea ist <strong>für</strong><br />
das Hören zuständig. Im Inneren der Cochlea befindet sich ein flüssigkeitsgefülltes System mit drei<br />
von einander getrennten Kanälen (Scalen).<br />
56
-<br />
Das Kanalsystem in der Cochlea windet sich in etwa zweieinhalb Windungen von der Basis<br />
bis zum Apex. Für die mechanische Funktionsweise spielt die Reissnersche Membran nur<br />
eine untergeordnete Rolle. Daher bilden Scala vestibuli und Scala media zusammen einen<br />
oberen Kanal und die Scala tympani allein einen unteren Kanal. Die beiden Kanäle werden<br />
getrennt durch die Basilarmembran (BM) mit dem darauf befindlichen Corti-Organ. Die mechanische<br />
Abstimmung der inhomogenen Basilarmembran führen zu einer Wanderwelle entlang<br />
dieser Membran von der Basis zum Apex. Die Abstimmung erfolgt im Wesentlichen<br />
durch die mechanische Nachgiebigkeit der BM, die von Apex bis zur Basis immmer weicher<br />
wird. Die Wanderwelle bildet an einer von der Anregungsfrequenz abhängigen Stelle ein<br />
Maximum aus. Zu jedem Ort gehört also eine Bestfrequenz. Bei Anregung mit breitbandigen<br />
Signalen findet dadurch eine spektrale Aufspaltung in der Weise statt, dass bestimmte Frequenzbereiche<br />
bestimmten Abschnitten auf der Basilarmembran entsprechen. In diesem Sinne<br />
arbeitet die Cochlea als eine Art Fourieranalysator.<br />
Abb. 7: Querschnitt (A) durch die gesamte Cochlea und (B) durch eine Windung. Im rechten Teilbild<br />
erkennt man die Lage der Basilarmembran (BM) mit dem darauf liegenden Corti-Organ.<br />
Eindimensionale Modellierung der in das Kanalsystem eingebetteten Basilarmembran<br />
(passives Modell)<br />
Abb. 8: Boxmodell der zwischen flüssigkeitsgefüllten Räumen eingebetteten abgewickelten Basilarmebran.<br />
57
-<br />
Setzt man voraus, dass die BM wie folgt durch einen auf die Membranfläche bezogenen Impedanz-<br />
Z''(z) beschrieben werden kann<br />
p( z) =Δ pBM ( z) = Z′′ ( z) ⋅ vBM ( z)<br />
,<br />
so findet man folgende Differenzialgleichung<br />
2<br />
∂ p( ω,<br />
z) b<br />
+ 2j ωρ Y′′ ( ω, z) ⋅ p( ω,<br />
z)<br />
= 0 .<br />
2<br />
∂z<br />
A<br />
Hierin bedeuten p(ω, z) Schalldruckdifferenz zwischen Ober- und Unterseite der BM bei einer<br />
Kreisfrequenz ω und an einem Ort z auf der BM, Y"(ω, z) flächenbezogener Admittanzbelag<br />
der BM (Kehrwert des Impedanzbelags), ρ die Dichte, b die Breite der BM und A die<br />
Querschnittsfläche beiden Kanäle. Gemäß Frequenz und Ort auf der BM bestimmt entweder<br />
der nachgiebigkeitsbestimmte oder der reibungsbestimmte Teil des Admittanzbelags die Differenzialgleichung.<br />
Man findet <strong>für</strong> die beiden Teile sehr große Unterschiede im Verhalten.<br />
Nachgiebigkeitsbestimmter Bereich:<br />
2<br />
∂ p b 2 ε z<br />
− 2ρ n′′ 2 0ω<br />
e p=<br />
0<br />
∂z<br />
A<br />
Reibungsbestimmter Bereich:<br />
2<br />
∂ p b 1<br />
+ 2jρ ωp=<br />
0<br />
2<br />
∂ z A w′′<br />
Im letzteren Fall ist der auftretende Koeffizient imaginär, im Gegensatz zum rellen Koeffizienten<br />
in der oberen Gleichung. Dies führt auf die beiden Lösungsanteile, die dem Anstieg<br />
und dem raschen Abfall der folgenden Kurven entsprechen.<br />
Abb. 9: Örtliche Schnelleverteilung entlang der BM bei Anregung mit sinusförmigen Stapesschnellen.<br />
Die als Parameter angegebenen Zahlenwerte sind Frequenzen in kHz.<br />
Im nachgiebigkeitsbestimmten Bereich wächst die Schwingungsamplitude der einlaufenden<br />
Wanderwelle an, wobei die Welle abgebremst wird. Gemäß der Differenzialgleichung entsteht<br />
am Übergang in den reibungsbestimmten Bereich ein Maximum, danach ein steiler Abfall<br />
Richtung Apex. Der charakteristische Ort (maximaler Erregung bei einer gegebenen Frequenz)<br />
tritt danach am Übergang vom nachgiebigkeits- zum reibungsbestimmten Bereich auf.<br />
Wie man sieht, bilden sich die hohen Frequenzen am Apex und die niedrigeren Frequenzen<br />
näher am Apex statt (die niederfrequentere Wanderwelle dringt tiefer ein). Die ungefähre<br />
Lage der Bestfrequenzen geht aus folgender Abbildung hervor.<br />
58
-<br />
Abb. 4.1-4: Die Basilarmembran nimmt in ihrer Breite von der Basis zum Apex hin zu, obwohl die<br />
räumlichen Verhältnisse immer beengter werden. Die Bestfrequenzen (in Hz) entlang der Basilarmembran<br />
nehmen wegen der immer größer werdenden Steife entsprechend zu.<br />
Kontinuumsmodell der Basilarmembran<br />
Das eindimensionale Modell ist ein Langwellenmodell: es setzt voraus, dass die Wellenlängen<br />
so groß (die Frequenzen so niedrig) sind, dass nur die Schwingungen senkrecht zur Basilarmembran<br />
beachtet werden müssen. Berechnungen mit einem Finite-Elemente-Modell der<br />
Basilarmembran zeigen jedoch, dass tatsächlich Quermoden auf der Basilarmembran eine<br />
wesentliche Rolle spielen, weil dadurch die Basilarmembran effektiv noch nachgiebiger wird.<br />
Tatsächlich wird die Lage des charakteristischen Ort nicht durch den Übergang zu einem reibungsbestimmten<br />
Bereich, sondern durch den Übergang von eindimensionaler Wellenausbreitung<br />
zu Ausbreitung mit Quermoden gebildet wird.<br />
Abb. 10: Betrag der Auslenkung in nm bei Anregung mit 1 Pa im Vestibulum bei 2 kHz<br />
59
-<br />
Corti-Organ und aktive Cochlea<br />
Das auf der BM aufliegende Corti-Organ enthält die inneren und die äußeren Haarzellen<br />
(IHC, OHC). Der Mensch besitzt ca. 3500 IHCs und mehr als dreimal so viele OHCs (die<br />
OHC sind wie in Abb. 11 ersichtlich in Dreierreihen angebracht). Von den 25.000 afferenten<br />
Nervenfasern, die Information von der Cochlea in die Hörbahn einspeisen, sind 95% an den<br />
IHC angeschlossen. Offensichtlich sind also die IHC die eigentlichen Sensoren in der Cochlea,<br />
die die bereits spektral aufgespaltenen Signale in Form von Aktionspotenzialen weiterleiten.<br />
Die weitaus größere Zahl der OHCs dient als eine Art Hilfsmotor. Der bis heute nicht<br />
genau verstandene Mechanismus führt zu einer Empfindlichkeitssteigerung des Gehörs bei<br />
niedrigen Pegeln. Er wird daher auch als cochleärer Verstärker bezeichnet. Gleichzeitig bewirkt<br />
er ein deutlich schärferes Tuning. Das bedeutet, dass die in Abb. 11 gezeigten örtlichen<br />
Schnelleverteilungen ein noch schärferes Maximum aufweisen. Dies führt zu entsprechend<br />
verschärften Frequenzgängen (Tuningkurven), also zu einer Erhöhung der Frequenzauflösung<br />
bei niedrigen Pegeln.<br />
Abb. 11: Corti-Organ mit inneren (IHC) und äußeren (OHC) Haarzellen. Die inneren Haarzellen<br />
bilden die eigentlichen Sensoren, obwohl die Anzahl der in Dreierreihen angeordneten<br />
äußeren Haarzellen viel größer ist.<br />
Der Hilfsmotor der OHC beruht auf der Fähigkeit dieser Haarzellen, aktiv ihre Länge zu ändern,<br />
und zwar gesteuert durch das Rezeptorpotenzial, also die elektrischen Potenzialänderungen<br />
im Inneren der Haarzelle. Ohne im Einzelnen zu verstehen, wie dies zu einer Zusatzanregung<br />
führt, kann man die gemessenen Eigenschaften des cochleären Verstärkers in etwa<br />
durch eine sehr einfache Annahme erfassen. Nach dieser schon 1986 veröffentlichten Idee<br />
von Neely & Kim bewirken die Schwingungen der OHC am Ort z der Haarzellen eine additive<br />
Zusatzanregung pOHC(z). Anstelle der "passiven" Beziehung<br />
p( z) =Δ pBM ( z) = Z′′ ( z) ⋅ vBM ( z)<br />
zwischen Druckdifferenz an der BM und der Schnelle der BM, die durch den Impedanzbelag<br />
gegeben war, fordert man nun<br />
p( z) + pOHC ( z) = Z′′ ( z) ⋅ vBM ( z)<br />
wobei der zusätzlich eingespeiste, die BM also zusätzlich antreibende Druckdifferenz durch<br />
60
-<br />
die Schnelle der Stereocilien der OHC gesteuert wird. Wenn dieser zusätzliche Anteil mit der<br />
richtigen Phasenlage eingespeist wird, führt dies zu einer Entdämpfung des Impedanzbelags<br />
der BM, was die gewünschte Verschärfung der Tuningkurve erklären kann.<br />
Abb. 12: Verschärfung der Tuningkurven der Cochlea bei niedrigen Anregungspegeln. Dargestellt<br />
ist die an einem bestimmten Ort auf der BM gemessene BM-Auslenkung als Funktion<br />
der Frequenz. Man beachte, dass sich mit abnehmendem Pegel nicht nur die Tuningschärfe<br />
verändert, sondern auch die Frequenz verschiebt, bei der das Maximum auftritt.<br />
Die Wirkung des cochleären Verstärkers ist auf niedrige Pegel begrenzt, weil die aktiven<br />
Längenänderungen bereits bei einem Pegel von 40-50 dB über der Hörschwelle in die Sättigung<br />
gehen. Bei einer weiteren Steigerung des Pegels wird daher der relative Anteil des<br />
cochleären Verstärkers immer geringer. Dies wird durch die folgende Abbildung bestätigt.<br />
Abb. 13: Auslenkung der Basilarmembran als Funktion des Eingangspegels in der Nähe der<br />
jeweiligen Bestfrequenz (Messergebnisse und Interpretation von Johnstone et al. 1986)<br />
Offensichtlich wird durch diese Kennlinie beschrieben, dass die Ausgangsdynamik kleiner<br />
61
-<br />
als die Dynamik der eingespeisten Signale ist. Der cochleäre Verstärker liefert also einen wesentlichen<br />
Beitrag zur Kompression der Signaldynamik im Verlauf der Signalverarbeitung<br />
durch unser Gehör. Die richtige Nachbildung dieser Kompression spielt auch in Modellen,<br />
die die auditive Wahrnehmung beschreiben, eine wichtige Rolle.<br />
Zusammenfassung Cochlea<br />
• Die Cochlea realisiert eine spektrale Zerlegung der vom Mittelohr kommenden Signale<br />
durch die abgestimmte Basilarmembran (Erhöhung der Elastizität und der Breite entlang<br />
des Wegs von der Basis zum Apex).<br />
• Der im Vestibulum erzeugte Schalldruck löst Wanderwellen auf der inhomogenen Basilarmembran<br />
aus. Wellen in den Flüssigkeiten spielen dagegen nur eine untergeordnete<br />
Rolle, weil die Wellenlängen in den Flüssigkeiten, außer bei den höchsten Audiofrequenzen,<br />
viel länger als die Kanäle sind.<br />
• Die Wanderwelle wird auf dem Weg von der Basis zum Apex durch die zunehmende<br />
Nachgiebigkeit abgebremst, so dass sich an einem durch die anregende Frequenz bestimmten<br />
"charakteristischen Ort" zeitlich aufeinander folgende Wellenzüge überlagern.<br />
• Dadurch entsteht am charakteristischen Ort bei der zugehörigen "Bestfrequenz" eine maximale<br />
Antwort auf die Erregung.<br />
• Zu einem Ort auf der Basilarmembran gehört daher ein bestimmtes Filter, das eine "Tuningkurve"<br />
mit Maximum bei der Bestfrequenz besitzt.<br />
• Das auf der Basilarmembran aufgesetzte Corti-Organ trägt ca. 3500 innere und etwa 3.5<br />
mal so viele äußere Haarzellen (IHC und OHC), die durch ihren Ort bestimmten Frequenzen<br />
zugeordnet sind.<br />
• Die IHC sind Schwingungssensoren, die ihre Signale an das zentrale Hörorgan weiterleiten.<br />
• Die äußeren Haarzellen (OHC) bewirken eine Verstärkung, die auf niedrige Pegel beschränkt<br />
ist (cochleärer Verstärker). Sie erhöhen somit die Hörschwelle.<br />
• Die OHC bewirken bei niedrigen Pegeln gleichzeitig eine Verschärfung der Tuningkurven.<br />
62
Psychoakustik und Sprachperzeption bei Normal- und Schwerhörigen<br />
Birger Kollmeier / <strong>Oldenburg</strong><br />
1. Wahrnehmungs-Grundgrößen<br />
Das menschliche Gehör ist in faszinierender Weise optimal an das Empfangen von<br />
akustischen Signalen aus der Umwelt angepaßt, insbesondere an das Verstehen von<br />
Sprache. Weil das akustische Sprachsignal sich zeitlich stark ändert und<br />
unterschiedliche Frequenzanteile aufweist, benötigt das Ohr <strong>für</strong> die<br />
Sprachwahrnehmung die Fähigkeit, zu jedem Zeitpunkt die Intensität wahrzunehmen,<br />
mit der jede Frequenz momentan vorliegt. Wesentliche Grundgrößen der Wahrnehmung<br />
sind daher die Umsetzung verschiedener Schallintensitäten in subjektiv empfundene<br />
Lautheit, die Umsetzung verschiedener Frequenzen in subjektiv empfundene<br />
Tonhöhen, die Umsetzung verschiedener Zeitdauern und Rhythmen in subjektiv<br />
empfundene Zeitmuster, die Umsetzung von akustischen Signalen in subjektiv<br />
empfundene Klänge, und das Trennen verschiedener Klänge (z. B. Nutzsignal vom<br />
störenden Hintergrundsignal). Diese Beziehungen zwischen dem akustischen Reiz und<br />
der subjektiven Wahrnehmung, die durch psychologische Meßmethoden erfaßt werden<br />
können, werden in der Psychoakustik untersucht.<br />
1.1 Intensitätsabbildung (Lautheit) und Intensitätsauflösung<br />
Als Ruhehörschwelle wird der Pegel eines soeben wahrnehmbaren Sinustons bei einer<br />
vorgegebenen Frequenz in Ruhe (d. h. ohne Vorliegen störender Signale) bezeichnet.<br />
Bei niedrigen und bei hohen Frequenzen muß ein wesentlich höherer Schalldruckpegel<br />
erzeugt werden als bei mittleren, damit der Ton von normalhörenden Menschen<br />
schwellenhaft wahrgenommen werden kann (vgl. Abbildung 1). Wenn ein Sinus-Ton im<br />
Pegel kontinuierlich erhöht wird, nimmt die Versuchsperson nach Überschreiten der<br />
Ruhehörschwelle einen immer lauteren Ton wahr. Der Grad, in dem diese<br />
Lautheitswahrnehmung mit zunehmenden Tonpegel ansteigt, hängt von der Frequenz<br />
ab (vgl. Abbildung.1): Ausgehend von einem Sinus-Ton bei 1000 Hz kann man bei jeder<br />
Frequenz denjenigen Tonpegel bestimmen, der zum gleichen Lautheitseindruck führt.<br />
Diese Kurve wird als Isophone oder Kurve gleicher Pegellautstärke bezeichnet.<br />
Während die 10 Phon-Isophone bei 1000 Hz genau 10 dB über der Ruhehörschwelle ist<br />
und zu niedrigen und hohen Frequenzen ähnlich steil ansteigt wie die Ruhe-<br />
Hörschwelle, flachen die zu höheren Pegeln gehörenden Isophonen zunehmend ab, so<br />
daß die 120 Phon-Isophone, die ungefähr der Schmerzschwelle bei Normalhörenden <strong>für</strong><br />
alle Frequenzen entspricht, etwa den gleichen Schalldruck <strong>für</strong> alle Frequenzen angibt.<br />
63
Abbildung 1: Ruhehörschwelle und Isophonen<br />
Um den Lautheitsanstieg mit zunehmendem Pegel zu bestimmen, d. h. beispielsweise<br />
die Pegelerhöhung, die <strong>für</strong> eine Verdopplung der empfundenen Lautheit notwendig ist,<br />
bedient man sich verschiedener subjektiver Skalierungsmethoden. Bei der freien<br />
Größenschätzung nach Stevens und Mitarbeitern (Stevens, 1957) soll die<br />
Versuchsperson die jeweils empfundene Lautheit mit einer beliebigen Zahl<br />
kennzeichnen. Trägt man nun die von der Versuchsperson gegebenen Zahlenwerte<br />
über die angebotenen Pegel auf, erhält man die nach Stevens benannte<br />
Potenzfunktion<br />
N[ sone]<br />
I<br />
=<br />
I<br />
⎛ ⎞<br />
⎜ ⎟<br />
⎝ ⎠<br />
0<br />
α<br />
. (8.1)<br />
Dabei bezeichnet N die Lautheit in der Einheit „sone“, I die Intensität des Testtons und I0<br />
die Intensität des Referenz-Sinustons bei 1 kHz mit einem Pegel von 40 dB SPL, der<br />
genau der Lautheit 1 sone entspricht. Der Exponent α nimmt im Mittel über viele<br />
Versuchspersonen und Experimente den Wert von etwa 0,3 an. Das bedeutet, daß bei<br />
einer Erhöhung der Schallintensität um 10 dB die Lautheit ungefähr um den Faktor 2<br />
ansteigt (da 10 dB eine Verzehnfachung der Intensität bedeutet und 10 0,3 ≅ 2 ist). Die<br />
Lautheit hängt damit in anderer Weise von der Schallintensität ab als der Schallpegel.<br />
Die Lautheit in sone darf auch nicht mit der Lautstärke (in Phon) verwechselt werden, da<br />
der erste Begriff die Größe einer subjektiven Empfindung kennzeichnet und der zweite<br />
Begriff einen Pegel bezeichnet (d. h. eine physikalische Reizgröße), die zu einer<br />
vorgegebenen Lautheitsempfindung führt (nämlich zu der Lautheit, die <strong>für</strong> alle<br />
Lautstärken auf einer Isophonen gleich ist). Daher wird der zweite Begriff in der<br />
Normung auch als „Pegellautstärke“ bezeichnet.<br />
64
Eine andere Möglichkeit zur Bestimmung der subjektiven Lautheitsempfindung besteht<br />
bei der kategorialen Skalierung darin, daß der Versuchsperson eine gewisse Zahl von<br />
Lautheitskategorien (z. B. „sehr leise“, „leise“, „mittel“, „laut“ und „sehr laut“) als<br />
Antwortmöglichkeiten vorgegeben wird. Bei dem Verfahren der „Würzburger<br />
Hörfeldskalierung“ nach Heller (1985) wird jede dieser groben Kategorien in einem<br />
zweiten Schritt in 10 feinere Kategorien unterteilt. Bei der „<strong>Oldenburg</strong>er<br />
Hörflächenskalierung“ (Hohmann und Kollmeier, 1995), die sich insbesondere <strong>für</strong><br />
Messungen mit schwerhörigen Patienten eignet, werden neben den fünf<br />
Hauptkategorien vier Zwischenkategorien und die Grenzfälle „nicht gehört“ und „zu laut“<br />
vorgegeben, so daß die Gesamtzahl der Antwortkategorien nicht 50, sondern 11 beträgt.<br />
Trägt man die Antwort der Versuchsperson in Kategorial-Einheiten über dem Pegel des<br />
Testschalls auf, erhält man im mittleren Pegelbereich eine Gerade, d. h. die<br />
empfundene Kategorial-Lautheit ist dort proportional zum Logarithmus der Intensität<br />
(vgl. Abbildung 2). Abweichungen zu der im logarithmischen Maßstab aufgetragenen<br />
Lautheit in sone treten bei sehr niedrigen und bei sehr hohen Pegeln auf:<br />
Abbildung 2: Sone-Skala und Kategorial-Skala über den Pegel<br />
Bei sehr niedrigen Pegeln stehen <strong>für</strong> die relativ grobe Kategorial-Skalierung nicht genügend<br />
Antwortalternativen zur Verfügung, so daß die Kurve erst bei mittleren Pegeln ansteigt, während die<br />
Lautheit in sone gegen Null geht und ihr Logarithmus dementsprechend steil abfällt. Bei sehr hohen<br />
Pegeln ist der Antwortbereich der Kategorial-Lautheit ebenfalls begrenzt, so daß hier ein Sättigungseffekt<br />
auftritt, während der Logarithmus der Lautheit in sone weiter linear ansteigt. Dieser Effekt ist auf den<br />
„Logarithmic Response Bias“ (Poulton, 1989) zurückzuführen, d. h. die Versuchspersonen beurteilen bei<br />
der Erhöhung einer großen Zahl nicht mehr den absoluten Zuwachs dieser Zahl, sondern das Verhältnis<br />
der neuen Zahl zur alten Zahl. Damit tendieren die Versuchspersonen bei hohen Pegeln bei der absoluten<br />
Größenschätzung dazu, ihre Empfindungsgröße mit dem Logarithmus der angenommenen, großen<br />
Zahlen zu beschreiben. Dieser Effekt tritt bei der Kategorial-Skalierung mit einer wesentlich kleineren Zahl<br />
von Antwortalternativen nicht auf, so daß die ungefähre Proportionalität zwischen dem Logarithmus der<br />
Lautheit in sone und dem absoluten Wert der Kategorial-Skala plausibel erscheint (paralleler Verlauf der<br />
Kurven in Abbildung 2 über einen relativ großen Pegelbereich).<br />
65
Eine logarithmische Beziehung zwischen der Reizgröße (in unserem Fall die Intensität I)<br />
und der Empfindungsgröße E folgt auch aus dem Weber-Fechner’schen Gesetz, das<br />
eines der ersten und wichtigsten Gesetze der Psychophysik darstellt. Weber und<br />
Fechner konnten nachweisen, daß der Reizunterschied ΔI, der zu einer eben<br />
wahrnehmbaren Änderung der Empfindung ΔE führt, proportional zu der absoluten<br />
Größe I des Reizes ist, so daß der sogenannte Weber-Bruch ΔI<br />
<strong>für</strong> alle Werte von I<br />
I<br />
annähernd konstant sein muß und proportional der kleinsten wahrnehmbaren<br />
Empfindungsänderung ΔE ist:<br />
ΔI<br />
ΔE=<br />
k⋅<br />
(8.2)<br />
I<br />
Durch Aneinanderreihen von eben merklichen Unterschieden ΔE (was mathematisch<br />
der Aufintegration von Gleichung 8.2 entspricht) läßt sich nun eine Beziehung zwischen<br />
der Empfindungsgröße E und der Reizgröße I herleiten:<br />
E= k'log ⋅ 10 I+ k''<br />
(8.3)<br />
k’ und k’’ sind Konstanten, die aus den Randbedingungen festgelegt werden. Diese<br />
logarithmische Abhängigkeit der Wahrnehmungsgröße von der Reizgröße entspricht<br />
gerade dem Zusammenhang zwischen Kategorial-Lautheit und Tonpegel, d. h. dem<br />
Logarithmus der Intensität. Dieses Gesetz entspricht auch der sone-Skala unter der<br />
Annahme, daß die empfundene Lautheit durch den Logarithmus der von der<br />
Versuchsperson angegebenen Zahl, und nicht durch die Zahl selber wiedergegeben<br />
wird.<br />
Neben der bisher behandelten absoluten Wahrnehmung der Schallintensität interessiert<br />
auch die differentielle Wahrnehmung, d. h. die kleinste wahrnehmbare Änderung einer<br />
Schallintensität. Sie wird auch als JND („just noticeable difference“) bezeichnet und tritt<br />
als ΔI im Weber-Fechner’schen Gesetz (Gleichung 8.2) auf. Für die meisten Schalle<br />
beträgt die JND etwa 1 dB, d. h.<br />
1dB<br />
ΔI+ I ΔI<br />
10 = 10 ⇒ = 0, 259<br />
(8.4)<br />
I<br />
I<br />
In der Tat mußte die erste logarithmische Pegelskala, deren Einheit das Bel ist (nach<br />
Alexander Graham Bell, der unabhängig von Philip Reis das Telefon erfand und zu<br />
einem kommerziellen Erfolg führte, 1 Bel = log10 (Ι/Ι0)) in eine 10-fach feinere Skala, das<br />
Dezibel (dB) unterteilt werden. Damit entspricht eine Einheit dieser Skala gerade einem<br />
kleinsten hörbaren Pegelunterschied. Während bei breitbandigen Signalen über einen<br />
66
weiten Pegelbereich Webers Gesetz gültig ist und der kleinste wahrnehmbare<br />
Pegelunterschied 1 dB beträgt, ist bei schmalbandigen Signalen (wie Sinustönen) dieser<br />
Unterschied bei kleinen Pegeln größer als 1 dB und nimmt mit zunehmendem Pegel<br />
stetig ab. Diese Abweichung wird als „near miss to Weber’s law“ bezeichnet und hängt<br />
mit der speziellen Anregung der Basilarmembran bei Sinustönen zusammen.<br />
1.2 Tonhöhe und Frequenzauflösung<br />
Wird die Frequenz eines Sinustons erhöht, führt dies zu der Wahrnehmung einer<br />
ansteigenden Tonhöhe. Wenn diese Tonhöhenwahrnehmung dem Weber-<br />
Fechner’schen Gesetz entsprechend proportional zum Logarithmus der Frequenz wäre,<br />
entspräche dies genau der musikalischen Tonhöhenempfindung: Eine Oktave<br />
(Frequenzverhältnis 2:1) würde als doppelt so hoch empfunden werden, unabhängig<br />
von der jeweiligen Frequenz. Tatsächlich folgt die Tonhöhenwahrnehmung dieser<br />
Gesetzmäßigkeit nur in einem begrenzten Bereich mittlerer Frequenzen, der bei<br />
musikalisch ausgebildeten Versuchspersonen sich noch etwas erweitern läßt. Läßt man<br />
Versuchspersonen jedoch unabhängig von musikalischen Intervallen die empfundene<br />
Tonhöhe im Vergleich zum Referenzton bei 1 kHz angeben, so erhält man die Mel-Skala<br />
als subjektive Tonhöhenempfindungskala. Sie entspricht ungefähr der Frequenz-Orts-<br />
Transformation auf der Basilarmembran, bei der die verschiedenen Frequenzen zu einer<br />
maximalen Auslenkung an unterschiedlichen Orten führen (gepunktete Linie in Abb. 3).<br />
Die gleiche Beziehung zwischen subjektiver Tonhöhe und objektiver Frequenz liefert die<br />
in Abb. 3 dargestellte Bark-Skala (benannt nach dem deutschen Physiker und Akustiker<br />
Heinrich Barkhausen), die auf dem Konzept der Frequenzgruppe beruht (Zwicker und<br />
Mitarb. 1957).<br />
Abbildung 3: Mel-Skala, Bark-Skala, ERB-Skala<br />
Sie basiert auf der Frequenzabhängigkeit der Lautheitswahrnehmung und der<br />
Maskierung: Bei der Lautheitssummation wird die empfundene Lautheit eines<br />
schmalbandigen Signals (z. B. eines Schmalbandrauschens) bei gleicher Leistung, aber<br />
verschiedener Bandbreite bestimmt (vgl. Abbildung 4). Wenn dieselbe Leistung auf<br />
67
einen größeren Frequenzbereich verteilt wird, steigt die wahrgenommene Lautheit auf<br />
etwa das Doppelte an (entspricht ungefähr 10 dB Lautstärkengewinn). Bleibt die<br />
Leistung jedoch in einem Frequenzbereich, der kleiner als die Frequenzgruppenbreite<br />
ist, hängt die wahrgenommene Lautheit nicht von der Bandbreite ab, so daß aus dieser<br />
Bandbreitenabhängigkeit auf die Größe der Frequenzgruppe geschlossen werden kann.<br />
Die Frequenzgruppenbreite beträgt etwa 100 Hz unterhalb von 500 Hz und etwa 1/5 der<br />
Frequenz oberhalb von 500 Hz (vgl. Abbildung 3).<br />
Abbildung 4: Bandbreitenabhängigkeit der Lautheit<br />
Anschaulich versteht man unter der Frequenzgruppe diejenige Bandbreite im Gehör,<br />
innerhalb derer sämtliche Signale gemeinsam verarbeitet und zu einem<br />
„Erregungspegel“ zusammengefaßt werden, der der Lautheitswahrnehmung zugrunde<br />
liegt. Wenn das Signalspektrum in verschiedene Frequenzgruppen fällt, wird nicht mehr<br />
die Leistung aufsummiert, sondern die Teil-Lautheiten in den verschiedenen<br />
Frequenzgruppen.<br />
Abbildung 5: Erregungspegelmuster<br />
Eine Vorstellung zum Zustandekommen der Frequenzgruppe und der Frequenzauflösung im<br />
auditorischen System ist die Erregungsverteilung auf der Basilarmembran (vgl. Abbildung 5). Bei einem<br />
Sinus-Ton mit f1 wird die Basilarmembran nicht nur bei dieser Frequenz, sondern im schwächerem Maße<br />
auch bei den darüber- bzw. darunterliegenden Frequenzen angeregt. Wenn auf der x-Achse die Frequenz<br />
in Bark aufgetragen ist, kann diese Verbreiterung der Erregung als ein dreieckförmiges Muster dargestellt<br />
werden, dessen Flanken zu tiefen Frequenzen mit etwa 25 dB pro Bark ansteigen und zu hohen<br />
Frequenzen mit etwa 10 dB pro Bark abfallen. Bei hohen Pegeln werden diese Flanken flacher. Wird nun<br />
ein weiterer Sinus-Ton mit einer Frequenz f2 mit einem Pegel angeboten, der unterhalb dieses<br />
68
Erregungspegels bei der Frequenz f2 liegt, wird dieser zusätzliche Ton vom ersten Ton vollständig<br />
maskiert, d. h. der zweite Ton wird im Beisein des ersten Tons nicht mehr gehört. Durch derartige<br />
Verdeckungsexperimente kann die Form und Steilheit der Erregungspegel-Verteilung über der Frequenz<br />
ausgemessen werden.<br />
Um aus derartigen Experimenten auf die Frequenz-Gruppe zu schließen, wird meist ein<br />
Notched-Noise verwendet, bei dem ein Rauschen nur unterhalb einer Grenzfrequenz fu<br />
und oberhalb einer Frequenz fo vorliegt. Je schmaler die zwischen fu und f0 liegende<br />
spektrale Lücke („notch“) ist, desto höher liegt die Mithörschwelle eines in diesem<br />
Frequenzbereich liegenden Tons, d. h. der Pegel des Tons muß relativ hoch sein, damit<br />
er gehört wird. Aus der Abnahme dieser Mithörschwelle mit zunehmender Breite der<br />
spektralen Lücke kann auf die Frequenzgruppenbreite geschlossen werden, die in<br />
Einheiten einer „equivalent rectangular bandwidth“(ERB) nach Moore und Glasberg<br />
(1987) gemessen wird. Darauf beruht die ebenfalls in Abb. 3 angegebene ERB-Skala,<br />
die sehr ähnlich der Bark-Skala ist.<br />
Die Verteilung der Erregungspegel über der Frequenz kann <strong>für</strong> die Berechnung der<br />
Lautheit verwendet werden, wobei die sich überlappenden Bereiche des<br />
Erregungspegel-Verlaufs <strong>für</strong> verschiedene Frequenzen nur einmal berücksichtigt<br />
werden. Dazu wird bei jeder Frequenzgruppe der Erregungspegel gemäß dem<br />
Potenzgesetz (Gleichung 8.1) umgeformt. Die Gesamt-Lautheit wird dann durch<br />
Integration (Aufsummation) der spezifischen Lautheiten über sämtliche Frequenzen<br />
gebildet. Diese Berechnung entspricht dem nach Iso 532 B genormten Lautheitsmodell<br />
nach Zwicker, das <strong>für</strong> stationäre Schallsignale die subjektiv empfundene Lautheit in<br />
sone sehr gut berechnen kann. Dabei werden sowohl spektrale Maskierungseffekte als<br />
auch Lautheitssummations-Effekte und Kombinationen dieser Effekte richtig<br />
vorhergesagt. Eine Anwendung auf zeitlich stark schwankende Schall (wie z. B.<br />
Sprache) ist jedoch problematisch, da das Modell <strong>für</strong> stationäre Signale entwickelt<br />
wurde.<br />
Die Frequenzgruppe läßt sich auch mit einer Reihe weiterer Maskierungsexperimente bestimmen, bei<br />
denen sich der maskierende Schall (meistens ein Rauschen) stark im Frequenzbereich ändert, z. B.<br />
sinusförmige Änderung im Frequenzbereich („ripple-noise“), Tiefpaßrauschen oder Hochpaßrauschen.<br />
Für alle Fälle werden ähnliche Frequenzgruppenbreiten gemessen, wobei sich neben der Breite dieser<br />
Frequenzgruppen auch die effektive Form der Filter im Gehör angeben läßt, mit denen jeweils ein<br />
begrenzter Frequenzbereich analysiert und zu einer Frequenzgruppe zusammengefaßt wird. Die<br />
einfachste Form ist rechteckförmig, eine realistischere Filterform ist ein gerundetes Exponentialfilter<br />
dessen Flanken die Verhältnisse im Erregungspegelmuster wiederspiegeln. Man darf sich eine<br />
Frequenzgruppe nicht als eine starre, bei einer festen Frequenz gelegene rechteckförmige Filterung des<br />
Schallsignals vorstellen, sondern eine kontinuierliche, bei jeder Mittenfrequenz auftretende Filterung mit<br />
einer abgerundeten, kontinuierlichen Filterform.<br />
69
Im Gegensatz zu der relativ geringen Frequenzauflösung durch die<br />
Frequenzgruppenfilter bei der Maskierung steht die sehr hohe Frequenzauflösung bei<br />
der Diskrimination verschiedener Frequenzen, die nicht gleichzeitig, sondern in Folge<br />
angeboten werden. Dies bei der Musikwahrnehmung (z. B. beim Stimmen von<br />
Instrumenten) wichtige Phänomen der Tonhöhenunterscheidung ermöglicht einen<br />
kleinsten hörbaren Frequenzunterschied von etwa 3 Hz <strong>für</strong> Frequenzen unterhalb von<br />
500 Hz und etwa 0,6 % <strong>für</strong> Frequenzen über 1000 Hz. Dies entspricht ungefähr 1/30<br />
Bark, d.h. die Tonhöhenunterscheidung ist wesentlich feiner als die Maskierung im<br />
Frequenzbereich. Dies liegt an der massiven Parallelverarbeitung im Gehör: Wenn die<br />
Frequenz eines einzelnen Sinustons um wenige Herz verschoben wird, verschiebt sich<br />
das ganze Erregungsmuster auf der Basilarmembran, so daß im Mittel über sämtliche<br />
beteiligten Nervenfasern selbst ein kleiner Unterschied in der Verschiebung des<br />
Erregungsmusters feststellbar ist, obwohl das von einem einzelnen Ton hervorgerufene<br />
Erregungsmuster selbst relativ breit sein kann. Daher mißt die Frequenzauflösung<br />
(Diskrimination) eine andere Leistung des Gehörs als die Maskierung im<br />
Frequenzbereich, die auch als spektrale Integration bezeichnet werden kann.<br />
1.3 Zeitliche Verarbeitung im Hörsystem<br />
Neben der spektralen Verschmierung (Integration) und Frequenzauflösung spielt die<br />
zeitliche Verarbeitung von akustischen Signalen im auditorischen System eine wichtige<br />
Rolle, die ebenfalls durch eine zeitliche Verschmierung (Zeitintegration) und eine<br />
Zeitauflösung gekennzeichnet werden kann. Die zeitliche Integration bezeichnet dabei<br />
die Fähigkeit, einen lang andauernden, stationären Klang bei gleichem Pegel als lauter<br />
wahrzunehmen als einen kurzen Klang. Diese Eigenschaft kann mit einem<br />
Maskierungsexperiment demonstriert werden (vgl. Abbildung 6), bei der die<br />
Mithörschwelle <strong>für</strong> einen Signalton bestimmt wird, d. h. der Pegel, bei dem der Ton im<br />
Rauschen soeben noch hörbar ist. Sie nimmt mit zunehmender Dauer T des Testtons<br />
ab und erreicht <strong>für</strong> Werte von etwa 200 ms einen stabilen Wert, der durch weitere<br />
Verlängerungen des Tons nicht mehr verändert wird. Diese Eigenschaft kann durch eine<br />
Energieintegration über einen Bereich von 200 ms erklärt werden. Bei<br />
Innenohrschwerhörenden ist diese Energie-Summation gestört, so daß die Schwelle bei<br />
zunehmender Dauer T nicht weiter abnimmt.<br />
70
Abbildung 6: Zeitliche Integration (Schema, s. Text)<br />
Die zeitliche Verschmierung der internen Repräsentation akustischer Signale läßt sich<br />
durch die psychoakustisch meßbaren Phänomene der Nachverdeckung und<br />
Vorverdeckung beschreiben. Bei der Nachverdeckung wird ein Testsignal (z. B. ein<br />
kurzer Testtonpuls) zeitlich nach dem Abschalten eines Maskierungssignals (z. B.<br />
Rauschen) angeboten und der Pegel des Tons wird solange variiert, bis er soeben nicht<br />
mehr hörbar ist (Mithörschwelle). Diese Mithörschwelle nimmt mit zunehmendem<br />
Abstand des Testtons vom Maskierende ab und erreicht bei etwa 200 ms die<br />
Ruhehörschwelle. Dabei ist der Verlauf dieser Nachverdeckungskurve abhängig von der<br />
Maskiererdauer, d. h. vom Adaptationszustand des auditorischen Systems (vgl.<br />
Abbildung 7). Bei der Vorverdeckung wird der Testton dagegen nicht nach dem<br />
Abschalten, sondern zeitlich vor dem Anschalten eines Maskierers angeboten, wobei<br />
sich eine ähnliche Verschmierung der Mithörschwelle als Funktion der Verzögerungszeit<br />
ergibt wie bei der Nachverdeckung. Allerdings ist der Zeitbereich, über den sich die<br />
Vorverdeckung erstreckt, wesentlich kürzer (etwa 10 ms) und es ergibt sich keine<br />
vergleichbar starke Abhängigkeit von der Dauer des Maskierers.<br />
Einen kombinierten Effekt von Vor- und Nachverdeckung beobachtet man bei der<br />
Lückendetektion (Englisch: Gapdetection), bei der die kleinste in einem Rauschen<br />
wahrnehmbare Pausendauer gemessen wird (vgl. Abb. 8). Da aufgrund der zeitlichen<br />
Verschmierung im auditorischen System kleine Lücken im Rauschen nicht<br />
wahrgenommen werden können, liegt bei Normalhörenden bei der Verwendung von<br />
breitbandigen Rauschen die minimal detektierbare Lückendauer bei etwa 8 ms. Da sie<br />
ein einfach und schnell zu bestimmendes Maß <strong>für</strong> die zeitliche Verarbeitung ist, wird sie<br />
oft zur Charakterisierung der gestörten zeitlichen Verarbeitung bei Schwerhörenden<br />
eingesetzt, wobei aufgrund starker interindividueller Schwankungen Werte zwischen 8<br />
und 100 ms auftreten können.<br />
71
Abbildung 7: Nachverdeckung<br />
Abbildung 8: Gap-detection<br />
Eine weitere Eigenschaft der zeitlichen Verarbeitung akustischer Signale ist die<br />
Modulationswahrnehmung, d. h. die Wahrnehmung von Schallen mit einer<br />
aufgeprägten (z. B. sinusförmig variierenden) Einhüllenden (vgl. Abb. 9). Als<br />
Trägersignale können Sinussignale oder Rauschen verwendet werden, während als<br />
Modulationssignale (d. h. Verformung der Einhüllenden) zumeist sinusförmige Signale<br />
mit einer bestimmten Modulationsfrequenz fmod verwendet werden. Eine derartige<br />
Signalform ist sehr ähnlich der Form von Sprache, weil bei der Sprachartikulation ein<br />
Trägersignal (z. B. die Schwingung der Stimmritze) durch den Vokaltrakt in der Intensität<br />
zeitlich stark verändert wird. Im Modulationsfrequenzbereich zwischen 0 und etwa 10 Hz<br />
werden Modulationen als Schwankungen der Lautstärke wahrgenommen, die<br />
Empfindung wird als Schwankungsstärke bezeichnet. Bei Frequenzen zwischen etwa<br />
10 und 20 Hz entsteht ein „knarrender“ Klangeindruck, der auch als R-Rauhigkeit<br />
bezeichnet wird, während Modulationen zwischen etwa 20 Hz und 80 Hz als Rauhigkeit<br />
des Klanges wahrgenommen werden können. Bei noch höheren Modulationsfrequenzen<br />
treten im Frequenzspektrum des akustischen Signals Seitenlinien auf, die aufgrund der<br />
spektralen Verfärbung als Klangänderungen wahrgenommen werden können.<br />
72
Abbildung 9: Moduliertes Signal, PMTF <strong>für</strong> breitbandige Träger, d. h. der kleinste detektierbare<br />
Modulationsgrad als Funktion der Modulationsfrequenz<br />
Als Maß <strong>für</strong> die Zeitauflösung kann die psychoakustische Modulationstransfer-<br />
Funktion bestimmt werden, d. h. <strong>für</strong> jede Modulationsfrequenz derjenige<br />
Modulationsgrad m, der soeben noch wahrgenommen werden kann. Sie zeigt <strong>für</strong><br />
Modulationen von etwa 4 Hz ein Maximum (dies entspricht in etwa der<br />
Sprachsilbenfrequenz und ist daher gut an die zu empfangene Sprache angepaßt) und<br />
<strong>für</strong> zunehmende Modulationsfrequenzen wird die Empfindlichkeit geringer. Diese<br />
Modulations-Tiefpaßcharakteristik des auditorischen Systems korrespondiert zu der<br />
zeitlichen Verschmierung, die in den Vor- und Nachverdeckungsexperimenten<br />
aufgezeigt wurde.<br />
Abbildung 10: Verarbeitungsmodell nach Dau et al.<br />
73
Um die verschiedenen zeitlichen Eigenschaften des Hörsystems (zeitliche Integration,<br />
Vor- und Nachverdeckung, Modulationswahrnehmung) mit möglichst wenig Annahmen<br />
beschreiben zu können, wurden Hörmodelle zur zeitlichen Verarbeitung aufgestellt. Bei<br />
dem in Abbildung 10 schematisch dargestellten Verarbeitungsmodell nach Dau et al.<br />
(1997) wird die Verarbeitung unterschiedlicher Frequenzen zunächst durch eine<br />
Filterbank beschrieben, die das Eingangssignal in verschiedene Frequenzgruppenbreite<br />
Bandpaß-Signale aufteilt. In jedem Bandpaßsignal wird eine Halbwellengleichrichtung<br />
mit Tiefpaßfilterung durchgeführt, das ungefähr der Aktion der Haarzellen entspricht und<br />
eine Extraktion der Einhüllenden bewirkt. Die zeitlichen Verarbeitungs-Eigenschaften<br />
werden durch die nachgeschalteten Adaptations-Schleifen nachgebildet, bei denen das<br />
Eingangssignal durch das tiefpaßgefilterte Ausgangssignal geteilt wird. Dadurch wird<br />
eine gewisse Adaptation an den Mittelwert des Eingangssignals ermöglicht, während<br />
schnelle Änderungen (Fluktuationen) ohne weitere Beeinflussung durchgelassen<br />
werden. Durch Hintereinanderschalten mehrerer dieser Nachregelschleifen mit<br />
unterschiedlichen Zeitkonstanten zwischen 1ms und 500 ms wird approximativ eine<br />
logarithmische Kompression <strong>für</strong> langsame Änderungen im Eingangssignal erreicht und<br />
eine unveränderte Durchlässigkeit <strong>für</strong> schnelle Änderungen im Eingangssignal. Mit<br />
dieser Modellstruktur lassen sich Vor- und Nachverdeckung sowie die Lückendetektion<br />
(Gap detection) bereits sehr gut beschreiben. Die zeitliche Integration von Testtönen<br />
und die Modulationswahrnehmung kann durch Einfügen einer Modulationsfilterbank<br />
erreicht werden, die <strong>für</strong> jede Mittenfrequenz die Einhüllenden-Fluktuationen in<br />
verschiedene Modulationsfrequenzen aufspaltet. Am Ausgang dieser<br />
Modulationsfilterbank steht ein bestimmtes, zeitlich variables Muster zur Verfügung, das<br />
die interne Repräsentation von akustischen Signalen darstellen soll. Mit dieser<br />
internen Repräsentation lassen sich verschiedene Experimente einfach dadurch<br />
beschreiben, daß eine bestimmte, minimale Änderung in dieser Repräsentation zur<br />
Wahrnehmung eines Unterschieds im Klang führt, der gerade zur Detektion des<br />
„gesuchten“ akustischen Stimulus führt.<br />
1.4 Binaurale Interaktion<br />
Neben den bisher beschriebenen Leistungen des Gehörs bei der Intensitäts-, Frequenz-<br />
, und Zeitverarbeitung im auditorischen System ist die binaurale Interaktion, d. h. die im<br />
Gehirn stattfindende vergleichende Verarbeitung der an beiden Ohren anliegenden<br />
Signale von besonderer Wichtigkeit <strong>für</strong> das Hören in natürlicher Umgebung. Es trägt<br />
signifikant zur Hallunterdrückung, zur Ortung (Lokalisation) von Schallquellen im<br />
Raum und zur Unterdrückung von „unerwünschten“ Störgeräuschquellen in realen<br />
akustischen Situationen bei.<br />
74
Abbildung 11: Physikalische Merkmale <strong>für</strong> die Lokalisation<br />
Wenn eine Schallquelle so im Raum angeordnet ist, daß der von ihr ausgesendete<br />
Schall mit einem bestimmten Einfallswinkel auf den Kopf des Hörers fällt, bewirkt dieser<br />
(winkelabhängige) Schalleinfall eine interaurale Zeitverzögerung (d. h. der Schall<br />
erreicht das der Schallquelle zugewandte Ohr eher als das abgewandte Ohr), einen<br />
interauralen Intensitätsunterschied (d. h. das der Schallquelle zugewandte Ohr<br />
empfängt eine höhere Schallintensität), sowie eine von der Einfallsrichtung abhängige<br />
spektrale Verfärbung (d. h. der Frequenzgehalt des empfangenen Schalls wird je nach<br />
Einfallsrichtung unterschiedlich verändert vgl. Abb. 11.). Aufgrund dieser akustischen<br />
Merkmale ist der normalhörende Mensch bei breitbandigen Signalen in der Lage, den<br />
Ort einer Schallquelle aus der Vorne-Richtung mit einer Ungenauigkeit von etwa 1 Grad<br />
bzw. bei seitlichem Einfall oder Schalleinfall von oben mit einer Ungenauigkeit von etwa<br />
5 Grad aufzulösen. Diese erstaunlich hohe Ortungsleistung wird allerdings bei<br />
schmalbandigen Signalen und bei Vorliegen von Nachhall bzw. Echo eingeschränkt.<br />
Dieser Effekt ist darauf zurückzuführen, daß die bei einer bestimmten Frequenz anliegenden interauralen<br />
Intensitäts- und Zeitunterschiede nicht eindeutig zu einer bestimmten Einfallsrichtung gehören, sondern<br />
daß mehrere Schalleinfallsrichtungen bei derselben Frequenz zu denselben interauralen Intensitäts- und<br />
Zeitunterschieden führen können. Beispielsweise führen sämtliche Einfallsrichtungen in der Medianebene<br />
zu einer interauralen Zeit- und Laufzeitdifferenz von ungefähr 0, so daß bei schmalbandigen Signalen<br />
nicht sicher zwischen der Vorne-, Oben-, und Hinten-Einfallsrichtung unterschieden werden kann und es<br />
zu Richtungsverwechselungen kommt. Ein Schalleinfall von vorne links kann in ähnlicher Weise mit<br />
einem Schalleinfall von hinten links und Einfallsrichtungen verwechselt werden, die auf den sogenannten<br />
„Cone of Confusion“ liegen. Bei schmalbandigen akustischen Signalen werden zudem bestimmte<br />
Frequenzen zu bestimmten Schalleinfallsrichtungen zugeordnet („richtungsbestimmende Bänder“<br />
nach Blauert, 1974), so daß hier die spektrale Information teilweise die Information aus den interauralen<br />
Zeit- und Intensitätsunterschieden überschreibt. Erst bei breitbandiger Schalldarbietung kann durch den<br />
Vergleich über mehrere Frequenzen hinweg eine eindeutige, sämtliche Mehrdeutigkeiten bei<br />
schmalbandiger Signaldarbeitung vermeidende Lokalisation durchgeführt werden.<br />
Die Rolle der interauralen Zeit- und Intensitätsdifferenzen <strong>für</strong> die Lokalisation und die<br />
binaurale Verarbeitung kann mit Kopfhörer-Experimenten erforscht werden, bei denen<br />
jeder dieser physikalischen Parameter einzeln variiert werden kann. So stellt sich<br />
75
heraus, daß die interauralen Zeitdifferenzen insbesondere bei niedrigen Frequenzen<br />
(unter 1,5 kHz) eine dominierende Rolle <strong>für</strong> die Lokalisation spielen und der kleinste<br />
wahrnehmbare interaurale Zeitunterschied etwa 20 μs beträgt, während er oberhalb von<br />
1,5 kHz etwa 50 μs beträgt. Die interauralen Intensitäts-Unterschieds-Schwellen<br />
betragen dagegen unterhalb von 1,5 kHz etwa 3 dB und oberhalb von 1,5 kHz etwa<br />
1 dB, so daß sie besonders bei hohen Frequenzen <strong>für</strong> die Lokalisation dominant sind.<br />
Diese bereits von Lord Rayleigh (1877) formulierte Duplex-Theorie des binauralen<br />
Hörens hat ihre physikalische Begründung darin, daß bei niedrigen Frequenzen<br />
aufgrund der (relativ zum Kopfdurchmesser) großen Schallwellenlänge nur geringe<br />
Intensitätsunterschiede zwischen den beiden Ohren auftreten, so daß<br />
Intensitätsunterschiede erst bei hohen Frequenzen veläßlich ausgewertet werden<br />
können. Bei niedrigen Frequenzen können die Neuronen im auditorischen System der<br />
Schallwellenform noch sehr gut folgen und daher interaurale Zeit-Unterschiede gut<br />
detektieren, während bei hohen Frequenzen interaurale Zeit-Differenzen nur im<br />
Einhüllenden-Verlauf der Signale, nicht jedoch in der (von den Neuronen nicht mehr<br />
aufgelösten) Feinstruktur der übertragenden Signale erfaßt werden können.<br />
Abbildung 12: Binaurale Störgeräuschbefreiung<br />
Zur Erfassung der Störgeräuschbefreiung im binauralen System kann ein psychoakustisches<br />
Experiment verwendet werden, bei dem die Detektion von Testtönen im Rauschen zwischen der<br />
binauralen und der monauralen Situation verglichen werden (vgl. Abb. 12). Zunächst wird der<br />
Versuchsperson ein Ton im Rauschen angeboten, dessen Pegel solange verringert wird, bis die<br />
Versuchsperson ihn nicht mehr hört (Mithörschwelle). Wenn anschließend dasselbe Rauschen am<br />
anderen Ohr gleichzeitig angeboten wird, wird die wahrgenommene Lautheit des Rauschens zwar höher,<br />
der Ton wird jedoch wieder hörbar, so daß eine Verringerung der Mithörschwelle gemessen werden kann,<br />
die als binaurale Masking Level Difference (MLD) bezeichnet wird. Ihre Größe hängt von der<br />
interauralen Phasenlage des Testtons und der zwischen den beiden Ohren bestehenden Beziehung<br />
zwischen dem Rauschen ab. Beispielsweise wird die MLD maximal (ca. 14-18 dB), wenn dasselbe<br />
Rauschen und ein um 180 Grad (Phase π) verschobener Sinuston bei etwa 500 Hz verwendet wird. Keine<br />
MLD tritt dagegen auf, wenn <strong>für</strong> das Rauschen und das Signal dieselbe Beziehung an beiden Ohren<br />
vorliegt (z. B. bei identischem Rauschen und identischem Ton an beiden Ohren oder bei<br />
Phaseninvertierung zwischen beiden Ohren).<br />
In einer guten Näherung kann diese Störgeräuschunterdrückung des binauralen Systems durch eine (mit<br />
Restfehlern behaftete) Subtraktion der beiden Ohrsignale aufgefaßt werden, die im Gehirn nach einer<br />
Anpassung der vom rechten und linken Ohr stammenden Signale (z. B. durch entsprechende<br />
Zeitverzögerung und Amplituden-Anpassung) vorgenommen wird. Mit dieser als „Equalization and<br />
Cancellation Theory“ (EC-Theorie) nach Durlach (1972) bezeichneten Modellvorstellung kann bereits eine<br />
76
Vielzahl der binauralen Maskierungsexperimente quantitativ gedeutet werden. Ein eher auf<br />
physiologischen Vorstellungen basierendes Modell der binauralen Signalverarbeitung wurde dagegen von<br />
Jeffress (1948) aufgestellt. Es sieht eine Art neuronales Kreuzkorrelations-Netzwerk vor, bei dem die an<br />
den beiden Ohren ankommenden Signale in einer Laufzeitkette sukzessiv zeitverzögert werden und durch<br />
Koinzidenz-Detektoren die Laufzeitunterschiede zwischen den beiden Ohren jeweils abgegriffen werden.<br />
Auf der Basis dieses Modells wurden in der neueren Literatur eine Reihe weiterer Modelle entwickelt, die<br />
die binaurale Signalverarbeitung einschließlich einer Reihe von Effekten richtig vorhersagen (z. B. die<br />
Lateralisation bzw. Lokalisation von Schallereignissen mit bestimmter interauraler Zeit- und<br />
Pegeldifferenz, das Gesetz der ersten Wellenfront, die MLD <strong>für</strong> verschiedene Signale und Maskierer,<br />
sowie zeitliche und spektrale Eigenschaften dieser Effekte). Da auf diesem Gebiet noch weiter intensiv<br />
geforscht wird, sei auf die weiterführende Literatur von Blauert (1983) und Colburn (1996) verwiesen.<br />
2. Psychoakustik des pathologischen Gehörs<br />
-Intensitätsabbildung<br />
Bei sämtlichen Formen der Schwerhörigkeit tritt ein Hörverlust auf, d. h. eine<br />
Verringerung der Sensitivität des Hörorgans <strong>für</strong> Schall. Der Pegel eines akustischen<br />
Signals muß daher gegenüber Normalhörenden angehoben werden, um eine<br />
Empfindung hervorzurufen, d. h. die Hörschwelle ist angehoben. Die<br />
Frequenzabhängigkeit der Hörschwelle wird im Tonschwellenaudiogramm erfaßt. Bei<br />
weiterer Erhöhung des Pegels ergibt sich ein Anstieg der Lautheit, der bei<br />
Innenohrschwerhörigen in der Regel steiler ist als bei Normalhörenden (Recruitment).<br />
Dieser Effekt führt zu dem bei vielen Schwerhörenden beobachteten Phänomen, daß sie<br />
bei niedrigen Sprachlautstärken nichts verstehen. Wenn der Gesprächspartner<br />
aufgefordert wird, doch etwas lauter zu reden, beklagen sich die Schwerhörigen<br />
darüber, daß es schnell zu laut ist und die Sprecher nicht gleich schreien sollen. Dieses<br />
Phänomen kann mit überschwelligen Tests erfaßt werden. In der Routine-Audiometrie<br />
wird bei seitendifferentem Hörverlust dazu der Fowler-Test verwendet.<br />
Den Lautheitsanstieg mit zunehmenden Pegel kann man <strong>für</strong> jedes Ohr separat mit der<br />
Hörflächenskalierung ermitteln, bei der sich bei Patienten mit Recruitment ein steilerer<br />
Anstieg der Kategoriallautheit ergibt. Die Steigung dieser Lautheitsfunktion ist jedoch<br />
individuell sehr unterschiedlich und kann möglicherweise von dem Verhältnis der<br />
Schädigung innerer und äußerer Haarzellen abhängen (vgl. 3.2). Daher ist der<br />
Kompressionsverlust des auditorischen Systems, der sich in der Steigung der<br />
Hörflächenskalierung ausdrückt, der als eine weitere, vom Hörverlust weitgehend<br />
unabhängige Komponente zu erfassen. Der Kompressionsverlust nimmt mit<br />
zunehmenden Hörverlust zwar tendenziell zu, läßt sich aufgrund der großen<br />
individuellen Schwankungen aber nicht daraus vorhersagen (vgl. Kießling, 1995, Launer<br />
et al, 1996). Bei Schalleitungs-Schwerhörigkeit ist die Pegel-Lautheitsfunktion der<br />
Hörflächenskalierung zu höheren Pegeln hin verschoben. Aufgrund des<br />
Adaptationseffektes ist diese Verschiebung jedoch nicht so groß wie der an der<br />
Schwelle meßbare Hörverlust. Außerdem kann auch die Steigung leicht variieren, so<br />
77
daß die Hörflächenskalierung keine sichere Unterscheidungsmöglichkeit zwischen<br />
Schalleitungs- und Schallempfindungs-Schwerhörigkeit bietet.<br />
Abbildung 13: Intensitäts-JND <strong>für</strong> verschiedene Schwerhörigkeitsformen<br />
Für die Schalleitungs-Schwerhörigkeit verschiebt sich die Pegelabhängigkeit der<br />
Intensitätsauflösung (d. h. der kleinste hörbare Intensitätsunterschied, Intensitäts-Just<br />
Noticeable Difference, JND) <strong>für</strong> Sinustöne zu höheren Pegeln (Abb 13). Bei<br />
Innenohrschwerhörigen mit Recruitment geschieht die Abnahme der Intensitäts-JND<br />
dagegen in einem wesentlich kleineren Pegelbereich. Sie haben bei derselben<br />
wahrgenommenen Lautheit ungefähr die gleiche bzw. eine geringgradig erhöhte<br />
Intensitäts-JND wie Normalhörende. Die früher verbreitete Annahme, daß Innenohr-<br />
Schwerhörende eine kleinere Intensitäts-JND besitzen, weil sie einen steileren<br />
Lautheitsanstieg haben, hat sich als falsch herausgestellt (Hohmann, 1993). Wenn man<br />
die Intensitäts-Diskrimination allerdings knapp oberhalb der Hörschwelle mißt (z. B.<br />
20 dB wie beim SISI-Test in der überschwelligen Audiometrie), können<br />
Innenohrschwerhörige etwas niedrigere Diskriminations-Schwellen erreichen, weil sie<br />
dort eine größere Lautheit wahrnehmen als Normalhörende. Allerdings ist diese<br />
Diskriminationsschwelle sehr variabel, so daß der SISI-Test ein sehr indirektes Maß <strong>für</strong><br />
ein Recruitment darstellt, was sich als sehr unzuverlässig herausgestellt hat. Bei<br />
breitbandigen Signalen (z. B. Rauschen oder Sprache) hängt die Intensitäts-<br />
Diskrimination sehr wenig vom Pegel ab. Innenohrschwerhörige zeigen daher in ihrem<br />
Dynamikbereich eine leicht erhöhte Intensitäts-JND gegenüber Normalhörenden, wobei<br />
jedoch die gleiche (geringere) Pegelabhängigkeit auftritt. Bei hochgradig Schwerhörigen<br />
mit einer sensorineuralen Schwerhörigkeit bzw. bei Patienten mit einer neuralen<br />
Schwerhörigkeit kann die Intensitäts-JND relativ stark erhöht sein, so daß es diesen<br />
Patienten schwerfällt, akustische Signale (wie z. B. Sprache) in ihrem auditorischen<br />
System richtig abzubilden und zu verstehen.<br />
-Frequenz- und Zeitabbildung<br />
Bei Schalleitungsschwerhörigkeit treten keine nennenswerten Abweichungen in den<br />
überschwelligen Funktionen gegenüber Normalhörenden auf, sofern der<br />
Darbietungspegel auf die individuelle Hörschwelle bezogen wird. Im folgenden sollen<br />
daher nur die bei sensorineuralen Schwerhörigkeiten auftretenden Veränderungen der<br />
Frequenz- und Zeitabbildung betrachtet werden:<br />
78
Aufgrund der bei Schädigung der äußeren Haarzellen verringerten Frequenzselektivität<br />
des Gehörs nimmt auch die psychoakustisch meßbare Frequenzauflösung des Gehörs<br />
ab. Dies macht sich in einer Verbreiterung der Frequenzgruppe bemerkbar, d. h. bei<br />
Innenohrschwerhörenden wird ein größerer spektraler Bereich im Gehör<br />
zusammengefaßt, um die Lautheit und die Maskierung zu bestimmen (s. Abb. 14). Die<br />
Verbreiterung der Frequenzgruppe führt zu einem Anstieg der Mithörschwelle im<br />
Rauschen, d. h. ein in einem Rauschen versteckter Testton muß stärker im Pegel erhöht<br />
werden als bei Normalhörenden, um detektiert werden zu können. Dies liegt daran, daß<br />
mehr Energie von benachbarten Frequenzen zur Maskierung des Ziel-Testtons beiträgt.<br />
Allerdings hängt diese Verbreiterung vom Signalpegel ab: Auch bei Normalhörenden tritt<br />
eine Verbreiterung der Frequenzgruppe mit hohem Pegel auf. Daher sollte man die<br />
Frequenzgruppe von Schwerhörenden nicht bei gleichem Pegel über der individuellen<br />
Hörschwelle, sondern bei gleichem absoluten Pegel vergleichen. Dabei ist die<br />
Frequenzgruppe von Schwerhörenden nur geringgradig gegenüber der von<br />
Normalhörenden verbreitert. Bei einer entsprechenden Anhebung des Pegels über die<br />
Hörschwelle des Innenohrschwerhörigen (z. B. durch ein Hörgerät) wird daher der Effekt<br />
der verbreiterten Frequenzgruppe geringer.<br />
Abbildung 14: Frequenzgruppenbreite als Funktion des Pegels <strong>für</strong> Normal- und Innenohrschwerhörende<br />
Die Zeitauflösung bei Innenohrschwerhörigen ist ebenfalls verringert, d. h. man mißt<br />
eine verlängerte Vor- und Nachverdeckung und eine Verlängerung der kleinsten<br />
detektierbaren Pausendauer im Rauschen. Allerdings ist hier genau wie bei der<br />
Frequenzauflösung die Pegelabhängigkeit zu berücksichtigen, da bei den Innenohrschwerhörenden<br />
ein wesentlich kleinerer Pegelbereich zur Verfügung steht als bei<br />
Normalhörenden. Wenn man die Experimente bei dem gleichen Pegel oberhalb der<br />
Ruhehörschwelle (bzw. bei der gleichen wahrgenommenen Lautheit) durchführt und<br />
auch den Effekt des Recruitments berücksichtigt, ist die Zeitauflösung nicht wesentlich<br />
gegenüber der von Normalhörenden gestört. Dies ist auch der Grund, wieso die<br />
psychoakustisch meßbare Modulations-Transferfunktion ungefähr den gleichen<br />
Tiefpaßverlauf wie bei Normalhörenden aufweist. Allerdings ist die Schwelle insgesamt<br />
79
erhöht, so daß Schwerhörende nicht so geringe Modulationstiefen detektieren können<br />
wie Normalhörende.<br />
Im Gegensatz zu den relativ wenig geänderten Zeitkonstanten bei der Zeitauflösung<br />
steht das geänderte Verhalten bei der zeitlichen Integration bei<br />
Innenohrschwerhörigen (s.o.): Während bei Normalhörenden die Wahrnehmbarkeit und<br />
die Lautstärke eines Tones mit zunehmender Tondauer bis zu einer Maximaldauer von<br />
etwa 200 ms zunimmt, tritt dieser Effekt bei Innenohrschwerhörigen nicht in gleicher<br />
Weise auf. Dies ist ein Grund da<strong>für</strong>, daß Signale, die im Rauschen versteckt sind<br />
(maskierte Signale), von Innenohrschwerhörenden erst bei wesentlich höheren Signal-<br />
Rauschverhältnissen detektiert werden können als von Normalhörenden.<br />
-Weitere auditorische Funktionen<br />
Generell zeigt sich bei Innenohrschwerhörenden eine allgemeine Verschlechterung<br />
sämtlicher psychoakustisch meßbarer auditorischer Funktionen im Vergleich zu<br />
Normalhörenden. Zu diesen eingeschränkten Funktionen gehören neben der oben<br />
erwähnten Intensitäts-, Frequenz- und Zeitauflösung auch andersartig gemessene<br />
Detektions- und Diskriminationsleistungen im Zeit- und Frequenzbereich (z. B.<br />
Tonhöhenunterscheidung), komplexere Erkennungs- und Unterscheidungsleistungen,<br />
sowie die binaurale Interaktion (d. h. die Extraktion von Unterschieden zwischen den<br />
Signalen, die an den beiden Ohren anliegen), die zur Ortung von Schallquellen und zur<br />
Trennung zwischen Nutzsignalen und Störsignalen beiträgt. Dabei stellt man fest, daß<br />
sämtliche dieser auditorischen Funktionen primär vom Hörverlust beeinflußt werden. Im<br />
Mittel über alle Patienten verschlechtern sich alle Funktionen mit zunehmendem<br />
Hörverlust. Abgesehen von diesem generellen Effekt gibt es jedoch nur sehr geringe<br />
gegenseitige Abhängigkeiten zwischen den Schädigungen in der Hörfunktion.<br />
Beispielsweise kann die Frequenzauflösung stark gestört sein und das binaurale Hören<br />
relativ intakt (oder umgekehrt). Dies führt zu der Vorstellung, daß sich Innenohr-<br />
Hörstörungen primär durch die zwei Komponenten Hörverlust und<br />
Kompressionsverlust charakterisieren lassen. Die darüber hinausgehenden<br />
Einschränkungen unterliegen einem diffusen, an unterschiedlichen Orten in<br />
verschiedener, nicht vorhersehbarer Weise wirkenden Schädigungsprozeß.<br />
3. Sprachwahrnehmung bei Normal- und Schwerhörigen<br />
Die sprachliche Kommunikation zwischen Menschen ist eine hochspezialisierte und<br />
faszinierende Leistung, die letztendlich die Grundlage unserer Kultur darstellt. Um die<br />
beim Verstehen von Sprache (und ihrer möglichen Störungen) beteiligten Prozesse<br />
verstehen zu können, muß der gesamte Übertragungsweg vom Sender (sprechender<br />
Mensch) über die akustische Darstellung von Sprache bis zum Empfänger (hörender<br />
Mensch) genau betrachtet werden.<br />
80
3.1 Sprachakustik<br />
Wenn das akustische Sprachsignal z. B. mit einem Mikrophon aufgenommen wird, läßt<br />
sich aus dem Zeitverlauf des Signals nur sehr wenig Information über das geäußerte<br />
Sprachelement ableiten. Beispielsweise kann gesehen werden, ob es sich um einen<br />
Vokal (periodisches Signal aufgrund der Stimmlippen-Schwingung) oder einen<br />
stimmlosen Konsonanten mit Rauschanteilen handelt (irreguläres Zeitsignal). Weiterhin<br />
lassen sich mit hoher Zeitauflösung zeitliche Übergänge feststellen (vgl. Abbildung 15).<br />
Eine Möglichkeit, mehr Informationen über die akustische Filterung des Sprachsignals<br />
im Vokaltrakt zu erhalten, bietet die Analyse des Frequenzgehalts des Schallsignal<br />
(Leistungsspektrum). Dabei wird <strong>für</strong> jede Frequenz über die gesamte Dauer des<br />
Signals gemittelt die Energie errechnet, die in das jeweilige Frequenzband fällt (vgl.<br />
Abbildung 15 rechts). Bei einem stationären Signal, das sich nicht zeitlich ändert (z. B.<br />
bei gehaltenen Vokalen) kann man in diesem (Leistungs-)Spektrum sehr gut die<br />
Grundfrequenz (Schwingungsfrequenz der Glottis) mit ihren Obertönen (ganzzahlige<br />
Vielfache der Grundfrequenz) erkennen, sowie die Formanten, d. h. die<br />
Frequenzbereiche, bei denen der Vokaltrakt eine besonders hohe Verstärkung des<br />
akustischen Signals bewirkt. Die Formanten stellen sich damit als Spitzen im Spektrum<br />
dar und sind charakteristisch <strong>für</strong> den jeweils artikulierten Vokal (s. unten).<br />
Abbildung 15: Zeit-Signal (unten), Spektrum (rechts) und Spektrogramm (links oben) des Wortes<br />
„Hörakustik“<br />
Da das Spektrum über eine lange Zeit gebildet wird, ist es ungeeignet zur Beurteilung<br />
der sich zeitlich stark ändernden akustischen Anteile von fließender Sprache. Es hat<br />
allerdings eine große Bedeutung als mittleres Sprachspektrum, d. h. die<br />
Energieverteilung im Frequenzbereich, die im Mittel bei einem männlichen bzw.<br />
weiblichen Sprecher auftritt (vgl. Abbildung 16). Daraus läßt sich ablesen, daß im<br />
81
Bereich der Grundfrequenzen zwischen etwa 300 und 800 Hz am meisten<br />
Sprachenergie vorliegt (Maximum des Spektrums), während zu niedrigen Frequenzen<br />
ein Abfall von etwa 20 dB pro Oktave erfolgt und zu hohen Frequenzen von etwa 10 dB<br />
pro Oktave. Die Langzeitspektren von männlichen und weiblichen bzw. kindlichen<br />
Sprechern unterscheiden sich durch die Lage des Maximums im Frequenzbereich, das<br />
bei Frauen und Kindern deutlich höher liegt als bei Männern. Mit zunehmender<br />
Sprechanstrengung verschiebt sich das spektrale Maximum zu hohen Frequenzen, so<br />
daß sich die Stimme aus dem Hintergrund (mit vorwiegend tieffrequenter Leistung)<br />
deutlicher abgrenzen läßt, ohne daß die akustische Gesamtleistung der Stimme in<br />
gleichem Maß ansteigt.<br />
Abbildung 16: Mittleres Spektrum von männlichen bzw. weiblichen Sprechern<br />
Aufgrund des Spektrums von gehaltenen Vokalen bzw. ausgeschnittenen Vokalen läßt<br />
sich ein Zusammenhang zwischen der Lage des ersten Formantens (d. h. spektrales<br />
Maximum im Bereich zwischen etwa 200 und 800 Hz), dem zweiten Formanten (zweites<br />
spektrales Maximum zwischen etwa 600 und 2.500 Hz), der Stellung der<br />
Artikulationsorgane und dem jeweils geäußerten Vokal aufstellen (Vokaldreieck bzw.<br />
Vokaltrapez, vgl. Abbildung 17).<br />
Abbildung 17: Vokaldreieck. Aufgetragen ist die Frequenz des ersten Formanten F1 (Abzisse) und des<br />
zweiten Formanten F2 (Ordinate) <strong>für</strong> unterschiedliche Vokale (schematisch)<br />
82
3.2 Sprachverständlichkeit<br />
Beim Verstehen von Sprache spielt einerseits die Sprachverständlichkeit eine Rolle,<br />
d. h. die Eigenschaft des Sprachmaterials, von einem durchschnittlichen,<br />
normalhörenden Probanden verstanden zu werden. Andererseits spielt die individuelle<br />
Sprachperzeptionsleistung eine Rolle, d. h. die von dem individuellen Patienten<br />
erbrachten Voraussetzungen zum Sprachverstehen, die mehr oder weniger stark gestört<br />
sein können. In der Sprachaudiometrie mißt man die Verständlichkeit von<br />
standardisiertem Sprachmaterial bei dem individuellen Patienten, um Rückschlüsse auf<br />
dessen Sprachperzeptionsleistungen führen zu können.<br />
3.2.1 Methoden zur Bestimmung der Sprachverständlichkeit<br />
Das <strong>für</strong> Verständlichkeitsmessungen verwendete Sprachmaterial sollte möglichst<br />
repräsentativ sein <strong>für</strong> die Sprache und <strong>für</strong> die zu betrachtende Kommunikationssituation.<br />
Dabei tritt als grundlegendes Problem die hohe Zahl von Variablen auf, <strong>für</strong> die eine<br />
möglichst vernünftige Festlegung erfolgen sollte. Zu diesen Variablen gehört die Art des<br />
Tests: „offene“ Tests, bei dem ein Test-Item (z. B. ein Wort oder Satz) dem Probanden<br />
dargeboten wird, das er möglichst korrekt wiederholen soll, und „geschlossene“ Tests,<br />
bei dem der Proband das richtige Test-Item aus einer Liste von möglichen Antworten<br />
bezeichnet. Weitere Variablen sind die Länge der Test-Items (z. B. einsilbige oder<br />
mehrsilbige Wörter oder Sätze), die Auswerte-Methode (Bewertung richtig erkannter<br />
Phoneme, Silben, Wörter oder Sätze), der Sprecher (männlicher oder weiblicher<br />
Sprecher, geschulter oder ungeschulter Sprecher oder etwa synthetische Sprache),<br />
sowie die Wahl eines Störgeräusches und einer räumlichen Anordnung von Nutzschallund<br />
Störgeräuschquelle. Jedes der gebräuchlichen Sprachtestverfahren besitzt eine<br />
eigene Kombination dieser Variablen, so daß die Test-Ergebnisse sich nicht leicht<br />
miteinander vergleichen lassen.<br />
Außerdem ist die Festlegung der Variablen abhängig vom Einsatzzweck des Tests.<br />
Beispielsweise steht bei der Diagnostik von Hörstörungen die analytische Fähigkeit des<br />
Tests im Vordergrund (d. h. die Möglichkeit, aus den auftretenden Phonem-<br />
Verwechslungen Rückschlüsse auf das gestörte Hörsystem zu ziehen), während bei der<br />
Begutachtung eher eine hohe Reproduzierbarkeit des Tests und eine hohe<br />
Repräsentanz des Sprachmaterials <strong>für</strong> alltägliche Kommunikation im Vordergrund steht.<br />
Bei der Hörgeräteanpassung ist dagegen eine hohe Sensitivität gegenüber kleinen<br />
Änderungen der Einstellparameter des Hörgerätes wichtig.<br />
Der derzeit in der Standard-Audiometrie am häufigsten eingesetzte Sprachtest, der<br />
Freiburger Wörtertest, ist ein „offener“ Test mit Einsilbern bzw. mit Mehrsilbern<br />
(Zahlen). Als Alternative dazu wurde in jüngerer Zeit das Reimtestverfahren mit<br />
83
geschlossenen Antwortalternativen eingeführt, die sich in nur einem Phonem<br />
unterscheiden und sich daher reimen (z. B. die Alternativen „Sinn“, „Hin“, „bin“, „Kinn“,<br />
„Zinn“). Dieses Verfahren vermeidet Fehlerquellen bei der Testbewertung durch den<br />
Testleiter und ist automatisierbar. Die Einsilber-Tests haben den Vorteil einer geringen<br />
Redundanz (d. h. aus einem richtig erkannten Teil des Wortes kann nicht auf den<br />
anderen, unverständlichen Teil des Wortes geschlossen werden) und bieten eine hohe<br />
analytische Aussagekraft bei den auftretenden Phonem-Verwechslungen. Da im<br />
<strong>Deutsche</strong>n Zweisilber jedoch häufiger als Einsilber sind, sind Zweisilber-Tests eher<br />
repräsentativ <strong>für</strong> die deutsche Sprache, so daß auch ein Reimtest-Verfahren <strong>für</strong><br />
Zweisilber entwickelt wurde. Sprachtests mit Sätzen bieten dagegen eine sehr<br />
realitätsnahe Kommunikations-Situation. Ihre Diskriminationsfunktion (d. h. der<br />
Prozentsatz richtig erkannter Wörter als Funktion des Sprachpegels) ist sehr steil, so<br />
daß sie eine hohe Sensitivität gegenüber Änderungen im Sprachpegel oder im Signal-<br />
Rauschabstand aufweisen. Für die deutsche Sprache gibt es den standardisierten<br />
Marburger Satztest und den neueren Göttinger Satztest. Ein Überblick über moderne<br />
Verfahren der deutschsprachigen Sprachaudiometrie findet sich bei Kollmeier (1992).<br />
3.2.2 Methoden zur Berechnung und Modellierung der Sprachverständlichkeit<br />
Um das Verstehen von Sprache quantitativ zu erfassen und die Sprachverständlichkeit<br />
<strong>für</strong> eine vorgegebene akustische Situation oder einen bestimmten Hörverlust<br />
vorhersagen zu können, wurden verschiedene Methoden zur Berechnung bzw.<br />
Vorhersage der Sprachverständlichkeit aus dem zugrundliegenden Sprachmaterial und<br />
den akustischen Gegebenheiten (z. B. Nachhall, Störgeräusch, angeborene<br />
Ruhehörschwelle) entwickelt. Die klassische Methode der<br />
Sprachverständlichkeitsvorhersage ist der Artikulations-Index (AI) und der Speech<br />
Transmison Index (STI). Sie beruhen auf der Annahme, daß die gesamte Sprach-<br />
Information auf die verschiedenen Frequenzbänder des akustischen Signals verteilt ist,<br />
und daß jedes Band einen gewissen Beitrag zur Gesamt-Sprachverständlichkeit liefert.<br />
Die Breite jedes dieser Bänder orientiert sich dabei an der Frequenz-Gruppenbreite<br />
(Bark-Skala oder in erster Näherung Terz-Bandbreite). In jedem dieser Frequenzbänder<br />
kann nun ein „effektiver“ Signal-Rauschabstand ermittelt werden, d. h. das Verhältnis<br />
zwischen der Nutzenergie des zu verstehenden Sprachsignals und den Störanteilen.<br />
Diese werden durch Nachhall oder durch ein Störrauschen verursacht, oder dadurch,<br />
daß die Energie in diesem Band unterhalb der Ruhehörschwelle des jeweiligen<br />
Patienten liegt, was durch ein angenommenes „internes Rauschen“ nachgebildet wird.<br />
Wenn der Signal-Rauschabstand in dem Band größer als 15 dB ist, geht man davon<br />
aus, daß dieses Band vollständig zur Verständlichkeit beiträgt, während bei einem<br />
Signal-Rauschabstand von kleiner als -15 dB sämtliche Sprachinformation in diesem<br />
Band maskiert ist, so daß das Band nicht zur Gesamt-Sprachverständlichkeit beiträgt.<br />
Der Signal-Rauschabstand im Band j (SNR (j)) wird also auf einen Bereich von -15dB<br />
bis +15dB begrenzt. Zur Ermittlung des Artikulationsindex wird nun eine gewichtete<br />
Mittelung über die Signal-Rauschabstände in den einzelnen Bändern durchgeführt, bei<br />
der jedes Band j mit einem Gewichtungsfaktor Wj multipliziert wird:<br />
84
∑ () 15 (1)<br />
AΙ oder STΙ= Wj⋅ [ SNR j + dB]<br />
j<br />
Die Gewichtungsfaktoren Wj sind dabei so gewählt, daß der STI oder AI nur Werte<br />
zwischen 0 (entsprechend einer Sprachverständlichkeit von 0, wenn in jedem Band nur<br />
Rauschen und keine signifikanten Sprachanteile vorliegen) und 1 variiert (vollständige<br />
Sprachverständlichkeit, da in jedem Frequenzband die Sprache von dem Rauschen<br />
kaum beeinflußt wird). Damit stellt der AΙ bzw. STΙ ein Maß <strong>für</strong> die<br />
Sprachverständlichkeit dar, das direkt mit der meßbaren mittleren<br />
Sprachverständlichkeit zusammenhängt. Diese Beziehung hängt allerdings von dem<br />
verwendeten Sprachmaterial und Test ab (vgl. Abbildung 18). Bei Sprachtests mit<br />
geringer Redundanz (z. B. bei sinnlosen oder sinnbehafteten Einsilbern) wächst die<br />
Sprachverständlichkeit mit zunehmendem AΙ bzw. STΙ nur langsam an, während die<br />
Sprachverständlichkeit bei Sätzen mit hoher Redundanz schon bei relativ kleinem AI<br />
sehr hoch ist. Dies liegt an der Möglichkeit, den Satz aufgrund des<br />
Satzzusammenhanges schon dann vollständig richtig zu verstehen, wenn nur einige<br />
Teile des Satzes verstanden werden.<br />
Abbildung 18: Sprachverständlichkeit <strong>für</strong> verschiedenes Sprachmaterial als Funktion des AΙ bzw. STΙ<br />
Mit Hilfe der in Abbildung 18 angegebenen Kurven ist es daher prinzipiell möglich, die<br />
Verständlichkeit <strong>für</strong> verschiedene Sprachmaterialien bei vorgegebenen akustischen<br />
Bedingungen ineinander umzurechnen. Es muß jedoch betont werden, daß der<br />
Artikulations Index und der Speech Transmission Index nur <strong>für</strong> den Mittelwert von<br />
Sprachverständlichkeiten über ein normalhörendes Versuchspersonenkollektiv und eine<br />
große Anzahl von Tests gelten. Für den individuellen Patienten und <strong>für</strong> die<br />
Verständlichkeit eines einzelnen Wortes oder eines einzelnen Satzes treten große<br />
Schwankungen in der Verständlichkeit auf, so daß diese Berechnungsmethode <strong>für</strong><br />
diesen Fall nicht angewendet werden kann (vgl. Kollmeier, 1990).<br />
Der STΙ unterscheidet sich vom AΙ durch die Vorgehensweise zur Berechnung des „effektiven“ Signal-<br />
Rauschabstandes SNR (j) in jedem Band j. Während beim AI das Leistungsspektrum des<br />
85
Sprachmaterials und das Leistungsspektrum des Störsignals getrennt voneinander bekannt sein müssen<br />
und ins Verhältnis gesetzt werden, wird beim STI der Signal-Rauschabstand anhand des Sprachsignals<br />
und der Mischung aus Sprachsignal und Störsignal mit Hilfe der Modulations Transfer Funktion (MTF)<br />
bestimmt. Dazu werden in jedem Frequenzbereich die im Original-Signal auftretenden Modulationen<br />
gemessen und die in der Mischung verbleibenden Modulationen werden ins Verhältnis zu den<br />
ursprünglichen Modulationen gesetzt. Wenn die ursprünglichen Modulationen vollständig erhalten sind<br />
(Modulations-Transfer-Funktion von 1), spricht dies <strong>für</strong> ein sehr hohes Signal-Rauschverhältnis, während<br />
die Anwesenheit von Störgeräusch oder von Nachhall die im gemischten Signal verbleibenden<br />
Modulationen stark verringert. Das Konzept des STΙ geht also davon aus, daß die Erhaltung der<br />
Modulationen im gemischten Signal <strong>für</strong> die Sprachverständlichkeit von entscheidender Bedeutung ist und<br />
errechnet den Signal-Rauschabstand aus diesem Erhalt der Modulationen. Dadurch können der Einfluß<br />
von Nachhall und der Einfluß von Störrauschen in gleicher Weise behandelt werden, so daß sich der STI<br />
besonders <strong>für</strong> den Einsatz in der Raumakustik bewährt hat. Die zeitlichen Eigenschaften eines<br />
Sprachübertragungssystems (z. B. des gestörten Gehörs) werden ebenfalls besser berücksichtigt als<br />
beim AΙ (vgl. Houtgast und Steneken, 1973).<br />
Abbildung 19: Perzeptionsmodell zum Sprachverstehen nach Holube und Kollmeier (1996)<br />
Neben den auf den Eigenschaften des Sprachmaterials beruhenden<br />
Berechnungsverfahren des AΙ und STΙ gibt es Modelle zur<br />
Sprachverständlichkeitsvorhersage, die sich eher an den Eigenschaften des Gehörs<br />
orientieren und die Verarbeitungsschritte bei der Sprachwahrnehmung explizit<br />
nachbilden. Als Beispiel <strong>für</strong> ein derartiges Perzeptionsmodell soll das in Abbildung 19<br />
skizzierte Modell nach Holube und Kollmeier (1996) erläutert werden: Das gestörte<br />
Sprachsignal wird zunächst einer peripheren Vorverarbeitungs-Stufe zugeführt, die die<br />
„effektive“ Signalverarbeitung im auditorischen System möglichst gut nachbildet. Die<br />
Elemente dieser Vorverarbeitungsstufe entsprechen dabei genau den anhand von<br />
psychoakustischen und physiologischen Experimenten gewonnenen<br />
Verarbeitungseinheiten. Zunächst wird eine Aufspaltung des Signals in verschiedene<br />
Frequenzbereiche vorgenommen (entspricht der Frequenz-Orts-Transformation der<br />
Basilarmembran), anschließend wird eine Extraktion der Einhüllenden und eine<br />
Adaptation mit zeitlicher Kontrastierung in jedem Frequenzkanal vorgenommen (dies<br />
entspricht ungefähr der Aktion der Haarzellen und des Hörnervs). Die statistischen<br />
Übertragungsfehler durch das Nervensystem und die Begrenzung der Empfindlichkeit<br />
durch die Ruhehörschwelle wird durch ein zusätzliches „internes“ Rauschen<br />
86
nachgebildet. Am Ausgang der peripheren Vorverarbeitungsstufe liegt dann zu jedem<br />
Zeitpunkt <strong>für</strong> jede Frequenz ein komprimierter und zeitlich kontrastierter Intensitätswert<br />
vor, der ungefähr der internen Repräsentation der akustischen Signale entspricht und<br />
eine ähnliche Darstellung der Sprachinformation wie das Spektrogramm ermöglicht.<br />
Dieselben Vorverarbeitungsschritte werden auch <strong>für</strong> ein Referenzsignal (ungestörtes<br />
Sprachsignal) durchgeführt. In einer zentralen Verarbeitungsstufe (Mustererkenner)<br />
kann dann überprüft werden, inwiefern die interne Repräsentation des Eingangssignals<br />
mit derjenigen eines vorgegebenen Vergleichsignals übereinstimmt. Diese zentrale<br />
Mustererkennung entspricht ungefähr dem Prozeß der Sprachwahrnehmung, bei dem<br />
die aktuelle akustische Wahrnehmung mit der möglichen Wahrnehmung von allen<br />
möglichen bekannten Wörtern verglichen wird. Als „erkanntes Wort“ wird dasjenige<br />
ausgewählt, dessen interne Repräsentation am ähnlichsten mit der Repräsentation des<br />
Eingangssignals ist. Dieser zentrale Verarbeitungs-Vorgang kann daher mit einem<br />
Spracherkennungsalgorithmus durchgeführt werden und bildet das „Weltwissen“ des<br />
Hörers nach.<br />
Mit einer derartigen Modellstruktur kann untersucht werden, inwiefern sich<br />
Verarbeitungsfehler in der peripheren Vorverarbeitung (z. B. Änderung der spektralen<br />
und zeitlichen Auflösung oder eine Anhebung der Ruhehörschwelle) auf die veränderte<br />
Erkennungsleistung beim Sprachverstehen auswirkt. Der Vorteil eines derartigen<br />
Modells besteht darin, daß die Sprachverständlichkeitsvorhersage nicht global, im Mittel<br />
über viele Versuchspersonen und viele Wörter erfolgen muß, sondern daß <strong>für</strong> jede<br />
individuelle Versuchsperson und jedes zu erkennende Wort eine eigene<br />
Verständlichkeitsberechnung durchgeführt werden kann. Die Vorhersagen mit diesem<br />
Modell stimmen <strong>für</strong> die Sprachverständlichkeit in Ruhe und insbesondere <strong>für</strong><br />
verschiedene Störgeräusche sehr gut mit den gemessenen Verständlichkeitswerten bei<br />
Normal- und Schwerhörenden überein (vgl. Holube und Kollmeier, 1996). Aufgrund des<br />
hohen Rechenzeitaufwandes <strong>für</strong> dieses Modell und die noch nicht in allen Einzelheiten<br />
geklärten Verarbeitungsprozesse sind jedoch noch weitere Forschungsarbeiten zu<br />
seiner Validierung notwendig.<br />
3.3 Sprachperzeption bei pathologischem Gehör<br />
Bei Schwerhörigkeit ist das Verstehen von Sprache in Ruhe und unter<br />
Störgeräuscheinfluß reduziert. In der Sprachaudiometrie wird diese Reduktion<br />
quantitativ erfaßt, in dem die Sprachverständlichkeit (d. h. der Prozentsatz korrekt<br />
verstandener Test-Items einer vorgegebenen Testliste von Wörtern, Zahlen oder<br />
Sätzen) <strong>für</strong> verschiedene Sprachpegel und <strong>für</strong> verschiedene Testbedingungen bestimmt<br />
wird (z. B. in Ruhe oder unter Störgeräusch mit unterschiedlicher räumlicher Anordnung<br />
von Störschall und Nutzschall). Das Ziel dieser Messungen ist entweder die<br />
differenzierte Diagnostik von Hörstörungen, die Begutachtung eines Hörschadens<br />
oder die Anpassung von Hörhilfen (d. h. das Ausmessen der Sprachverständlichkeit<br />
87
ohne Hörhilfe und den Gewinn an Sprachverständlichkeit, der durch die Hörhilfe erzielt<br />
wird). Für die Bestimmung der Sprachverständlichkeit gibt es mehrere Testverfahren<br />
(vgl. 1.2) von denen der Freiburger Einsilber- bzw. Zahlentest und der Marburger<br />
Satztest standardisiert sind. Neuere und weniger fehleranfällige Verfahren wie der<br />
Einsilber- oder Zweisilber-Reimtest und der Göttinger Satztest befinden sich im<br />
Erprobungsstadium.<br />
Abbildung 20: Diskriminationsfunktionen bei unterschiedlichen Pathologien (schematisch)<br />
Für den Sprachtest in Ruhe findet man bei den verschiedenen Schwerhörigkeitsformen<br />
prinzipiell die in Abbildung 20 dargestellten Diskriminationsfunktionen (d. h. Prozent<br />
Sprachverständlichkeit als Funktion des Sprachpegels). Bei Normalhörenden hängt die<br />
Steigung der Diskriminationsfunktion vom verwendeten Sprachmaterial ab: Die<br />
Diskriminationsfunktion ist relativ flach bei Einsilbern mit offenem Antwortformat, etwas<br />
steiler beim Reimtestverfahren und extrem steil (ca. 20 % Verständlichkeit pro dB) bei<br />
Sätzen wie z. B. beim Göttinger Satztest. Bei Schalleitungs-Schwerhörigkeiten ist die<br />
Diskriminationsfunktion zu hohen Pegeln hin verschoben. Bei Schallempfindungs-<br />
Schwerhörigkeiten ist die Diskriminationsfunktion ebenfalls verschoben, was auf die<br />
„Abschwächungswirkung“ des Hörverlusts zurückgeführt wird. Die darüber<br />
hinausgehende „Verzerrungswirkung“ des Hörverlusts („Fehlhörigkeit“) macht sich<br />
dagegen in einer Abflachung (Verringerung der Steigung) der Diskriminationsfunktion<br />
und in einem Diskriminationsverlust bemerkbar, d. h. die Diskriminationskurve erreicht<br />
bei hohen Pegeln nicht 100 % sondern bleibt um einen bestimmten Wert, der als<br />
Diskriminationsverlust bezeichnet wird, unterhalb von 100 %. Bei sehr hohen Pegeln<br />
kann bei einem Patienten sogar eine Verschlechterung der Sprachverständlichkeit mit<br />
zunehmendem Pegel beobachtet werden („roll-over“-Phänomen oder R-Kurve), das im<br />
Zeitalter verbesserter audiologischer Technik (verzerrungsfreie Verstärker und<br />
Kopfhörer, CD-Wiedergabe des Sprachmaterials) allerdings selten geworden ist. Die<br />
beiden erstgenannten Effekte lassen sich bei Innenohrschwerhörigen darauf<br />
zurückführen, daß sie bestimmte Wörter erst bei sehr hohen Pegeln oder überhaupt<br />
nicht verstehen können, während andere Wörter schon bei relativ niedrigen Pegeln<br />
verständlich sind. Der Übergangsbereich der Diskriminationsfunktion zwischen<br />
„unverständlich“ und „vollständig verständlich“ überdeckt daher einen größeren<br />
Pegelbereich mehr als bei Normalhörenden bzw. Schalleitungsschwerhörigen.<br />
88
Ziel der Sprachaudiometrie in Ruhe ist es nun, die wesentlichen Eigenschaften der<br />
Diskriminationsfunktion des individuellen Patienten zu erfassen, d. h. die<br />
Verständlichkeitsschwelle (der zu 50 % Sprachverständlichkeit gehörende<br />
Sprachpegel), die Steigung der Diskriminationsfunktion und den<br />
Diskriminationsverlust bzw. das Vorliegen einer R-Kurve. In der Routine-Audiometrie<br />
wird daher <strong>für</strong> die einsilbigen Wörter des Freiburger Sprachtest die<br />
Sprachverständlichkeit bei 65 dB bestimmt und bei um jeweils 15 dB erhöhtem<br />
Sprachpegel bis entweder die Erkennungsrate 100 % erreicht wird oder die<br />
Unbehaglichkeits-Schwelle überschritten wird. Daraus ergibt sich die<br />
Diskriminationsfähigkeit bei 65 dB (in %), der Pegel bei dem die höchste<br />
Erkennungsrate erzielt wird (dB Opt.), die Differenz zu 100 % bei diesem Pegel<br />
(Diskriminationsverlust in Prozent) und die Gesamtwortverständlichkeit (GWV in %),<br />
die sich aus der Summe der Erkennungsraten in Prozent bei 60, 80 und 100 dB ergibt.<br />
Bei den mehrsilbigen Zahlwörtern des Freiburger Tests wird die Erkennungsrate <strong>für</strong><br />
einen oder zwei verschiedene Pegel bestimmt. Unter Berücksichtigung der Steigung der<br />
Diskriminations-Normkurve <strong>für</strong> Normalhörende wird anschließend durch Interpolation<br />
derjenige Pegel bestimmt, bei dem 50 % der Zahlen verstanden werden. Die Differenz<br />
zu dem Wert <strong>für</strong> Normalhörende wird als Hörverlust (HV) <strong>für</strong> Zahlwörter in dB<br />
angegeben. Neuere sprachaudiometrische Testverfahren ermitteln die<br />
Sprachverständlichkeitsschwelle, den Diskriminationsverlust und die Steigung der<br />
Diskriminationsfunktion durch adaptive Messungen, bei denen der Sprachpegel in<br />
Abhängigkeit von den Antworten des Probanden variiert wird. Dadurch wird mit wenigen<br />
Versuchsschritten der Pegel maximalen Sprachverstehens ermittelt und anschließend<br />
die Sprachverständlichkeitsschwelle. Durch das Anpassen einer Diskriminationsfunktion<br />
an die Antworten des Probanden läßt sich anschließend die Steigung der<br />
Diskriminationsfunktion angeben. Diese Verfahren werden vom Computer gesteuert<br />
bzw. ausgewertet, so daß sie bei zunehmender Verbreitung der computergesteuerten<br />
Audiometrie zunehmende Bedeutung <strong>für</strong> die Praxis gewinnen werden (vgl. Kollmeier,<br />
1996).<br />
Bei der Sprachaudiometrie unter Störgeräusch interessiert vorwiegend die<br />
Sprachverständlichkeits-Schwelle, d. h. derjenige Signal-Rauschabstand (Sprachpegel<br />
in Relation zum Störgeräuschpegel), bei dem eine Sprachverständlichkeit von 50 %<br />
erzielt werden kann. Dieser Wert ist bei sensorineural Schwerhörenden in der Regel<br />
deutlich erhöht gegenüber Normalhörenden und Schalleitungs-Schwerhörigen. Dies ist<br />
ebenfalls Ausdruck der „Verzerrungswirkung“ des Hörverlusts und entspricht den<br />
Beschwerden der Schwerhörenden, daß sie unter Umgebungsgeräusch mehr<br />
Schwierigkeiten haben, einer Unterhaltung zu folgen, als in Ruhe („Cocktail-Party-Effekt“<br />
oder <strong>Gesellschaft</strong>sschwerhörigkeit). Da bei zusammenhängenden Sprachmaterialien<br />
wie einer Unterhaltung oder Sätzen eine Zunahme der Sprachverständlichkeit um etwa<br />
20 % pro Verbesserung des Signal-Rauschabstands um 1 dB erfolgt, ist eine hohe<br />
Meßgenauigkeit zur Erfassung dieser Komponente des Hörverlusts notwendig. Einen<br />
besonders großen Unterschied in der Sprachverständlichkeitsschwelle zwischen<br />
Normal- und Innenohrschwerhörigen beobachtet man bei der Verwendung von<br />
89
fluktuierenden Störgeräuschen, welche zeitliche Einhüllenden-Schwankungen in<br />
ähnlicher Weise aufweisen, wie ein einzelner, störender Sprecher (Fastl, 1987).<br />
Während Normalhörende in den „Lücken“ des Störgeräuschs noch einen Teil der<br />
Sprache gut verstehen können und daher durch ein derartig fluktuierendes Störgeräusch<br />
relativ wenig gestört sind, ist bei Innenohrschwerhörigen diese Fähigkeit stark gestört.<br />
Ein weiteres Handicap beim Sprachverstehen im Störgeräusch haben<br />
Innenohrschwerhörende gegenüber Normalhörenden in räumlichen Nutzschall-<br />
Störschallsituationen. Während Normalhörende sowohl durch monaurale Verarbeitung<br />
als auch durch binaurale Signalverarbeitung (d. h. durch den Vergleich zwischen den an<br />
beiden Ohren jeweils anliegenden Signalen) eine gewisse Störgeräuschunterdrückung<br />
durchführen können und sich auf den Nutzsprecher konzentrieren können, ist dieser<br />
Effekt bei Schwerhörenden in sehr unterschiedlichem Maße gestört.<br />
Literatur.<br />
Blauert, J. (1983): Spatial Hearing: The psychophysics of human sound localization, (Cambridge,<br />
Massachussets, MIT Press).<br />
Böhme, G., Welzl-Müller, K.: Audiometrie - Hörprüfungen im Erwachsenen- und Kindesalter. Huber, Berlin<br />
1993.<br />
Dau, T., Kollmeier, B., Kohlrausch, A. (1996). Modeling modulation perception: modulation low-pass filter<br />
or modulation filterbank. In: B. Kollmeier (Ed.),Psychoacoustics, Speech and Hearing Aids.<br />
World Scientific, Singapur, pp. 45-48.<br />
Durlach, N.I. (1972). Binaural signal detection: Equalization and cancellation theory. In: J.V. Tobias (Ed.)<br />
Foundations of Modern Auditory Theory, Academic Press, New York, Vol. 2, 363-462.<br />
Fastl, H. (1987). Ein Störgeräusch <strong>für</strong> die Sprachaudiometrie. Audiologische Akustik 26, 2-13.<br />
Festen, J.M. (1996): Temporal resolution and the importance of temporal envelope cues for speech<br />
perception. In: B. Kollmeier (Ed.), Psychoacoustics, Speech and Hearing Aids. World<br />
Scientific, Singapur, pp.95-102.<br />
Gelfand, S.A.: Hearing, an Introduction. M. Deccer, 1990.<br />
Hellbrück, J.: Hören - Physiologie, Psychologie und Pathologie. Hogrefe Verlag, Göttingen 1993.<br />
Heller, O. (1985): Hörfeldaudiometrie mit dem Verfahren der Kategorienunterteilung (KU). Psychologische<br />
Beiträge 27, 478-493.<br />
Helmholtz, H.L.F.: Die Lehre von den Tonempfindungen als physiologische Grundlage <strong>für</strong> die Theorie der<br />
Musik, Vieweg, Braunschweig, 1863.<br />
Hohmann, V. (1993). Dynamikkompression <strong>für</strong> Hörgeräte - Psychoakustische Grundlagen und<br />
Algorithmen. Fortschritt-Berichte VDI, Reihe 17 Nr. 93, Düsseldorf. Zugl.: Dissertation,<br />
<strong>Universität</strong> Göttingen.<br />
Hohmann, V., Kollmeier, B. (1995). Weiterentwicklung und klinischer Einsatz der Hörfeldskalierung.<br />
Audiol. Akustik 34 (2), 48-59.<br />
Holube, I., Kollmeier, B. (1996). Speech intelligibility prediction in hearing-impaired listeners based on a<br />
psychoacoustically motivated perception model. J. Acoust. Soc. Am. (im Druck)<br />
Houtgast, T., Steeneken, H.J.M. (1973). The modulation transfer function in room acoustics as a predictor<br />
of speech intelligibility. Acustica 28, 66-73.<br />
Jakobsen, R., Halle, M., Fant, G. (1951). Preliminaries to Speech Analysis: The distinctive Features and<br />
their Correlate. MIT Press, Cambridge, MA.<br />
Jeffress, L.A. (1948): A place theory of sound localization. J. Comp. Physiol. Psych. 61, 468-486.<br />
Kießling, J. (1995). Zum überschwelligen Lautheitsanstieg bei Schallempfindungsschwerhörigen -<br />
Konsequenzen <strong>für</strong> die Hörgeräte-Entwicklung und - Anpassung. Audiol. Akustik 34 (2), 82-<br />
89.<br />
Kießling, J., Kollmeier, B. Diller, G. Versorgung und Rehabilitation mit Hörgeräten. Thieme-Verlag<br />
Launer, S., Hohmann, V., Kollmeier, B. (1996). Modeling loudness growth and loudness summation in<br />
hearing-impaired listeners. In: W.<br />
Jestaedt (Ed.), Modeling Sensorineural Hearing Loss. Lawrence Erlbaum & Assoc., Hillsdale, NJ (im<br />
Druck).<br />
90
Kollmeier, B. (1990): Meßmethodik, Modellierung und<br />
Verbesserung der Verständlichkeit von Sprache. Habilitationsschrift, <strong>Universität</strong> Göttingen.<br />
Kollmeier, B. (Ed.): Moderne Verfahren der Sprachaudiometrie. Median-Verlag, Heidelberg, 1992<br />
Kollmeier, B. (1996): Computer-controlled speech audiometric techniques for the assessment of hearing<br />
loss and the evaluation of hearing aids. In: B. Kollmeier (Ed.), Psychoacoustics, Speech and<br />
Hearing Aids. World Scientific, Singapur, pp.57-68.<br />
Kollmeier, B.(2001)Die <strong>Oldenburg</strong>er Hörforschung. Einblicke - Forschungsmagazin der Carl von<br />
Ossietzky <strong>Universität</strong> <strong>Oldenburg</strong>, 33, p. 3-6.<br />
Kollmeier, B.: Skript zur Vorlesung “Physiologische, psychologische und audiologische Akustik,<br />
<strong>Universität</strong> <strong>Oldenburg</strong> http://www.physik.unioldenburg.de/Docs/medi/html/teaching_download.html.<br />
Kollmeier, B. (2002) Cocktail-Partys und Hörgeräte: Biophysik des Gehörs. Physik Journal, 4, p. 39-45<br />
Moore, B.C.J.: An Introduction to the Psychology of Hearing, Academic Press, New York, 1989.<br />
Moore, B.C.J.: Perceptual Consequences of Cochlear Damage. Oxford University Press, Oxford 1995.<br />
Moore, B.C.J., Glasberg, B.R. (1987). Formulae describing frequency selectivity in the perception of<br />
loudness and level and their use in calculating excitation patterns. Hear. Res. 28, 209-225.<br />
Pickles, J.A.: Hearing, an Introduction to the Physiology of Hearing, Academic Press 1982.<br />
Poulton, E.C. (1989). Bias in Quantifying Judgements. Lawrence Erlbaum Assoc., Hillsdale, N.J.<br />
Rayleigh, Lord. Theory of Sound. London, Macmillan & Co. Ltd., 1877, Nachdruck 1929.<br />
Stevens, S.S. (1957). On the psychphysical law. Psychol. Rev. 64, 153 - 181.<br />
Zwicker, E., Fastl, H. Psychoacoustics - Facts and Models. Springer Verlag, Berlin 1990.<br />
91
Hördiagnostik <strong>für</strong> die rehabilitative <strong>Audiologie</strong><br />
Birger Kollmeier / <strong>Oldenburg</strong><br />
Der folgende Beitrag soll einen kurzen Einblick in den Entwicklungsstand neuer<br />
audiologischer Messverfahren als Ausgangsbasis <strong>für</strong> eine Hörgeräte-Versorgung aus<br />
der Sicht des Autors vermitteln. Dabei wird kein Anspruch auf Vollständigkeit oder<br />
Ausgewogenheit des präsentierten Materials erhoben, da dies in Lehrbüchern der<br />
<strong>Audiologie</strong> (z. B. Laszig, 2000, Kießling et al., 2008, Böhme u. Welzl-Müller, 1998) in<br />
weitaus besserem Maß bereits existiert.<br />
Einen Überblick über das Spektrum der in der <strong>Audiologie</strong> eingesetzten Verfahren gibt<br />
Abbildung 1. Ebenfalls angemerkt sind Neu- bzw. Weiterentwicklung von Verfahren,<br />
die in der Arbeitsgruppe des Autors entwickelt worden sind und zum Teil soweit<br />
ausgereift sind, daß sie den Sprung von der Grundlagenforschung in die klinischaudiologische<br />
Diagnostik und HNO-ärztliche Praxis bzw. Anwendung in der<br />
Hörgeräte-Anpassung in Kürze vollziehen können. Diese Verfahren sollen kurz<br />
vorgestellt werden.<br />
Niedrigpegel-Reflexaudiometrie<br />
Chirp-evozierte TEOAE<br />
<strong>Oldenburg</strong>er HF-skalierung<br />
Chirp-evozierte BERA<br />
WaKo-Test, Göttinger Satztest<br />
<strong>Oldenburg</strong>er Satztest,<br />
<strong>Oldenburg</strong>er Kinder-Reimtest<br />
Räumlicher Sprachtest<br />
(BIRD)<br />
Abbildung 1: Funktionelle Gliederung des Gehörsystems mit Funktionen und möglichen Störungen<br />
(aus Kollmeier, 1997). Zusätzlich angegeben sind die neueren audiologischen Testverfahren, die in<br />
der Arbeitsgruppe des Autors <strong>für</strong> die praktische Anwendbarkeit entwickelt wurden.<br />
<strong>Oldenburg</strong>er Hörflächenskalierung<br />
Physiologische Erkenntnisse der letzten 10 Jahre weisen auf einen schnellen,<br />
aktiven Verstärkungsmechanismus in der Cochlea hin, der zu einer Dynamik-<br />
Kompression der die Basilarmembran anregenden Signale im auditorischen System<br />
führt. Ein Ausfall dieser „aktiven Prozesse“ führt zu einem Wegfall der Kompressions-<br />
Wirkung auf der Ebene der Cochlea („Kompressionsverlust“) und damit zu dem als<br />
„Recruitment“ bezeichneten Phänomen des pathologischen Lautheitsanstiegs.<br />
Dieser Kompressionsverlust ist (vorwiegend) durch die Schädigung äußerer<br />
Haarzellen bedingt und ist weitgehend unabhängig vom Sensitivitätsverlust<br />
(vorwiegend durch Schädigung der inneren Haarzellen und teilweise durch<br />
93
Schädigung der äußeren Haarzellen bedingt), da Patienten mit gleichem<br />
Audiogramm (d. h. gleichem Sensitivitätsverlust) ein sehr stark unterschiedliches<br />
überschwelliges Lautheitsempfinden aufweisen können (Launer et al., 1996, Kießling<br />
et al., 1995). Daher ist es sinnvoll und notwendig, den Kompressionsverlust<br />
zusätzlich zu dem Sensitivitätsverlust auszumessen. Als einfache und robuste<br />
klinische Meßmethode bietet sich die kategoriale Lautheitsskalierung an, die in Form<br />
der „<strong>Oldenburg</strong>er Hörflächenskalierung“ optimiert wurde (Kollmeier, 1997). Wichtige<br />
Merkmale dieses Verfahrens sind:<br />
• 10+1 Kategorien, d. h. 5 verbale Hauptkategorien „sehr leise, leise, mittellaut,<br />
laut, sehr laut“ plus vier Zwischenstufen und den zwei Begrenzungskategorien<br />
„unhörbar“ und „zu laut“.<br />
• Terzbandrauschen von 2 sec Länge als Stimulus.<br />
• Dynamikbereich der angebotenen Stimuli entweder in einer Vormessung<br />
individuell angepaßt oder in einem adaptiven Verfahren zu Beginn der Messung<br />
so aufgespannt, daß der gesamte Hör-Dynamikbereich des individuellen<br />
Patienten tatsächlich abgetastet wird (Brand et al. 1997).<br />
• Die Form der Lautheitsfunktion ist abhängig von der Bandbreite des Stimulus<br />
(Brand, 1999).<br />
• Als Zielfunktion wird eine aus 2 Geradenstücken zusammengesetzte Funktion<br />
gewählt, die in der Mitte durch einen Bezier-Fit geglättet ist (Brand, 1999). Diese<br />
Zielfunktion weist von allen möglichen Funktionen die geringste Abweichung von<br />
den Daten über einen weiten Pegelbereich und die gewünschte Flexibilität der<br />
Form bei nicht zu großer Parameterzahl auf.<br />
Dieses als ACALOS (adaptive categorical loudness scaling) bezeichnete Verfahren<br />
wurde inzwischen vom EU-Projekt Hearcom als Vorschlag <strong>für</strong> die Europäische<br />
Harmonisierung audiologischer Meßverfahren in das empfohlene Inventar<br />
aufgenommen (weitere Informationen unter www.hearcom.eu).<br />
Neue Verfahren der Sprachaudiometrie<br />
Aufgrund der einhelligen Kritik an der in der deutschsprachigen Routine-Audiometrie<br />
benutzten sprachaudiometrischen Verfahren (z. B. mögliche Manipulierbarkeit des<br />
Freiburger Sprachtests aufgrund starker Listenunterschiede, Vorkommen<br />
ungebräuchlicher Wörter, Verwendung des Einsilbers als im <strong>Deutsche</strong>n relativ<br />
ungebräuchliche Wortform) und aufgrund der hohen Nachfrage nach entsprechend<br />
zuverlässigen und aussagefähigen Sprachtests wurde eine Reihe von<br />
Sprachtestverfahren in der Arbeitsgruppe des Autors entwickelt und z. T. <strong>für</strong> den<br />
praktischen Einsatz vorbereitet. Einen Überblick über die im deutschen Sprachraum<br />
<strong>für</strong> die Sprachaudiometrie anwendbaren Verfahren gibt Tabelle 1.<br />
94
Tabelle 1: Überblick über die verschiedenen Sprachtest-Materialien <strong>für</strong> die deutsche<br />
Sprache, geordnet nach der Länge der Test-Items. Die verschiedenen Hintergrundfarben<br />
geben den Einsatzbereich wieder, der durch entsprechende Publikationen belegt wurde: weiß:<br />
Verwendung in Ruhe, hellgelb: Verwendung im Störschall, dunkelgelb: Verwendung in Ruhe<br />
und im Störschall.<br />
Die Testverfahren unterscheiden sich nicht nur in der Länge der jeweiligen Test-<br />
Items, sondern auch in ihrem intendierten und validierten Verwendungszweck: Für<br />
die Verwendung mit Kindern wurde beispielsweise neben dem in Ruhe<br />
anzuwendenden Mainzer und Göttinger Kinder-Sprachtest der <strong>Oldenburg</strong>er Kinder-<br />
Reimtest (OLKI, Einsatzgebiet im Störschall und in Ruhe) konzipiert. Für die<br />
Verwendung mit Cochlea-Implantat-Nutzern sieht der HSM-Satztest eine besonders<br />
geringe Sprechgeschwindigkeit vor. Während die älteren Sprachverständlichkeits-<br />
Tests (z. B. der Freiburger-Einsilber-Test) primär <strong>für</strong> den Einsatz in Ruhe konzipiert<br />
und validiert wurden, ist die Mehrzahl der in Tab. 1. aufgeführten jüngeren<br />
Testverfahren <strong>für</strong> den Einsatz unter Störschall konzipiert. Einige der moderneren<br />
Testverfahren wurden zusätzlich <strong>für</strong> den Einsatz in Ruhe validiert (Einsilber-Reimtest,<br />
verkürzter Reimtest, <strong>Oldenburg</strong>er Kinder-Reimtest, Göttinger Satztest und<br />
<strong>Oldenburg</strong>er Satztest). Sie weisen <strong>für</strong> den Einsatz in Ruhe keine signifikant andere<br />
Steigerung der Diskriminationsfunktion und keine signifikant größeren Listen-<br />
Unterschiede auf als <strong>für</strong> den Einsatz in Störschall. Sinnbehaftete Testmaterialien<br />
(insbesondere Sätze wie vom Göttinger Satztest oder HSM-Satztest) besitzen den<br />
Nachteil, dass sie nach einmaligem Gebrauch <strong>für</strong> einen bestimmten Patienten<br />
längere Zeit nicht wieder verwendet werden können, um einen Wiedererkennungs-<br />
95
Effekt des gesamten Satzes anhand eines einzelnen Wortteils auszuschließen. Dies<br />
wird beim <strong>Oldenburg</strong>er Satztest ausgeschlossen: Eine (scheinbar) zufällige<br />
Kombination aus Name, Verb, Zahlwort, Adjektiv und Objekt (z. B. “Peter kauft 17<br />
nasse Sessel“) mit jeweils 10 Alternativen pro Wort erschwert die Wiedererkennung<br />
des spezifischen Satzes, so daß dieses Material beliebig häufig eingesetzt werden<br />
kann. Aufgrund der Kompatibilität dieses Verfahrens mit entsprechenden Tests in<br />
anderen Sprachen wird zudem eine Länder-übergreifende Normierung von<br />
Sprachverständlichkeits-Tests möglich (vgl. Kollmeier, 2007).<br />
• Einsilber-Reimtest nach von Wallenberg und Kollmeier (WAKO-Test)<br />
Aufbauend auf dem Einsilber-Reimtest nach Sotscheck (1982) wurde eine <strong>für</strong> die<br />
<strong>Audiologie</strong> verwendbare Version mit phonetischen Minimalpaaren,<br />
gebräuchlichen Wörtern und aufgrund umfangreicher Validierungsmessungen als<br />
äquivalent anzusehenden Testlisten zusammengestellt (von Wallenberg und<br />
Kollmeier, 1989, Müller, 1992, Kollmeier et al., 1992). Dieses Testverfahren<br />
besitzt eine Reihe von Vorteilen gegenüber dem Freiburger Einsilbertest (z. B.<br />
Ankündigungssatz, geschlossene Wortauswahl, Analysierbarkeit von<br />
Phonemverwechselungen, hohe Homogenität des Testmaterials). Es konnte sich<br />
bisher aufgrund der notwendigen technischen Voraussetzungen<br />
(Computersteuerung zur Darstellung der Reim-Alternativen, Länge der Testlisten)<br />
nicht in der audiologischen Praxis durchsetzen. Da dieses Verfahren jedoch ein<br />
hohes Potential hat, sollten in Zukunft verkürzte Listen <strong>für</strong> den praktischen<br />
Einsatz in der <strong>Audiologie</strong> zusammengestellt werden.<br />
• Zweisilber-Reimtest nach Kliem und Kollmeier (1994)<br />
Dieses Verfahren bietet sich aufgrund der größeren Häufigkeit von Zweisilbern als<br />
Einsilbern in der deutschen Sprache ebenfalls als Standard-Verfahren an. Sein<br />
praktischer Einsatz scheiterte jedoch bisher an der Länge der Testlisten und des<br />
relativ hohen technischen Aufwandes/geringen Verfügbarkeit von apparativen<br />
Voraussetzungen zur Durchführung des Tests. Im Zuge der voranschreitenden<br />
Automatisierung der Audiometrie sollte jedoch auch dieser Test zukünftig Einzug<br />
in die Praxis finden.<br />
• Göttinger Satztest<br />
Der von Wesselkamp et al. (1992) und Kollmeier und Wesselkamp (1997)<br />
vorgestellte Göttinger Satztest enthält 20 Listen von je 10 kurzen, sinnvollen<br />
Sätzen. Das Testmaterial ist hinsichtlich der Homogenität zwischen den Sätzen<br />
und zwischen den Testlisten ebenso ptimiert wie bezüglich der Anzahl der Wörter<br />
und Silben in jeder Testliste und der ungefähren phonetischen Äquivalenz der<br />
Testlisten. Das Verfahren hat in Form des BIRD-Sprachtest (Firma Starkey,<br />
Norderstedt) weite Verbreitung und Akzeptanz gefunden, insbesondere zur<br />
Überprüfung von Hörgeräte-Anpassungen und zur Durchführung der<br />
Sprachaudiometrie unter Störgeräuschen. Ein Nachteil sind jedoch die begrenzte<br />
Zahl von verfügbaren Listen und die schlechte Wiederholbarkeit des Tests mit<br />
derselben Versuchsperson, da die Testsätze leicht gemerkt werden können. Dies<br />
motivierte die Entwicklung des <strong>Oldenburg</strong>er Satztests (s. u.).<br />
• <strong>Oldenburg</strong>er Satztest:<br />
Dieser Test wurde in Anlehnung an den schwedischen Satztest nach Hagermann<br />
(1984) konstruiert und bietet sich als ein Kandidat <strong>für</strong> die europäische<br />
Harmonisierung von Satztestverfahren an, da eine Übertragbarkeit in andere<br />
Sprachen verhältnismäßig leicht gegeben ist. Der von Wagener et al. (1998,<br />
1999) vorgestellte <strong>Oldenburg</strong>er Satztest benutzt als Inventar 5 mal 10<br />
verschiedene Wörter, die jeweils in einem pseudozufällig zusammengestellten<br />
96
sinnleeren Satz der Form „Name-Verb-Zahlwort-Eigenschaft-Objekt“ angeordnet<br />
sind (z. B. Nina bekommt vier rote Blumen (vgl. Abb. 2)).<br />
Peter bekommt drei große Blumen.<br />
Kerstin sieht neun kleine Tassen.<br />
Tanja kauft sieben alte Autos.<br />
Ulrich gibt acht nasse Bilder.<br />
Britta schenkt vier schwere Dosen.<br />
Wolfgang verleiht fünf grüne Sessel.<br />
Stefan hat zwei teure Messer.<br />
Thomas gewann achtzehn schöne Schuhe.<br />
Doris nahm zwölf rote Steine.<br />
Nina malt elf weiße Ringe.<br />
Abbildung 2: Testwortinventar und Konstruktionsprinzip des <strong>Oldenburg</strong>er Satztests nach Wagener et<br />
al. (1998, 1999).<br />
Bei der Aufsprache und der Resynthese wurde auf eine hohe Natürlichkeit der<br />
zusammengesetzten Sätze geachtet. Außerdem wurden die resultierenden<br />
Testsätze so zusammengestellt, daß eine möglichst hohe Homogenität zwischen<br />
den Testsätzen und den Testlisten resultiert (Wagener et al. 1999). Die einzelnen<br />
Testlisten weichen in ihrer mittleren Schwelle sehr gering voneinander ab<br />
(empirische Standardabweichung von 0,16 dB). Bei den Messungen zur<br />
Evaluierung des Satztests, die unabhängig von den Messungen zur<br />
Erstkonstruktion des Tests waren, ergab sich eine mittlere Schwelle (Signal-<br />
Rauschabstand <strong>für</strong> 50 % Verständlichkeit der Sätze) von minus 7,1dB und eine<br />
mittlere Steigung von 17,1 %/dB. Während diese mittlere Steigung aufgrund der<br />
Testkonstruktion erwartet wurde (Erwartungswert 17,2 % pro dB), ist die bei den<br />
Evaluationsmessungen ermittelte Schwelle um 1,3 dB höher als aufgrund der<br />
Testkonstruktion (Messungen mit trainierten Versuchspersonen) erwartet wurde.<br />
Dies ist auf den Trainingseffekt zurückzuführen: Wagener et al. (2000) konnten<br />
nachweisen, daß sich im Laufe der ersten 30 Testsätze bei naiven<br />
Versuchspersonen die Schwelle um bis zu 2 dB im Signal-Rauschabstand nach<br />
unten verschieben kann. Dieser Trainingseffekt fällt allerdings geringer aus,<br />
wenn der Sprachpegel festgehalten wird und der Störgeräuschpegel variiert wird<br />
(im Gegensatz zu dem <strong>für</strong> die Evaluationsmessungen angenommenen Prinzip).<br />
Ein derartiges Vorgehen wurde auch von Hagermann (1984) vorgeschlagen.<br />
Für die praktische Durchführung des <strong>Oldenburg</strong>er Satztests wurde eine manuelle<br />
Version erstellt, die vom Hörzentrum <strong>Oldenburg</strong> vertrieben wird. Die apparative<br />
Voraussetzung ist ein Audiometer mit CD-Spieler und einer Schrittweite von 1 dB.<br />
Bei dem manuellen adaptiven Verfahren wird je nach Anzahl der pro Satz richtig<br />
erkannten Wörter der Signal-Rauschabstand verändert. Bei der Verwendung von<br />
30 Testsätzen ist damit eine Genauigkeit von 0,5 dB erreichbar, so daß<br />
Schwellenunterschiede von 2 dB sicher nachgewiesen werden können. Damit ist<br />
z. B. der Nachweis eines binauralen Gewinns bei der beidohrigen<br />
Hörgeräteversorgung leicht nachzuweisen.<br />
97
• <strong>Oldenburg</strong>er Kinder-Reimtest<br />
Kliem und Kollmeier (1995) entwickelten ein Zweisilber-Reimtestverfahren mit<br />
Wörtern, die <strong>für</strong> den Einsatz von Vorschul- und Schulkindern geeignet sind. Für<br />
dieses Wortmaterial wurden von Achtzehn et al. (1997) Bildkarten entwickelt, in<br />
denen die jeweils 3 sich „reimenden“ Antwortalternativen kindgerecht bildlich<br />
dargestellt sind (Abbildung 3).<br />
Anlaut Konsonant Inlaut Konsonsant Inlaut Vokal<br />
Beule - Keule - Eule Tanne - Tasse - Tasche Brote - brüte - brate<br />
Abbildung 3: Beispiele <strong>für</strong> die Antwortkarten des <strong>Oldenburg</strong>er Kinder-Reimtest nach Achtzehn et al.<br />
(1997).<br />
Ferner wurden Evaluationsmessungen mit Vorschul- und Schulkindern<br />
durchgeführt, bei denen die Gebräuchlichkeit der verwendeten Testwörter und die<br />
Verwendbarkeit der entwickelten Bildkarten ebenso getestet wurde, wie die<br />
Sprachverständlichkeitsschwelle <strong>für</strong> die einzelnen Wörter im Rahmen des<br />
Meßverfahrens. Aufgrund dieser Evaluations-Messungen konnten 10<br />
gleichwertige Testlisten zu jeweils 12 Wörtern zusammengestellt werden, <strong>für</strong> die<br />
die 50%-Verständlichkeitsschwelle in Ruhe bei 23 dB SPL liegt (Brand et al.,<br />
1999). Die Steigung der Diskriminationsfunktion ist mit 6 % pro dB vergleichbar<br />
mit derjenigen des Freiburger Sprachtests, so daß sich der <strong>Oldenburg</strong>er<br />
Kinderreimtest <strong>für</strong> die Sprachaudiometrie in Ruhe bei Kindern ähnlich einsetzen<br />
läßt wie der Freiburger Sprachtest bei Erwachsenen (Brand et al., 1999). Eine <strong>für</strong><br />
die Praxis anwendbare, manuelle Version mit dem Bildkartenmaterial ist beim<br />
Hörzentrum <strong>Oldenburg</strong> erhältlich.<br />
Räumliche Sprachtests<br />
Zur Abschätzung des Vorteils binauralens (beidohrigen) Hörens gegenüber dem<br />
monauralen Hören und speziell zur Überprüfung des Versorgungsgewinns durch<br />
eine beidseitige Hörgeräte-Versorgung bietet sich die Durchführung von räumlichen<br />
Sprachtests an, bei denen der Nutzsprecher und der Störschall aus verschiedenen<br />
räumlichen Richtungen dem Patienten angeboten werden. Für den klinischen Alltag<br />
bietet sich dabei die in Abbildung 4 dargestellte räumliche Position an, die in<br />
98
Verbindung mit jedem Sprachverständlichkeitstest unter Störgeräusch (z. B.<br />
<strong>Oldenburg</strong>er Satztest) benutzt werden kann.<br />
Abbildung 4: Räumliche Anordnung <strong>für</strong> den räumlichen Sprachtest. Die obere Situation gibt die<br />
Bestimmung der ILD (Intelligibility Level Difference) an, die untere Situation die Ermittlung der Binaural<br />
Intelligibility Level Difference (BILD).<br />
Zunächst wird in der Referenz-Situation S0 N0 (d. h. Sprache und Störsignal von<br />
vorne) die Sprachverständlichkeitsschwelle (Speech Reception Threshold, SRT)<br />
gemessen. Sie ist ein Maß <strong>für</strong> mögliche Einschränkungen des Sprachverstehens in<br />
Rauschen ohne räumlichen Detektionsvorteil. Im Vergleich dazu wird die<br />
Sprachverständlichkeitsschwelle bei seitlichem Einfall des Störgeräuschs (Situation<br />
S0N90 bzw. S0N270) gemessen. Die Differenz beider<br />
Sprachverständlichkeitsschwellen gibt die ILD (Intelligibility Level Difference) an, d. h.<br />
den räumlichen Vorteil bei der Sprachverständlichkeit, der sowohl aus einem<br />
monauralen Anteil (Kopfabschattungseffekt, d. h. besseres Signalrauschverhältnis an<br />
dem der Störquelle abgewandten Ohr) und einem binauralen Anteil (bessere<br />
Diskrimination durch Vergleich der Ohrsignale auf zentralem Niveau)<br />
zusammengesetzt ist. Um den binauralen Anteil getrennt vom monauralen Anteil zu<br />
bestimmen, wird in der zuletzt genannten Situation zusätzlich die Situation bei<br />
Verstöpselung/Vertäubung des „schlechteren“ Ohres (d. h. der Störschallquelle<br />
zugewandten Ohres) ausgemessen. Der Unterschied zwischen der monauralen und<br />
der binauralen Situation wird als Binaural Intelligibility Level Difference (BILD)<br />
bezeichnet. Abb. 5 gibt <strong>für</strong> verschiedene Versuchspersonengruppen die gemittelten<br />
Werte <strong>für</strong> ILD und BILD wieder (aus Kollmeier et al., 1999). Obwohl tendenziell mit<br />
zunehmendem Hörverlust und mit zunehmender Asymmetrie des Hörverlusts die<br />
binaurale Leistungsfähigkeit abnimmt, läßt sich <strong>für</strong> den individuellen Patienten<br />
generell keine Vorhersage des binauralen Gewinns aus dem Audiogramm oder<br />
anderen audiologischen Parametern ableiten (vgl. Kinkel et al., 1992). Daher ist die<br />
binaurale Leistungsfähigkeit als unabhängige Komponente anzusehen, die separat<br />
ausgemessen werden sollte.<br />
99
Abbildung 5: ILD (Kreise) und BILD (Quadrate) <strong>für</strong> unterschiedliche Probandengruppen.<br />
Literatur<br />
Achtzehn, J., V. Kühnel, B. Kollmeier and R. Schönfeld (1997). Zur Entwicklung eines<br />
Zweisilber-Kinder-Reimtests <strong>für</strong> die <strong>Audiologie</strong>. Aktuelle phoniatrischpädaudiologische<br />
Aspekte. M.Gross (Ed.). Heidelberg, median verlag. 5.<br />
Böhme, G., Welzl-Müller, K. (1998). Audiometrie. Hörprüfungen im Erwachsenen-<br />
und Kindesalter. Bern, Verlag Hans Huber.<br />
Brand, T., V. Hohmann and B. Kollmeier (1997). Adaptive categorical loudness<br />
scaling. Seventh <strong>Oldenburg</strong> Symposium on Psychological Acoustics. A. Schick<br />
and M. Klatte. <strong>Oldenburg</strong>, BIS, <strong>Universität</strong> <strong>Oldenburg</strong>. 7: 603-610.<br />
Brand, T. (1999). Analysis and Optimization of Psychophysical Procedures in<br />
Audiology. Dissertation FB Physik, <strong>Oldenburg</strong>, <strong>Universität</strong> <strong>Oldenburg</strong>.<br />
Brand, T., J. Achtzehn and B. Kollmeier (1999). Erstellung von Testlisten <strong>für</strong> den<br />
<strong>Oldenburg</strong>er Kinder-Reimtest. Z.f. <strong>Audiologie</strong> Supplement II. K. Schorn (Ed.).<br />
Heidelberg, median verlag: 50-51.<br />
Dau, T., O. Wegner, V. Mellert and B. Kollmeier (2000). “Auditory brainstem<br />
responses (ABR) with optimized chirp signals compensating basilar-membrane<br />
dispersion.” J. Acoustical Soc. Am. 107(3): 1530-1540.<br />
Grätz, K., M. Mauermann, R. Schönfeld and B. Kollmeier (1999). Niedrigpegel-<br />
Reflexaudiometrie - eine neue Methode zur Messung des Stapediusreflexes.<br />
100
Zeitschrift <strong>für</strong> <strong>Audiologie</strong>, Suppl. 2. K. Schorn (Ed.). Heidelberg, median-Verlag:<br />
125-126.<br />
Hagerman, B. (1984). “Clinical measurements of speech reception threshold in<br />
noise.” Scand-Audiol 13(1): 57-63.<br />
Kemp, D. T. (1978). “Stimulated acoustic emissions from within the human auditory<br />
system.” J. Acoust. Soc. Am. 64: 1386-1391.<br />
Kießling, J. (1995). “Zum überschwelligen Lautheitsanstieg bei<br />
Schallempfindungsschwerhörigen -- Konsequenzen <strong>für</strong> die Hörgeräte--<br />
Entwicklung und --Anpassung.” Audiologische Akustik(2): 82--89.<br />
Kießling, J., B. Kollmeier and G. Diller (2008). Versorgung und Rehabilitation mit<br />
Hörgeräten. Stuttgart, Georg Thieme Verlag, 2. Aufl..<br />
Kinkel, M. and B. Kollmeier (1992). “Binaurales Hören bei Normal- und<br />
Schwerhörigen II: Analyse der Ergebnisse.” Audiologische Akustik 31: 22-33.<br />
Kliem, K. and B. Kollmeier (1994). “Entwicklung und Evaluation eines Zweisilber-<br />
Reimtestverfahrens <strong>für</strong> die deutsche Sprachaudiometrie.” Audiologische Akustik<br />
33: 4-15.<br />
Kliem, K. and B. Kollmeier (1995). “Überlegungen zur Entwicklung eines Zweisilber-<br />
Kinder-Reimtests <strong>für</strong> die klinische <strong>Audiologie</strong>.” Audiol.Akustik 34: 6-11.<br />
Kollmeier, B., M. C., M. Wesselkamp and K. Kliem (1992). Weiterentwicklung des<br />
Reimtests nach Sotscheck. Moderne Verfahren der Sprachaudiometrie. B.<br />
Kollmeier (Ed.). Heidelberg, Median-Verlag: 216-237.<br />
Kollmeier, B. (1997). Grundlagen. Versorgung und Rehabilitation mit Hörgeräten. J.<br />
Kießling, B. Kollmeier and G. Diller (Ed.). Stuttgart, Georg Thieme Verlag: 1-48.<br />
Kollmeier, B., Ed. (1997). Hörflächenskalierung - Grundlagen und Anwendung der<br />
kategorialen Lautheitsskalierung <strong>für</strong> Hördiagnostik und Hörgeräteversorgung.<br />
Buchreihe Audiologische Akustik. Heidelberg, Median-Verlag.<br />
Kollmeier, B. and M. Wesselkamp (1997). “Development and Evaluation of a German<br />
Sentence Test for objective and subjective Speech Intelligibility Assessment.”<br />
Journal of the Acoustical Society of America 102(4): 2412-2421.<br />
Kollmeier, B., V. Hohmann and V. Kühnel (1999). Erprobung und Validierung von<br />
sprachaudiometrischen und anderen computer-gesteuerten Verfahren <strong>für</strong> die<br />
klinische Audiometrie. Zeitschrift <strong>für</strong> <strong>Audiologie</strong>, Supplement I. B. Kollmeier<br />
(Ed.). Heidelberg, median verlag: 73-78.<br />
Launer, S., I. Holube, V. Hohmann and B. Kollmeier (1996). “Categorical loudness<br />
scaling in hearing-impaired listeners - Can loudness growth be predicted from<br />
the audiogram.” Audiologische Akustik 35(4): 156-163.<br />
Laszig, R. (2000). Praxis der Audiometrie,. Stuttgart, Georg Thieme Verlag.<br />
Müller, C. (1992). Perzeptive Analyse und die Weiterentwicklung eines<br />
Reimtestverfahrens <strong>für</strong> die Sprachaudiometrie, <strong>Universität</strong> Göttingen.<br />
Neumann, J., S. Uppenkamp and B. Kollmeier (1994). “Chirp Evoked Otoacoustic<br />
Emissions.” Hear. Res. 79: 17-25.<br />
Neumann, J., S. Uppenkamp and B. Kollmeier (1996). “Detection of the Acoustic<br />
Reflex below 80 dB HL.” Audiology and Neuro-Otology 1(6): 359-369.<br />
Sotscheck, J. (1982). “Ein Reimtest <strong>für</strong> Sprachverständlichkeitsmessungen mit<br />
deutscher Sprache als ein verbessertes Verfahren zur Bestimmung der<br />
Sprachübertragungsgüte.” Der Fernmeldeingenieur 36: Heft 5/1, 1--83.<br />
v. Wallenberg, E. L. and B. Kollmeier (1989). “Sprachverständlichkeitsmessungen <strong>für</strong><br />
die <strong>Audiologie</strong> mit einem Reimtest in deutscher Sprache: Erstellung und<br />
Evaluation von Testlisten.” Audiologische Akustik 28(2): 50-65.<br />
101
Wagener, K., V. Kühnel and B. Kollmeier (1999). “Entwicklung und Evaluation eines<br />
Satztests in deutscher Sprache I: Design des <strong>Oldenburg</strong>er Satztests.” Zeitschrift<br />
<strong>für</strong> <strong>Audiologie</strong>/Audiological Acoustics 38(1): 4-15.<br />
Wagener, K., T. Brand and B. Kollmeier (1999). “Entwicklung und Evaluation eines<br />
Satztests in deutscher Sprache II: Optimierung des <strong>Oldenburg</strong>er Satztests.”<br />
Zeitschrift <strong>für</strong> <strong>Audiologie</strong>/Audiological Acoustics 38(2): 44-56.<br />
Wagener, K., T. Brand and B. Kollmeier (2000). Internationale Vergleichbarkeit<br />
sprachaudiometrischer Verfahren: Einfluß von Störgeräusch und Meßprozedur<br />
auf die Satzverständlichkeit. Fortschritte der Akustik - DAGA 2000. <strong>Oldenburg</strong>,<br />
DEGA, <strong>Oldenburg</strong>: (in press).<br />
Wegner, O., T. Dau and B. Kollmeier (2000). Frequenzspezifische Messung früher<br />
akustisch evozierter Potentiale (FAEP) mit optimierten Chirp-Signalen.<br />
Fortschritte der Akustik - DAGA 2000. <strong>Oldenburg</strong>, DEGA: (im Druck).<br />
Wesselkamp, M., Kliem, K. and B. Kollmeier (1992). Erstellung eines optimierten<br />
Satztests in deutscher Sprache. Moderne Verfahren der Sprachaudiometrie. B.<br />
Kollmeier (Ed.). Heidelberg, Median-Verlag: 330-343.<br />
102
Audiometrische Standardverfahren, Otoakustische<br />
Emissionen, Auditorisch evozierte Potentiale und<br />
Qualitätssicherung<br />
Thomas Janssen / München<br />
Psychoakustische (subjektive) Hörtests<br />
Stimmgabeltests (Rinne/Weber)<br />
Hörweitenprüfung<br />
Reintonschwelle in Luft- und Knochenleitung (LL, KL) Tonschwellenaudiometrie<br />
Überschwellige Tests Fowler, SISI, Carhart, Langenbeck<br />
Lautheit Kategoriale Lautheit (Hörfeldskalierung)<br />
Freiburger Sprachverständlichkeitstest Hörverlust <strong>für</strong> Zahlen in dB, Einsilberverständlichkeit in %<br />
Sprachtest im Störgeräusch z.B. <strong>Oldenburg</strong>er Satztest<br />
Physiologische (objektive) Hörtests<br />
Trommelfell-Impedanz -1 in Abhängigkeit vom statischen Druck Tympanometrie<br />
Trommelfell-Impedanz -1 Änderung bei ipsi/contralateraler Stimulation Stapediusreflex<br />
Otoakustische Emissionen TEOAE, DPOAE<br />
Auditorisch evozierte Potentiale FAEP, ASSR<br />
Pädaudiologische Hörtests<br />
Reflexaudiometrie (Auropalpebralreflex, Moro-Reflex)<br />
Verhaltensaudiometrie (Zuwendungsreaktionen der Augen oder des Kopfes)<br />
Ablenkaudiometrie (Konditionierung durch Belohnung, Visuell Re-Enforcement)<br />
Spielaudiometrie (Aktive Mitarbeit)<br />
Sprachtests (Mainzer Kindersprachtest, Göttinger Kindersprachverständnistest, Heidelberger<br />
Konsonant-Vokal-Konsonant Test, <strong>Oldenburg</strong>er Zweisilber-Kinderreimtest (OLKI), Würzburger<br />
Kindersprachtest, AAST)<br />
Zum besseren Verständnis der Testsverfahren soll im Folgenden kurz auf die Funktion und<br />
die Funktionsstörungen des Hörorgans eingegangen werden. Das Hörorgan kann man sich<br />
als eine Kette hinter einander geschalteter Schall verarbeitender Systeme vorstellen. Das<br />
äußere Ohr dient der Schallaufnahme und Schallverstärkung (Trichter, Gehörgangsresonanz),<br />
das Mittelohr der Anpassung der unterschiedlichen Impedanzen der Luft und der<br />
Innenohrlymphe (Druckerhöhung durch unterschiedliche Flächen des Trommelfells und<br />
Steigbügelfußplatte, Kraftverstärkung durch Hebelwirkung der Gehörknöchelchen), die<br />
Cochlea zur mechanischen Verstärkung des Schalls (Äußere Haarzellen als cochleäre<br />
Verstärker) sowie der Umsetzung des mechanischen Reizes (Stereozilienauslenkung der<br />
Inneren Haarzellen) in elektrische Impulse (Aktionspotentiale auf den Hörnervenfasern der<br />
Inneren Haarzellen). Die weitere Verarbeitung erfolgt auf den verschiedenen Stufen der<br />
neuralen Hörbahn (Cochleariskern, oberer Olivenkomplex, Lemniscus lateralis, Colliculus<br />
inferior, Subcortex, Cortex).<br />
103
Die genannten Verfahren dienen dazu, Ort und Grad einer Schwerhörigkeit zu bestimmen.<br />
Die Tonschwellenaudiometrie in Luft- und Knochenleitung kann nur zwischen<br />
Schalleitungsschwerhörigkeit (äußeres Ohr, Mittelohr) und Schallempfindungsschwerhörigkeit<br />
(cochleär, neural) unterscheiden. Die überschwelligen<br />
subjektiven Tests haben das Ziel, die Art der Schallempfindungsschwerhörigkeit zu<br />
bestimmen. Deren Aussagekraft ist aber beschränkt. Die OAE, die die cochleäre Funktion,<br />
und die AEP, die die neurale Aktivität erfassen können, müssen in Hinblick auf eine<br />
genauere Topodiagnostik zum Einsatz kommen. Wenn auch über die<br />
Tonschwellenaudiometrie eine Mitteohrschwerhörigkeit erkannt werden kann, so muss die<br />
Tympanometrie bemüht werden, um die Art der Mittelohrschwerhörigkeit (Otosklerose,<br />
Paukenerguß, Tubenfunktionsstörung, Kettenluxation) zu bestimmen.<br />
Im Besonderen <strong>für</strong> die Hörgeräteanpassung ist die Bestimmung des Recruitments<br />
(Lautheitsausgleich) wichtig. Dies gelingt mit Hilfe der Hörfeldskalierung bei Erwachsenen<br />
und älteren Kindern. Bei kleinen Kindern können nur die Stapediusreflexschwelle und die<br />
DPOAE-Wachstumsfunktionen Anwendung finden.<br />
Die Tonschwellenaudiometrie ist die am häufigsten durchgeführte Untersuchungsmethode,<br />
da sie die Funktionsstörung frequenzspezifisch und quantitativ erfassen kann. Prinzipiell<br />
sollen alle möglichen Verfahren zur Diagnostik eingesetzt werden. Je mehr Tests, umso<br />
besser die Diagnostik. Je genauer die Kenngrößen der gestörten Hörfunktion bestimmt<br />
werden können, umso besser gelingt die Anpassung einer Hörhilfe. Bei kleinen Kindern ist<br />
der Einsatz subjektiver Tests problematisch. Hier müssen die objektiven Tests verstärkt zum<br />
Einsatz kommen.<br />
104
Psychoakustische (subjektive) Hörtests<br />
Stimmgabeltests (Rinne/Weber)<br />
Rinnetest: Stimmgabel (440Hz) wird angeschlagen und vor das Ohr gehalten (LL), dann auf<br />
das Mastoid gesetzt (KL). Frage: Wo ist der Ton lauter? Vor dem Ohr oder hinter dem Ohr?<br />
Antwort: vor dem Ohr Keine Schallleitungsschwerhörigkeit<br />
Antwort: hinter dem Ohr Schallleitungsschwerhörigkeit<br />
Webertest: Stimmgabel auf Vertex gesetzt. Frage: Wo wird der Ton gehört?<br />
Antwort: Mitte Normale Hörfunktion oder seitengleiche Hörminderung<br />
Antwort: Links oder rechts Innenohrschwerhörigkeit rechts oder links oder<br />
Mittelohrschwerhörigkeit links oder rechts<br />
Hörweitenprüfung<br />
Nachsprechen zweistelliger Zahlen in Flüstersprache oder Umgangssprache in<br />
unterschiedlichem Abstand zwischen Patient und Untersucher. Abstand, bei dem gehört und<br />
richtig nachgesprochen wird, gibt groben Hinweis auf Grad der Hörstörung.<br />
Reintonschwelle<br />
in Luft- und Knochenleitung (LL, KL) Tonschwellenaudiometrie.<br />
Prüfschall über Kopfhörer (LL) (Einschluss des Mittelohres) oder Knochenleitungshörer (KL)<br />
(Ausschluss des Mittelohres). Frequenzbereich 125 bis 10 kHz in Oktavschritten,<br />
Pegelbereich -10 dB HL bis 110 dB (abhängig von Frequenz und Schallzufuhr (LL, KL).<br />
Messvorschrift: Beginn mit LL des besseren Ohres (aus Vortests Stimmgabel,<br />
Sprachabstandsprüfung), dann LL am Gegenohr, dann KL. Ermittelung des Schwellenpegels<br />
durch Aufsteigende Methode oder Eingabelungsmethode. Symbole: LL rechts „o“ verbunden<br />
durch (rote) Linien, LL links „x“ verbunden durch (blaue) Linien, KL rechts „>“ verbunden<br />
durch gestrichelte (rote) Linien, KL links „
Sowohl bei LL als auch bei KL wird die Hörschwelle Normalhörender bei jeder Frequenz als<br />
Bezugswert (0 dB) herangezogen. Im Tonschwellenaudiogramm wird der Hörverlust in dB<br />
HL gegenüber diesem Bezugswert eingetragen.<br />
Überschwellige Tests<br />
Fowler (Lautheitsausgleichstest). Vergleich des Lautheitseindrucks beider Ohren.<br />
Bedingung: Seitendifferenz mehr als 30 dB. Bei Lautheitsausgleich Recruitment<br />
SISI (short increment sensitivity index): Wieviele von 20 dargebotenen 1-dB Pegelsprüngen<br />
eines Dauertons (20 dB über Hörschwelle) werden erkannt; > 60% Recruitment<br />
Carhart (Schwellenschwundtest): Wenn bei einem Dauerton die Schwelle um mehr als 30 dB<br />
abwandert neurale Schädigung<br />
Geräuschaudiometrie nach Langenbeck (Mithörschwelle): Erhöhung der Mithörschwelle <br />
neurale Schädigung.<br />
106
Lautheit<br />
Kategoriale Lautheit (Hörfeldskalierung)<br />
Bewertung der empfundenen Lautheit auf einer vorgegebenen Kategorialskala (z.B. nicht<br />
gehört, leise, mittellaut, laut, sehr laut, zu laut). Bei Innenohrschwerhörigkeit mit Recruitment<br />
gibt der Patient bei hohen Reizpegeln ein normales Lautheitsempfinden an. Bei kleinen<br />
Reizpegeln wird entsprechend dem Hörverlust nicht gehört Versteilung der<br />
Lautheitsfunktion. Bei der Schallleitungschwerhörigkeit und der neuralen Schwerhörigkeit<br />
erfolgt eine Verschiebung der Lautheitsfunktion entlang der X-Achse. Hier gibt es auch bei<br />
hohen Reizpegeln keinen Lautheitsausgleich.<br />
107
Sprachtests<br />
Freiburger Sprachtest: Zahlentest (10 Gruppen zu je 10 zweistelligen Zahlen) + Einsilbertest<br />
(20 Gruppen zu je 20 Einsilbern)<br />
Ergebnis:<br />
1. Hörverlust <strong>für</strong> Zahlen in dB = Sprachpegel, bei dem der Patient 50% der Zahlen versteht.<br />
Startpegel 20 dB über Hörschwelle bei 500 Hz, nächster Pegel 5 + Startpegel.<br />
2. Sprachverstehen der Einsilber in % bei Sprachpegel 65, 80, 95, 110 dB SPL.<br />
<strong>Oldenburg</strong>er Satztest: Ermittlung der Sprachverständlichkeitsschwelle <strong>für</strong> Sätze im<br />
Störgeräusch = Ermittlung des Signal-Rausch-Verhältnisses, bei dem 50% der Sätze einer<br />
Testliste (40 Listen mit je 30 Sätzen) verstanden werden.<br />
Physiologische (objektive) Hörtests<br />
Tympanometrie<br />
Das Tympanometer misst die Nachgiebigkeit (Compliance = Impedanz -1 ) des Trommelfells<br />
in Abhängigkeit des im Gehörgang mittels einer Pumpe eingeleiteten Über - und Unterdrucks<br />
(Tympanogramm). Beim Überdruck (bis +200 daPa) wird das Trommelfell in die<br />
Paukenhöhle hineingedrückt, beim Unterdruck (bis- 400 daPa) wird das Trommelfell in den<br />
Gehörgang hineingezogen. Mit zunehmendem Über- bzw. Unterdruck nimmt die<br />
Beweglichkeit des Trommelfells immer mehr ab. Bei normaler Mittelohrfunktion erhält man<br />
eine Glockenkurve mit maximaler Compliance um den Atmosphärendruck, und minimaler<br />
Compliance bei den Extremwerten +200 und -400 daPa (Glockenkurve mit großer<br />
Compliance). Bei der Otosklerose ist wegen der eingeschränkten Beweglichkeit des<br />
Steigbügels die Beweglichkeit des Trommelfells eingeschränkt (Glockenkurve mit kleiner<br />
108
Compliance). Beim Paukenerguss ist wegen der mitschwingenden Sekretflüssigkeit die<br />
Beweglichkeit stark eingeschränkt (Flache Kurve, keine Gipfelbildung). Bei der<br />
Tubenfunktionsstörung ist der Gipfel der Glockenkurve in den negativen Druckbereich<br />
entsprechend dem in der Paukenhöhle herrschenden Unterdruck verschoben. Der<br />
Unterdruck entsteht durch den Sauerstoffverbrauch des (entzündlichen) Gewebes bei<br />
verschlossener Tube als Folge vergrößerter Rachenmandeln (Adenoide).<br />
Stapediusreflex<br />
Sowohl mit ipsi- als auch mit contralateral applizierten Tönen (1, 2, 4 kHz) oder Rauschen<br />
(Breitband, Schmalband) lässt sich der Stapediusreflex auslösen. Bei Kontraktion des<br />
Stapediusmuskels ist die Nachgiebigkeit der Gehörknöchelchenkette eingeschränkt<br />
(Schutzfunktion). Das Tympanometer registriert die veränderte Nachgiebigkeit während der<br />
Reflexauslösung. Die Reflexschwelle eines Normalhörenden liegt bei etwa 80 dB HL. Dies ist<br />
auch der Fall bei Patienten mit Funktionsstörungen der äußeren Haarzellen bei normaler<br />
Funktion der inneren Haarzellen (Recruitment). Bei der Mittelohrschwerhörigkeit und der<br />
neuralen Schwerhörigkeit ist die Reflexschwelle etwa dem Hörverlust entsprechend<br />
verschoben (oder nicht messbar).<br />
109
Otoakustische Emissionen<br />
Otoakustische Emissionen (OAE) sind Schallaussendungen des Innenohres. OAE können<br />
spontan vorhanden sein oder mit akustischen Reizen erzwungen werden. Die verblüffende<br />
Tatsache, dass Schall aus dem Innenohr emittiert wird, setzt die Existenz einer<br />
Energiequelle in der Kochlea voraus. Seit dem Nachweis der Motilität der äußeren<br />
Haarzellen wird angenommen, dass die äußeren Haarzellen als mechanische Verstärker<br />
fungieren, die die Sensitivität und Trennschärfe des Hörorgans erhöhen. OAE sind<br />
Epiphänomene des normalen Hörvorgangs. Sie sind Ausdruck des nicht-linearen<br />
Verstärkungsprozesses in der Kochlea. OAE schließen eine bisher bestehende Lücke, da sie<br />
die direkte Prüfung der Innenohrfunktion erlauben.<br />
Wegen ihrer einfachen Handhabbarkeit und der Tatsache, dass OAE (i.G. zu den AEP)<br />
bereits mit der Geburt voll entwickelt sind, sind sie die Methode der Wahl beim<br />
Neugeborenen Hörscreening. In der pädaudiologischen Diagnostik sind sie eine wertvolle<br />
Hilfe zur frequenzspezifischen und quantitativen Bestimmung kochleärer<br />
Funktionsstörungen. Da sie die kompressive Verstärkung der Kochlea direkt widerspiegeln,<br />
können sie auch eine Methode zur Bestimmung des Rekruitments sein. Mit Hilfe der OAE<br />
können kleinste Funktionsstörungen erfasst werden. Sie sind daher eine höchst sensitive<br />
Methode zur Erkennung beginnender Hörstörungen und Bestimmung ihres Verlaufs bei<br />
Lärmexposition oder Einnahme von ototoxischen Medikamenten.<br />
Man unterscheidet:<br />
spontane OAE (SOAE), die in der Form tonaler Schallsignale ohne Einwirkung eines<br />
akustischen Reizes fortwährend emittiert werden,<br />
110
evozierte OAE, die durch Einwirkung eines äußeren Schallereignisses entstehen. Die<br />
evozierten otoakustischen Emissionen werden je nach Art der Schallreizung unterteilt in<br />
transitorisch evozierte OAE (TEOAE),<br />
simultan evozierte OAE (SEOAE),<br />
Distorsionsprodukt-OAE (DPOAE oder DP).<br />
Durch einen Schallreiz werden die nach ihrem Standort in der Cochlea auf unterschiedliche<br />
Frequenzen abgestimmten äußeren Haarzellen zu Schwingungen angeregt. Bei transienter<br />
Anregung mit Klicks oder Tonimpulsen werden die äußeren Haarzellen angestoßen. Ihr<br />
Schwingungsverhalten entspricht einer Stoßantwort. Frequenz und Dauer der Stoßantwort<br />
sind abhängig von der Eigenfrequenz der äußeren Haarzelle und damit vom Standort der<br />
Haarzelle in der Kochlea. Bei stationärer Anregung des Ohres mit Tönen werden die im<br />
schmalen Bereich der Basilarmembranausbauchung liegenden Haarzellen in periodische<br />
Schwingungen versetzt, deren Frequenz der des anregenden Tones entspricht. Auf welche<br />
Weise die äußeren Haarzellen auch in Kontraktionen versetzt werden - sei es wie bei den<br />
spontanen OAE durch eine interne Energiequelle oder wie bei den evozierten OAE durch<br />
Stimulation mittels Schallenergie von außen - jede Kontraktion der mikromechanischen<br />
Strukturen des Corti-Organs setzt Schwingungsenergie in der Cochlea frei, die als retrograde<br />
Schallaussendung mit einem empfindlichen Mikrophon im äußeren Gehörgang gemessen<br />
werden kann.<br />
TEOAE werden mit kurzen Schallimpulsen (Klick, Tonimpuls) ausgelöst und weisen ein<br />
breitbandiges Spektrum auf. Sie sind die Summe der Emissionen aus einem weiten Bereich<br />
der Cochlea. Bei Anregung des Ohres mit einem transienten Schallreiz (Klick) breitet sich<br />
eine Welle auf der Basilarmembran aus, die von basal nach apikal läuft. Auf ihrem Weg zur<br />
Schneckenspitze stößt sie die äußeren Haarzellen hintereinander an. Die je nach ihrem<br />
Standort in der Kochlea auf unterschiedliche Frequenzen abgestimmten äußeren Haarzellen<br />
erzeugen dabei infolge der Filtereigenschaften der Basilarmembran und des Cortischen<br />
Organs Stoßantworten, deren Schwingungen – abhängig von ihrem Standort in der Kochlea<br />
- unterschiedliche Frequenz und Dauer haben. TEOAE sind die Summe der Stoßantworten<br />
der äußeren Haarzellen. Die aus dem basalen Bereich der Kochlea stammenden TEOAE-<br />
Komponenten haben hohe, die aus dem apikalwärts gelegenen Kochleaabschnitten<br />
stammenden TEOAE-Komponenten tiefere Frequenzen. Die basalen TEOAE-Komponenten<br />
treten früh, die medialen und apikalen TEOAE-Komponenten treten entsprechend der<br />
Laufzeit in der Cochlea später auf (Latenz). Der Vorteil der TEOAE ist der, dass mit einem<br />
111
Reiz nahezu alle Haarzellen in der Cochlea angestoßen werden und ihre Fähigkeit zur<br />
Kontraktion in einem Messvorgang erfasst werden kann. Sind die äußeren Haarzellen<br />
schwingungsfähig, so emittieren sie Stoßantworten mit einer ihrem Standort entsprechenden<br />
Frequenz. Sind äußere Haarzellen in bestimmten Cochleaabschnitten in ihrer Funktion<br />
gestört, so senden diese keinen Schall aus, und es fehlt in der Summe der emittierten<br />
Stoßantworten die entsprechenden Stoßantworten mit der jeweiligen Frequenz und Latenz.<br />
TEOAE sind bei Neugeborenen die Hörscreening-Methode der Wahl, weil sie schnell und<br />
einfach messbar sind und durch den Einsatz statistischer Tests eine automatische<br />
Befunderhebung möglich ist: 1. Verdacht auf Schwerhörigkeit, weitere Untersuchungen<br />
notwendig (fail), 2. kein Verdacht auf das Vorliegen einer Schwerhörigkeit (pass). Bei<br />
Fruchtwasserresten in der Paukenhöhle in den ersten Lebensstunden und –tagen sind<br />
TEOAE nicht nachweisbar. Es wird daher ein mehrstufiges Hörscreening angewendet:<br />
Weiderholungsmessung der TEOAE ab dem 3. Lebenstag, zusätzliche Messung der FAEP.<br />
Es ist zu beachten, dass retrocochleäre Hörstörungen und eine auditorische Neuropathie<br />
(Störungen der Synapsenfunktion der Inneren Haarzellen) unerkannt bleiben, wenn nur<br />
TEOAE gemessen werden.<br />
Während TEOAE eher eine qualitative Messgröße zur Bestimmung von kochleären<br />
Funktionsstörungen sind, sind die DPOAE in der Lage, quantitative Informationen über den<br />
Sensitivitäts-, Kompressions- und Trennschärfeverlust des kochleären Verstärkers zu geben.<br />
DPOAE werden mit 2 Tönen (Primärtöne) benachbarter Frequenz ausgelöst und entstehen<br />
als direkte Folge der Nichtlinearität des kochleären Verstärkungsmechanismus. Sie geben<br />
die Emissionen aus der schmalen Überlappungszone der Wanderwellen der Primärtöne<br />
wieder. Die DPOAE haben eine Frequenz, die sich aus der Kombination der<br />
Primärtonfrequenzen f1 und f2 zusammensetzt. Beim Menschen haben die<br />
Distorsionsproduktemissionen mit der Frequenz 2f1-f2 die größte Schalldruckamplitude. Bei<br />
Verschiebung des Überlappungsbereichs entlang der Cochlea können Verzerrungen an<br />
unterschiedlichen Cochleaorten gemessen werden. Das Ergebnis ist dann ein DPOAE-<br />
Gramm. Mit einem DPOAE-Gramm kann man grob nachschauen, in welchem Bereich der<br />
Cochlea eine Funktionsstörung vorliegt. Hierbei ist aber zu beachten, dass die DPOAE<br />
schwellennah ausgelöst werden müssen. Viele Leute wundern sich, warum DPOAE-Gramm<br />
und Tonschwellenaudiogramm nicht übereinstimmen. Sie haben dann einfach<br />
überschwellige Reizpegel und nicht schwellennahe Reizpegel zur Auslösung der DPOAE<br />
verwendet.<br />
112
Wenn man die Frequenzen der Primärtöne konstant hält und ihre Pegel ändert, erhält man<br />
eine DPOAE I/O-Funktion. Bei der Einstellung der Primärtonpegel ist die kompressive Nicht-<br />
Linearität der Cochlea am Ort f2 zu beachten. Die Primärtöne müssen daher in ihrem Pegel<br />
unterschiedlich eingestellt werden, z.B. nach der „Pegelschere“ (L1 = 0,4 L2 -39). Wenn man<br />
so verfährt, dann spiegelt die DPOAE I/O-Funktion die nicht-lineare Verstärkung der äußeren<br />
Haarzellen wide. Mit extrapolierten DPOAE I/O-Funktionen kann eine relativ genaue<br />
Schätzung des Hörverlustes in der Form eines DPOAE-Kochleogramms vorgenommen<br />
werden. Mit den DPOAE-Kochleogrammen lässt sich bei Neugeborenen und Kindern eine<br />
frequenzspezifische und quantitative Aussage über den Hörverlust treffen. Mit Hilfe des<br />
Steigungsprofils kann der Kompressionsverlust der cochleären Verstärkung bestimmt<br />
werden. So lassen sich aus den DPOAE I/O-Funktionen Anpassparameter <strong>für</strong> Hörgeräte<br />
ableiten. Dies allerdings nur bis zu Hörverlusten von 50 dB HL. Bei Hörverlusten größer als<br />
50 dB HL müssen die frequenzspezifischen auditorischen steady-state Antworten (ASSR)<br />
weiterhelfen.<br />
113
Die DPOAE kann man unterdrücken, wenn man einen Suppressorton appliziert, den man in Frequenz und Pegel<br />
so variiert, dass sich die DPOAE-Amplitude um einen bestimmten Wert ändert. Man erhält dann eine DPOAE Iso-<br />
Suppressionstuningkurve. Aus den DPOAE Iso-Suppressionstuningkurven können Informationen über die<br />
mechanische Abstimmung der Cochlea gewonnen werden. Die DPOAE Iso-Suppressionstuningkurven sind<br />
deckungsgleich mit den neuralen Tuningkurven. Das bedeutet die Trennschärfe des Hörorgans findet in der<br />
Cochlea statt. Neugeborene haben gleiche DPOAE Iso-Suppressionstuningkurven wie Erwachsene. Die Cochlea<br />
ist damit schon von Geburt an reif.<br />
Mit Hilfe der DPOAE lässt sich auch die Reflexstärke des efferenten Hörsystems bestimmen. Entweder mit der<br />
DPOAE-Adaptation oder der contralateralen DPOAE-Suppression. Die DPOAE-Adaptation spiegelt das<br />
Einschwingverhalten der äußeren Haarzellen wider. Beim Einschalten der Primärtöne kommt es zunächst zu<br />
einem raschen Anstieg des DPOAE Pegels innerhalb von etwa 200 ms. Danach nimmt die Amplitude um etwa 1<br />
dB ab und bleibt konstant. Das bedeutet, dass das efferente Hörsystem die Schwingung der äußeren Haarzellen<br />
dämpft. Auch die akustische Stimulation des Gegenohres führt zu einer Dämpfung der Haarzellschwingung. Das<br />
Ergebnis ist dann eine contralaterale DPOAE-Suppression. Die contralaterale DPOAE-Suppression kann Werte<br />
von über 10 dB annehmen, wenn bestimmte Primärtonpegelkombinationen verwendet werden. Damit ist die<br />
contralaterale DPOAE-Suppression eine geeignete Messgröße zur Untersuchung der Funktion des efferenten<br />
Hörsystems. Das efferente Hörsystem gibt noch viele Rätsel auf. Man weiß nicht, ob es der Verbesserung der<br />
Signalerkennung im Störgeräusch oder zum Schutz bei zu lauter Schalleinwirkung dient. Die DPOAE könnten ein<br />
Prädiktor der Vulnerabilität der Cochlea sein, wenn man davon ausgeht, dass Ohren mit einer großen<br />
Reflexstärke besser vor Lärm geschützt sind als Ohren mit kleiner Reflexstärke.<br />
Auditorisch evozierte Potentiale FAEP, ASSR<br />
Auditorisch evozierte Potentiale repräsentieren die an der Kopfhaut über Klebeelektroden<br />
gemessene reizsynchrone elektrische Aktivität auf verschiedenen Stufen der Hörbahn. Die<br />
an der Kopfhaut abgegriffene Spannung liegt je nach Entstehungsort zwischen 100 Nanovolt<br />
und 1 Mikrovolt. Zur Extraktion der reizsynchronen Antwort aus dem EEG ist eine Mittelung<br />
einzelner Antworten notwendig (n=2000). Der Signal/Störabstand nimmt mit der Wurzel aus<br />
der Anzahl n der Mittelungen zu. Bei kleinen Potentialamplituden muss die Anzahl der<br />
Mittelungen erhöht werden (n=4000). Man unterteilt die Potentialkomponenten nach ihrem<br />
zeitlichen Auftreten nach Reizbeginn (Latenz) in frühe akustisch evozierte Potentiale (FAEP),<br />
in Potentiale mittlerer und später Latenz (MLR, SAEP).<br />
Die FAEP bilden drei prominente, mit römischen Ziffern (I, III, V) gekennzeichnete Wellen<br />
aus. Mit abnehmendem Reizpegel nimmt die Latenz der Potentialwellen zu (Welle V bei 80<br />
dBnHL = 5,5ms, bei 10 dB nHL = 8ms bei einem Normalhörenden). Bei einer<br />
Mittelohrschwerhörigkeit liegt die Potentialschwelle in etwa dem Hörverlust entsprechend<br />
höher (gilt streng genommen nur <strong>für</strong> den pantonalen Hörverlust). Die Latenz ist verschoben<br />
114
entsprechend dem Hörverlust; d.h. bei einer Mittelohrschwerhörigkeit von 40 dB<br />
beispielsweise wird bei einem Reizpegel von 60 dB eine Antwort erzielt, die der Antwort<br />
eines Normalhörenden bei einem Reizpegel von 20 dBnHL entspricht. Bei einer<br />
pancochleären Schwerhörigkeit ist die Potentialschwelle entsprechend dem Hörverlust<br />
verschoben, die Latenz ist jedoch normal. Bei einer basocochleären Schwerhörigkeit ist die<br />
Latenz entsprechend der Laufzeit der Wanderwelle über den gestörten Sinneszellabschnitt<br />
verlängert. Die Verschiebung der Potentialschwelle entspricht dabei nicht unbedingt dem<br />
Hörverlust. Bei einem Hochtonabfall mit begrenztem Hörverlust ist die Latenz bei kleinen<br />
Reizpegeln verschoben, bei hohen Reizpegeln normalisiert sich die Latenz.<br />
Die Amplitude der FAEP gibt keine direkte Information über den Hörverlust. Allerdings fällt<br />
beim Recruitment eine sprunghafte Änderung der Potentialamplitude mit steigendem<br />
Reizpegel auf. Bei einer retrocochleären Hörstörung ist die Inter-Peak-Latenz (Zeit zwischen<br />
Welle I und V) entsprechend der verlangsamten neuralen Transmission auf den direkt<br />
(Neurofibromatose) oder indirekt (Druck durch Raumforderung) geschädigten<br />
Hörnervenfasern. Die Inter-Peak-Latenz beträgt im Mittel bei Normalhörenden 3,8 ms<br />
(Frauen) bzw. 4,2 ms (Männer). Bei einer verlängerten Inter-Peak-Latenz von 0,2 ms besteht<br />
Verdacht auf eine retrocochleäre Störung.<br />
Die FAEP werden üblicherweise mit Klick-Reizen ausgelöst. Wegen der hohen<br />
Anfangsgeschwindigkeit (260 km/h) der durch den Klick in der Cochlea ausgelösten Welle ist<br />
die Synchronisation der Entladungen (Aktionspotentiale auf den 30 000 Hörnervenfasern) im<br />
basalen Bereich der Cochlea am größten. Die basalen Sinneszellen und Hörnervenfasern<br />
tragen somit am meisten zur Bildung der FAEP bei. Wegen der transienten Anregung<br />
können keine frequenzspezifischen Antworten erzeugt werden. Durch Maskierung<br />
gegrenzter Cocheabereiche mittels Hochpass-Rauschen (derived response technique) oder<br />
Notched-Noise ist eine indirekte frequenzspezifische Aussage über den Hörverlust möglich.<br />
Wegen der geringen Anzahl der zur Potentialbildung beitragenden Hörnervenfasern ist die<br />
Potentialamplitude sehr klein und so die Aussagekraft der Antworten eingeschränkt. Die mit<br />
Tonimpulsen ausgelösten FAEP können nur dann eine frequenzspezifische Aussage über<br />
den Hörverlust treffen, wenn sie mit kleinen Reizpegeln ausgelöst werden. Bei hohen<br />
Reizpegeln, die ja bei Patienten mit größeren Hörverlusten zur Anwendung kommen<br />
müssen, ist wegen der basalen Miterregung (auch bei tieffrequenten Tonimpulsen werden<br />
basale Sinneszellen aktiviert, obwohl die Wanderwelle nach der Frequenz-Orts-<br />
Transformation im apikalen Bereich der Cochlea ihre maximale Auslenkung hat) keine<br />
frequenzspezifische Erfassung des Hörverlustes möglich. Dies gilt auch <strong>für</strong> den Chirp.<br />
In der klinischen Diagnostik werden die FAEP zur groben Erfassung des Hörverlustes bei<br />
Kindern und zur Erkennung von Akustikusneurinomen und Hirnstammtumoren<br />
herangezogen. Bei einem hohen Vigilanzniveau (Wachheit) und bei abgeschlossener<br />
Hörbahnreifung können die frequenzspezifischeren MLR und SAEP eingesetzt werden. Da<br />
diese Forderungen bei kleinen Kindern nicht erfüllt sind, spielen die MLR und SAEP in der<br />
Pädaudiologie nur eine untergeordnete Rolle.<br />
Ereigniskorrelierte Potentiale (event-related-potentials, ERP) dienen zur Erfassung von<br />
zentralen Störungen; die Mismatch Negativity (MMN), die die unbewusste Detektion seltener<br />
Ereignisse (Devianten) innerhalb einer Serie von Standardreizen erkennt, und die Welle<br />
P300 bzw. P400 (late positive complex), die bei einer Reaktion auf einen unerwarteten Reiz<br />
bzw. bei semantischer Verarbeitung von Sprache nachweisbar sind. Diese Verfahren können<br />
nur bei ältern Kindern z.B. zur Objektivierung von auditiven Verarbeitungs- und<br />
Wahrnehmungsstörungen und Sprachentwicklungsstörungen eingesetzt werden.<br />
115
Die auditorischen Steady State Antworten (ASSR) bieten die Möglichkeit zur<br />
frequenzspezifischen Erfassung des Hörverlusts. Allerdings sind zu ihrer Ableitung lange<br />
Messzeiten erforderlich.<br />
116
Die ASSR werden mit amplitudenmodulierten Dauertönen ausgelöst. Typische<br />
Modulationsfrequenzen (fm) sind 40 Hz, 80 Hz und 120 Hz. Je niedriger die<br />
Modulationsfrequenz, umso höher der Entstehungsort der Potentiale auf der aufsteigenden<br />
Hörbahn und umso größer die Potentialamplitude (und damit bessere Messbedingungen).<br />
Wegen der Vigilanzabhängigkeit können bei sedierten Kindern nur die 80Hz oder 120Hz<br />
ASSR mit der kleineren Amplitude eingesetzt werden. In den letzten Jahren sind eine Reihe<br />
von Veröffentlichungen über die Methode der ASSR erschienen (Überblick s. Picton et. al).<br />
Es gibt allerdings vergleichsweise wenige Veröffentlichungen über ihren klinischen Einsatz.<br />
Der Vorteil gegenüber den FAEP ist der, dass die Sinneszellen in der Cochlea entsprechend<br />
der Trägerfrequenz (fc= 125 Hz – 8 kHz) in gezielten Arealen erregt werden können, die<br />
synchronisierte Aktivität jedoch im Hirnstamm (Modulationsfrequenz 80 Hz) oder Subcortex<br />
(Modulationsfrequenz 40 Hz) stattfindet.<br />
Ausblick: DPOAE lassen sich nur bei Hörverlusten bis 50 dB HL messen. Unterhalb 1 kHz<br />
sind wegen des hohen Störgeräuschs DPOAE nur schwer messbar. Bei hohen Frequenzen<br />
> 6 kHz tritt das Problem der stehenden Wellen auf. Das bedeutet, dass der an der<br />
Sondenspitze gemessene Schalldruck nicht dem Schalldruck am Trommelfell entspricht. Um<br />
eine Schätzung des Hörverlusts im gesamten Frequenz- und Dynamikbereich des Hörens<br />
vornehmen zu können, müssen DPOAE und ASSR gemessen werden: DPOAE wo möglich,<br />
ASSR wo nötig. DPOAE und ASSR lassen sich auch simultan messen, z.B. können während<br />
der langen ASSR-Messzeiten DPOAE ohne zusätzlichen Zeitaufwand registriert werden.<br />
117
Pädaudiologische Hörtests<br />
In der pädaudiologischen Diagnostik werden psychoakustische Prüfverfahren und<br />
physiologische Messverfahren zur Lokalisation und quantitativen Erfassung einer<br />
Schwerhörigkeit angewendet. Die audiometrischen Tests liefern Kenngrößen der gestörten<br />
Hörfunktion. Physiologische Tests (Tympanometrie, OAE und AEP) sind essentielle<br />
Bestandteile der audiometrischen Testbatterie, da sie nicht auf die aktive Mitarbeit des<br />
Kindes angewiesen sind, setzen aber ein ruhiges, in der Regel spontan schlafendes oder<br />
sediertes Kind voraus. Sie bieten darüber hinaus die Möglichkeit, den Hörschaden zu<br />
lokalisieren.<br />
Die unverzichtbare Basis <strong>für</strong> eine erfolgreiche Hörgeräte-Versorgung ist die Ermittlung einer<br />
seitengetrennten und frequenzspezifischen Hörschwelle. Um die Befunde untereinander<br />
abzusichern, bedarf es der Zusammenschau der Ergebnisse verschiedener audiometrischer<br />
Verfahren, sowohl der psychometrischen, als auch der physiologischen Verfahren.<br />
Zur Diagnose frühkindlicher Hörstörungen stehen altersabhängig verschiedene subjektive<br />
Hörprüfverfahren zur Verfügung. Im Rahmen subjektiver Hörprüfungen werden vom<br />
Untersucher die stark altersabhängigen Reflex- und Reaktionsschwellen ermittelt, die als<br />
Antwort auf akustische Reize nachweisbar sind. Die Schwellenwerte zur Auslösung von<br />
Reflexen oder Verhaltensänderungen nach akustischer Reizung unterliegen jedoch einem<br />
altersbedingten Reifungsprozess; die korrekte Bewertung dieser Antworten gelingt nur einem<br />
erfahrenen Untersucher. Als subjektive Hörprüfverfahren kommen im ersten und zweiten<br />
Lebensjahr die Reflex- und Verhaltensaudiometrie zum Einsatz, ab ca. dem dritten<br />
Lebensjahr die Spielaudiometrie.<br />
Die subjektiven Hörprüfmethoden beim Säugling und Kleinkind lassen sich in folgende<br />
Kategorien einteilen:<br />
Reflexaudiometrie<br />
Bei der Reflexaudiometrie werden die in den ersten Lebensmonaten noch nachweisbaren unbedingten Reflexe<br />
des Kindes, wie z. B. das Zucken der Augenlider (Auropalpebralreflex), das reflexartige Anziehen der Arme und<br />
Beine (Moro-Reflex, Schreck-Reflex), Änderungen der Atmung, der Mimik und Gestik als Antwort auf akustische<br />
Reize (Töne, Rauschen, Kinderlieder etc.) beurteilt. Die Reaktionen des Kindes auf Bewegungen und visuelle<br />
Reize können jedoch dabei oft als Hörreaktionen fehl gedeutet werden.<br />
Verhaltensaudiometrie<br />
Mit zunehmendem Alter lassen die unbedingten Reflexe der Kinder nach, so dass ab dem 3.-4. Lebensmonat<br />
eine Verhaltensaudiometrie eingesetzt wird. Dabei werden Verhaltensänderungen des Kindes, wie z.B.<br />
Zuwendungsreaktionen der Augen oder des Kopfes zur Schallquelle, Änderungen der Mimik, Gestik oder der<br />
Atmung sowie Aktivitätsänderungen als Antwort auf akustische Reize im Freifeld sowie über<br />
Knochenleitungshörer geprüft.<br />
Ablenkaudiometrie<br />
Ab dem 6.-7. Lebensmonat lässt sich die sog. Ablenkaudiometrie durchführen. Dieses Verfahren beruht darauf,<br />
dass auf einem Bildschirm kindgerechte Bilder gleichzeitig mit der Präsentation eines lauten, überschwelligen<br />
akustischen Signals gezeigt werden. In der Konditionierungsphase lernt das Kind, dass visueller und auditiver<br />
Reiz immer gleichzeitig erscheinen. In der anschließenden Untersuchungsphase lässt man die visuelle<br />
Darbietung etwas verzögert gegen die auditive Stimulation auftreten. Das Kind wird <strong>für</strong> die richtige Reaktion auf<br />
einen auditiven Stimulus mit einem neuen Bild belohnt. Der Reizpegel wird dabei bis zur Reaktionsschwelle<br />
erniedrigt (d.h., man tastet sich langsam an die „Hörschwelle“ heran).<br />
Spielaudiometrie<br />
Die Spielaudiometrie kann ca. ab dem 3. Lebensjahr eingesetzt werden. Im Gegensatz zur Verhaltensaudiometrie<br />
arbeitet das Kind aktiv mit. Auch hier bedarf es einer Konditionierungsphase. Das Kind führt nach Gabe eines<br />
akustischen Reizes eine Spielhandlung aus (z.B. es steckt ein Holzklötzchen in ein Steckbrett).<br />
Sprachtests<br />
Sprachtests untersuchen das Diskriminationsverhalten <strong>für</strong> komplexe Signale mit semantischer Information. Im<br />
deutschsprachigen Raum werden bei Vorschul- und Schulkinder in der Regel der Mainzer Kindersprachtest und<br />
der Göttinger Kindersprachverständnistest I und II verwendet. Dazu gibt es den Heidelberger Konsonant-Vokal-<br />
Konsonnat Test, den <strong>Oldenburg</strong>er Zweisilber-Kinderreimtest (OLKI) und den Würzburger Kindersprachtest. Neu<br />
ist der adaptive auditive Sprachtest (AAST), wo sechs Zweisilber (Flugzeug, Eisbär, Schneemann, Lenkrad,<br />
118
Handschuh, Fußball) verwendet werden. Das Kind muss – wenn es das Wort verstanden hat - das<br />
entsprechende Bild auf dem Touchscreen eines PDAs auswählen. Das Testergebnis ist eine Zahl in dB, die<br />
aussagt, bei welcher Intensität (dB) die Hälfte der Worte verstanden wird.<br />
DPOAE-Kochleogramme<br />
Bei der Verhaltens- oder Spielaudiometrie wird eine hohe Diskrepanz zwischen der Reaktionsschwelle und der<br />
tatsächlichen Hörschwelle beobachtet. Je nach Alter kann die Differenz zwischen 60 dB (4 Monate altes Kind)<br />
und 25 dB (2 Jahre altes Kind) betragen. Das DPOAE-Kochleogramm erlaubt eine genauere Schätzung des<br />
Hörverlustes und bietet sich daher als ergänzende oder alternative Methode an. Weitere Vorteile sind<br />
seitenselektive Erfassung des Hörverlustes und schnellere Messzeiten. In Hinblick auf die Sprachentwicklung<br />
sind bei Kindern Hörgeräte schon bei cochleären Hörverlusten ab 25 dBHL indiziert. Das bedeutet, dass DPOAE-<br />
Kochleogramme auch bei der Hörgeräteanpassung wertvolle Dienste leisten könne.<br />
Qualitätssicherung<br />
Subjektive Tests<br />
Hörprüfraum: schallarm, maximal zulässiger Pegel des Störschalls in ISO 389-1<br />
Audiometer: geeicht, messtechnische Überprüfung des Audiometres inclusive Hörer<br />
mindestens 2 x jährlich.<br />
Durch Einhaltung der Standards (Tonschwelle: IEC 60645-1, ISO 389-1-2-3-4, ISO 8253-1;<br />
Sprachtests: IEC 60645-2, ISO 8253-3) ist gewährleistet, dass die an unterschiedlichen<br />
Orten erhobenen Daten vergleichbar sind.<br />
Fehlerquellen:<br />
Raum:<br />
119
Störschall zu groß<br />
Geräte:<br />
Falsche Kalibrierung, schlechter Funktionszustand müssen vermieden werden.<br />
Untersucher:<br />
1. Falsches Anbringen der elektroakustischen Wandler. Verwechselung der Seite kann bei<br />
einer anstehenden OP katastrophal sein! falsche Ankoppelung an den Gehörgang kann die<br />
Hörschwellenbestimmung erheblich verschlechtern!<br />
2. Schlechte Instruktion des Patienten und schnelles Untersuchungstempo können ebenfalls<br />
zu falschen Ergebnissen führen.<br />
3. Nicht-Beachten der Fühlschwelle bei der Knochenleitung und Nicht-Beachten der<br />
Vertäubungsregeln zur Vermeidung des Überhörens.<br />
Patient: Patient kann simulieren oder aggravieren.<br />
Tinnitus: Durch Verdeckung des Prüftons durch den Tinnitus kann es zu widersprüchlichen<br />
Ergebnissen zwischen den physiologischen und psychoakustischen Tests kommen.<br />
Objektive Tests<br />
OAE: Die bei der Registrierung der OAE verwendeten Ohrsonden sind sehr stoßempfindlich. Die<br />
wöchentliche Messung der Übertragungsfunktion in einem künstlichen Ohrsimulator (B&K 5147) ist zu<br />
empfehlen. Die Röhrchen der Ohrsonden können durch Cerumen verstopft werden. Es sollten daher<br />
Sonden zur Anwendung kommen, die zerlegbar und damit leicht zu reinigen sind. Über das<br />
Sondenkabel können Störsignale entstehen. Um dies zu vermeiden sollte die Sonde am Kabel über<br />
eine Vorrichtung über den Kopf des Patienten schwebend angebracht werden.<br />
Um schwellenahe Messungen der OAE zu gewährleisten oder Messungen an Patienten mit größeren<br />
Hörverlusten durchführen zu können, müssen Mikrophone verwendet werden, die ein geringes<br />
Eigenrauschen haben. Nach 200 Mittelungen sollte das Störgeräusch bei den DPOAE im mittleren<br />
Frequenzbereich besser als -30 dB SPL sein.<br />
Eine Überprüfung des Sondensitzes während der Messung sollte automatisch durch Messung der<br />
Schalldruckübertragungsfunktion erfolgen. Es sollten einheitliche Kriterien zur Sicherstellung der<br />
Validität der Antwort verwendet werden (z.B. Korrelation der beiden TEOAE-Aufnahmepuffer > 65%,<br />
Signal-Störabstand von > 6 dB bei den DPOAE).<br />
AEP: s. Empfehlungen der ADANO zur Durchführung der ERA mit transienten Potentialen<br />
Literatur:<br />
Mrowinski und Mitarbeiter: Audiometrie, Thieme Verlag (Kleines Lehrbuch über audiometrische<br />
Standardverfahren der subjektiven Audiometrie. Objektive Audiometrie und Pädaudiologie wird nur kurz<br />
dargestellt.<br />
Lehnhardt und Laszig (Hrsg): Praxis der Audiometrie (Großes Lehrbuch der subjektiven und objektiven Verfahren<br />
der Audiometrie). Thieme Verlag. Eine neue Ausgabe erfolgt in 2009.<br />
Hoth und Lenarz: Elektrische Reaktions-Audiometrie, Springer<br />
Hoth und Lenarz: Otoakustische Emissionen, Thieme<br />
Zu den OAE:<br />
Janssen und Müller: Otoacoustic emissions as a diagnostic tool in a clinical context. In: Active processes and<br />
otoacoustic emissions. Springer Handbook of Auditory Research 30. Springer New York<br />
Zu den ASSR:<br />
Pethe J, Mühler R, von Specht H (2001). Zur Abhängigkeit der AMFR von der Vigilanz. HNO 49:188-193<br />
Pethe J (2003) Amplitude modulation following responses (AMFR) – ein neuer Weg zur objektiven Bestimmung<br />
der Hörschwelle. HörBericht 72, Geers Hörakustik<br />
Picton TW, Skinner CR, Champagne SC, Kellett AJC, Maistre A (1987) Potentials evoked by the sinusoidal<br />
modulation of the amplitude or frequency of a tone. J Acoust Soc Am 82: 165-178<br />
Picton TW, Dimitrijevic A, John MS, von Roon P (2001) The use of phase in the detection of auditory steady-state<br />
responses. Clinical Neurophysiology 112: 1698-1711<br />
120
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Physikalische Grundlagen der<br />
Akustik<br />
Prof.Dr.-Ing. Matthias Blau<br />
Institut <strong>für</strong> Hörtechnik und <strong>Audiologie</strong><br />
FH <strong>Oldenburg</strong>/Ostfriesland/Wilhelmshaven<br />
XXI. Winterschule der <strong>Deutsche</strong>n <strong>Gesellschaft</strong> <strong>für</strong> Medizinische Physik<br />
Pichl 2009<br />
Übersicht<br />
1. Was ist Schall?<br />
2. Grundgrößen: p, v, I, P<br />
3. Schallausbreitung 1<br />
4. Schallausbreitung 2<br />
5. Ebene Wellen<br />
6. Kugelwellen<br />
7. Echt dreidimensionale Wellen<br />
8. Diffuses Schallfeld<br />
Seite 121
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
1. Was ist Schall?<br />
• Schall: mechanische Schwingungen und Wellen in einem<br />
elastischen Medium<br />
– elastisches Medium: Gas, Flüssigkeit, Festkörper<br />
im weiteren: Luft<br />
– Hörschall: Beschränkung auf<br />
(16...20) Hz ≤ f ≤ (16...20) kHz<br />
1. Was ist Schall?<br />
• 1D-Betrachtung:<br />
Fortpflanzung lokaler Druckschwankungen (Verdichtungen,<br />
Verdünnungen) als Longitudinalwelle<br />
t=0<br />
t=0.05T<br />
t=0.1T<br />
t=0.15T<br />
t=0.2T<br />
t=0.25T<br />
t=0.3T<br />
x=0<br />
λ<br />
x<br />
Seite 122
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
2. Grundgrößen: p, v, I, P<br />
• Schallschnelle v:<br />
– Wechselgeschwindigkeit, mit der die Luftteilchen<br />
schwingen<br />
– Richtungssinn = Ausbreitungsrichtung der Welle<br />
– 1µm/s (sehr leise) . . .einige cm/s (sehr laut)<br />
• Schalldruck p:<br />
– dem statischen Luftdruck (≈ 100 kPa) überlagerte<br />
Druckschwankungen<br />
– ungerichtet<br />
– < 1 mPa (sehr leise) . . .einige 10 Pa (sehr laut)<br />
2. Grundgrößen: p, v, I, P<br />
• Schallleistung P:<br />
– reine Quellgröße, kennzeichnet Energiefluss der<br />
Quelle<br />
– P ∝ ˜p 2<br />
Seite 123
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
2. Grundgrößen: p, v, I, P<br />
• Schallintensität I:<br />
– Feldgröße, flächenbezogener Energiefluss in Richtung<br />
der Wellenausbreitung<br />
– I = zeitliches Mittel { pv } und P = ‚<br />
I d S<br />
I(r)<br />
I(r)<br />
I(r)<br />
I(r)<br />
r<br />
I(r)<br />
Quelle,<br />
Schalleistung P<br />
I(r)<br />
3. Schallausbreitung 1<br />
dS<br />
I(r)<br />
• Schallgeschwindigkeit c:<br />
I(r)<br />
n<br />
I(r)<br />
I(r)<br />
S<br />
kugelsymmetrische<br />
ungerichtete<br />
Abstrahlung:<br />
P = I(r) · 4πr 2<br />
– adiabatische Zustandsänderung c 2 ≈ κ p /̺<br />
oder c 2 ≈ κ RT .<br />
– c ∝ √ T<br />
c 0 ◦ C = 331 m/s<br />
c 20 ◦ C = 343 m/s<br />
– λ = c/f<br />
Seite 124
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
3. Schallausbreitung 1<br />
• Reflexion, Beugung, Streuung:<br />
Die Wellenlänge ist das Maß aller Dinge<br />
3. Schallausbreitung 1<br />
• Brechung: Snelliussches Brechungsgesetz<br />
sin ϑ1<br />
=<br />
sin ϑ2<br />
c1<br />
c2<br />
c > c<br />
1 2<br />
(Reichardt)<br />
Seite 125
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
3. Schallausbreitung 1<br />
• Schallausbreitung in der Atmosphäre - normal<br />
T c<br />
• Schallausbreitung in der Atmosphäre - laue Sommernacht<br />
T c<br />
4. Schallausbreitung 2<br />
• Wellengleichung<br />
(d’Alambert, Euler, Lagrange 1747-1762)<br />
∆p(r,t) − 1<br />
c2 ∂2p(r,t) ∂t2 = 0<br />
– Laplace-Operator (in kartesischen Koordinaten)<br />
∆(r = x, y,z) = ∂2<br />
∂x<br />
∂y<br />
2 + ∂2<br />
∂z 2<br />
2 + ∂2<br />
– Voraussetzungen: adiabatische Zustandsänderung,<br />
keine Quellen im betrachteten Volumen, v ≪ c<br />
• Annahme sinusförmiger Zeitverläufe<br />
p(t) = ˆp cos(ωt + ϕp) = ℜ{ ˆp(ω) e jϕp(ω) e jωt }<br />
= ℜ{ ˆp(ω) e jωt }<br />
∆ˆp(r,ω)+k 2 ˆp(r,ω) = 0 Helmholtz-Gleichung, k = ω<br />
c<br />
Seite 126
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
4. Schallausbreitung 2<br />
• Beziehung zwischen Schalldruck und Schallschnelle<br />
– eindimensional: Luftvolumen Sdx wird durch Kraft<br />
Sp(x) − Sp(x + dx) in x-Richtung beschleunigt,<br />
S p(x) − p(x + dx) = ̺ Sdx dvx<br />
dt<br />
.<br />
– dreidimensional<br />
−grad p = ̺ ∂v<br />
∂t<br />
5. Ebene Wellen<br />
− ∂p<br />
∂x<br />
• Wo kommen ebene Wellen vor?<br />
= ̺ ∂vx<br />
∂t<br />
− grad ˆp(ω) = jω̺ ˆ v(ω)<br />
(sinusförmige Anregung)<br />
– in Rohren bei tiefen Frequenzen (ka < 1.84)<br />
• ebene Wellen - 1D-Betrachtung in x-Richtung<br />
∂ ˆp(x, ω)<br />
∂x + k2 ˆp(x, ω) = 0<br />
• Lösung: ˆp(x, ω) = ˆpe(ω) e −jkx + ˆpr(ω) e +jkx<br />
ˆv x(x, ω)̺ c = ˆpe(ω) e −jkx − ˆpr(ω) e +jkx<br />
ˆpe(ω) und ˆpr(ω) aus Randbedingungen<br />
Seite 127
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
5. Ebene Wellen<br />
• Beispiel: Rohr der Länge L, rechts mit spezifischer Impedanz<br />
ZW(ω) abgeschlossen, links mit kolbenförmiger<br />
Schnelle ˆv0(ω) angeregt<br />
ˆp(x, ω) = ˆpe(ω) e −jkx + ˆpr(ω) e +jkx<br />
ˆv x(x, ω)̺ c = ˆpe(ω) e −jkx − ˆpr(ω) e +jkx<br />
ˆp(x = 0, ω)<br />
ZW(ω) =<br />
ˆv x(x = 0, ω) = ̺ c ˆpe(ω) + ˆpr(ω)<br />
ˆpe(ω) − ˆpr(ω)<br />
ˆv0(ω) = ˆv x(x = −L, ω) = 1<br />
<br />
ˆpe(ω) e<br />
̺ c<br />
+jkL − ˆpr(ω) e −jkL<br />
<br />
führt zu<br />
ˆpr(ω) = ˆpe(ω) ZW(ω) − ̺ c<br />
= ˆpe(ω)r<br />
ZW(ω) + ̺ c<br />
ˆv0(ω)̺ c<br />
ˆpe(ω) =<br />
e +jkL − re−jkL r . ..Reflexionsfaktor<br />
5. Ebene Wellen<br />
• ˆp(x = 0) re ̺cˆv0, <strong>für</strong> ZW = ̺c 1 + 2j ,<br />
Rohrlänge L = 3 cm<br />
Schalldruckamplitude re ρcv<br />
6 6.0<br />
4 4.0<br />
Schalldruckamplitude re rho c v0<br />
2 2.0<br />
0 0.0<br />
0<br />
2k 4k 6k 8k 10k<br />
0 2000 4000 6000 8000 10000<br />
Frequenz in Hz<br />
Frequenz in Hz<br />
Seite 128
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
5. Ebene Wellen<br />
• Beispiele <strong>für</strong> Wandimpedanzen<br />
– Querschnittssprung ZW(ω) = ̺ c S1<br />
S2<br />
– starre Masse ZW(ω) = ̺ c + jωm ′′<br />
– Ende in unendlicher Schallwand<br />
6. Kugelwellen<br />
ZW(ω) ka≪1 = ̺ c<br />
• Wo kommen Kugelwellen vor?<br />
<br />
0.5(ka) 2 +j 8<br />
3π ka<br />
<br />
– im Fernfeld von Strahlern, die klein gegen λ sind<br />
Seite 129
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
6. Kugelwellen<br />
• Kugelkoordinaten<br />
r = x2 + y2 + z2 x<br />
cos α =<br />
sinϑ =<br />
√<br />
x2 + y2 √<br />
x2 + y2 √<br />
x2 + y2 + z2 • Laplace-Operator in Kugelkoordinaten:<br />
∆(r,α,ϑ) = ∂2<br />
∂r2+2 r<br />
∂<br />
∂r +<br />
1<br />
r 2 sin 2 ϑ<br />
x<br />
z<br />
α<br />
θ<br />
r<br />
∂2 1<br />
∂α2+ r2 ∂ 2<br />
∂ϑ<br />
y<br />
1 ∂<br />
2+ cot ϑ<br />
r2 ∂ϑ<br />
• allgemeine Lösung der Wellengleichung <strong>für</strong> Abstrahlung<br />
ins freie Schallfeld:<br />
ˆp(r,α,ϑ, ω) ∝ 1<br />
Γ(α, ϑ) e−jkr<br />
r<br />
6. Kugelwellen<br />
• Monopol (Punktstrahler)<br />
z<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0.2<br />
0.4<br />
0.6<br />
0.8<br />
1.0<br />
0.2 0.4 0.6 0.8 1.0<br />
– keine Abhängigkeit von der Richtung, nur von<br />
der Entfernung zu Quelle - 1D-Betrachtung in r-<br />
Richtung<br />
∆p = ∂2p 2<br />
+<br />
∂r2 r<br />
∂p<br />
∂r<br />
1∂<br />
=<br />
r<br />
2 (pr)<br />
∂r2 Seite 130
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
6. Kugelwellen<br />
• Monopol (cont’d)<br />
– Wellengleichung ∂2 (rˆp(ω))<br />
∂r 2<br />
– Schalldruck ˆp(r,ω) =<br />
– Richtfaktor Γ(α, ϑ) = 1<br />
jω ̺<br />
4πr<br />
+ k 2 rˆp(ω) = 0<br />
ˆq e−jkr<br />
– Intensität Ir(r,ω) 2πr≫λ = ̺ ω2 ˜q 2<br />
16π 2 r 2 c<br />
ˆq . ..Schallfluss<br />
– Schallleistung P(ω) = ̺ ω2˜q 2<br />
4πc<br />
– Beispiele: Lautsprecher in Kompaktbox bei tiefen<br />
Frequenzen, kleine Schallöffnungen<br />
(z.B. Schlauchenden)<br />
6. Kugelwellen<br />
• Dipol +q<br />
r<br />
d<br />
Δ<br />
x<br />
−q<br />
z<br />
Δ<br />
r<br />
θ r<br />
y<br />
z<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0.2<br />
0.4<br />
0.6<br />
0.8<br />
1.0<br />
0.2 0.4 0.6 0.8 1.0<br />
– rotationssymmetrisch bezüglich z-Achse (unabhängig<br />
von α), aber abhängig von r und ϑ Seite 131
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
L=(N−1)d<br />
6. Kugelwellen<br />
• Dipol (cont’d)<br />
– Schalldruck ˆp(r,ϑ, ω) 2πr≫λ = − ω2 ̺<br />
d cos ϑ ˆq e−jkr<br />
4πrc<br />
– Richtfaktor Γ(α, ϑ) 2πr≫λ = cos ϑ<br />
– Intensität Ir(r,ϑ, ω) 2πr≫λ = ̺ ω4 d 2 ˜q 2<br />
16π 2 r 2 c 3 cos2 ϑ<br />
– Schallleistung P(ω) = ̺ ω4 d 2 ˜q 2<br />
12πc 3<br />
– Beispiele: offener Lautsprecher bei tiefen Frequenzen,<br />
6. Kugelwellen<br />
d<br />
• Strahlerzeile<br />
x<br />
z<br />
Δr<br />
2 Δr<br />
θ<br />
3 Δr<br />
4 Δr<br />
5 Δr<br />
(N−1) Δr<br />
y<br />
z<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0.2<br />
0.4<br />
0.6<br />
0.8<br />
1.0<br />
0.2 0.4 0.6 0.8 1.0<br />
– weiter rotationssymmetrisch bezüglich z-Achse<br />
(unabhängig von α), aber abhängig von r und ϑ<br />
Seite 132
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
6. Kugelwellen<br />
• Strahlerzeile (cont’d)<br />
– Schalldruck<br />
ˆp(r,ϑ, ω) 2πr≫λ =<br />
– Richtfaktor<br />
jω ̺<br />
4πr<br />
Γ(ϑ, ω) 2πr≫λ = 1<br />
N<br />
6. Kugelwellen<br />
• Strahlerzeile (cont’d)<br />
ˆqNΓ(ϑ, ω) e−jk<br />
r+ N−1<br />
sin (Nπ d/λ) cos ϑ <br />
sin (π d/λ) cos ϑ <br />
2<br />
<br />
d cos ϑ<br />
– Beispiele: gerichtete Beschallung in Kirchen, auf<br />
Bahnsteigen; gleiche Prinzipiem gelten reziprok<br />
auch <strong>für</strong> Richtmikrofone!<br />
(Quelle: Microtech Gefell)<br />
Seite 133
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
6. Kugelwellen<br />
• starrer Kreiskolben in Schallwand,<br />
Schwingschnelle ˆv 0<br />
θ r<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
000000000000<br />
111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
000000000000<br />
111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
000000000000<br />
111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
000000000000<br />
111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
000000000000<br />
111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
000000000000<br />
111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
000000000000<br />
111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
a<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
00000000000000000000000000000000000<br />
11111111111111111111111111111111111<br />
z<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
x<br />
z<br />
0.2 0.4 0.6 0.8 1.0<br />
y<br />
ka=1<br />
ka=3<br />
ka=5<br />
ka=10<br />
– weiter rotationssymmetrisch bezüglich z-Achse<br />
(unabhängig von α), aber abhängig von r und ϑ<br />
6. Kugelwellen<br />
• starrer Kreiskolben in Schallwand (cont’d)<br />
– Schalldruck auf Achse (ϑ = 0 ◦ )<br />
Schalldruckamplitude re ρcv<br />
2 2.0<br />
1.5<br />
Schalldruckamplitude re rho c vz<br />
1 1.0<br />
0.5<br />
0 0.0<br />
0 100<br />
200 300 400<br />
0 100 200 300 400<br />
kz<br />
kz<br />
ˆp(z, ω) z≫a 2 /λ−λ/4 =<br />
– Richtfaktor<br />
Γ(ϑ, ω) 2πr≫λ = 2 J1<br />
jω̺ πa2<br />
2πz<br />
ˆv e −jkz<br />
(2π a/λ) sin ϑ <br />
(2π a/λ) sin ϑ<br />
Seite 134
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
7. Echt dreidimensionale Wellen<br />
• Lösung der Wellengleichung durch Produktansatz und<br />
Koordinatensystem-angepasste Randbedingungen<br />
(lokal reagierende Ränder)<br />
• z.B. Eigenschwingungen im Quaderraum mit schallharten<br />
Wänden<br />
– Helmholtz-Gleichung<br />
∂ 2 ˆp<br />
∂x 2 + ∂2 ˆp<br />
∂y 2 + ∂2 ˆp<br />
∂z 2 + k2 ˆp = 0<br />
– Randbedingungen: Normalenschnelle an den<br />
Wänden gleich Null<br />
∂ ˆp<br />
∂x x=0,Lx<br />
= 0,<br />
∂ ˆp<br />
∂y y=0,Ly<br />
= 0,<br />
∂ ˆp<br />
∂z z=0,Lz<br />
= 0.<br />
7. Echt dreidimensionale Wellen<br />
– Produktansatz<br />
führt zu<br />
1<br />
∂ 2 ˆp x<br />
∂x 2<br />
ˆp<br />
x<br />
<br />
ˆp(x, y,z) = ˆp x (x) · ˆp y (y) · ˆp z (z)<br />
∂ 2 ˆp y<br />
+ 1<br />
ˆp ∂y<br />
y<br />
2<br />
<br />
∂ 2 ˆp z<br />
∂z 2<br />
+ 1<br />
ˆp<br />
z<br />
<br />
unabhängig unabhängig unabhängig<br />
von x, y,z von x, y,z von x, y,z<br />
= −k 2 x = −k 2 y = −k 2 z<br />
+ k 2 = 0<br />
Seite 135
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
7. Echt dreidimensionale Wellen<br />
– damit 3 gewöhnliche Differenzialgleichungen<br />
∂2 ˆp<br />
x + k2<br />
∂x2 xˆp = 0<br />
x<br />
→ ˆp = Ae<br />
x −jkxx +jkxx<br />
+ Be<br />
∂2 ˆp<br />
y<br />
+ k2<br />
∂y2 y ˆp = 0<br />
y<br />
→ ˆp = Ce<br />
y −jkyy +jkyy<br />
+ De<br />
∂2 ˆp<br />
z + k2<br />
∂z2 z ˆp = 0<br />
z<br />
→ ˆp = Ee<br />
z −jkzz +jkzz<br />
+ Fe<br />
insgesamt:<br />
ˆp(x, y,z) = Ae −jkxx + Be +jkxx Ce −jkyy + De +jkyy <br />
Ee −jkzz + Fe +jkzz <br />
mit k 2 x + k 2 y + k 2 z = k 2 .<br />
7. Echt dreidimensionale Wellen<br />
– Randbedingungen: ∂ ˆp<br />
<br />
−jkxAe −jkxx +jkxx<br />
+ jkxBe<br />
x=0,Lx<br />
∂x x=0,Lx<br />
x = 0 : A = B<br />
x = Lx : e−jkxLx +jkxLx − e = 0<br />
−2j sin <br />
kxLx = 0<br />
= 0<br />
ˆp y (y)ˆp z (z) = 0<br />
kx = (nxπ)/Lx<br />
analog: C = D<br />
ky = (nyπ)/Ly<br />
E = F<br />
kz = (nzπ)/Lz<br />
Seite 136
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
7. Echt dreidimensionale Wellen<br />
– aus k 2 x +k 2 y +k 2 z = k 2 = ω 2 /c 2 folgen die Eigenfre-<br />
quenzen<br />
fn = c<br />
<br />
nx<br />
2<br />
Lx<br />
2<br />
+<br />
<br />
ny<br />
2<br />
Ly<br />
+<br />
<br />
nz<br />
2<br />
– bei den Eigenfrequenzen ergibt sich <strong>für</strong> ˆp n (x, y,z)<br />
ˆp (x, y,z,fn) =<br />
n <br />
nxπ<br />
<br />
nyπ<br />
<br />
nzπ<br />
<br />
const · cos x cos y cos z<br />
Lx<br />
<br />
Das Produkt cos · cos · cos · heißt zur<br />
n ten Eigenfrequenz zugehörige Eigenfunktion<br />
Ψn(x, y,z)<br />
7. Echt dreidimensionale Wellen<br />
• erzwungene Schwingungen durch Punktstrahler<br />
(ˆq s (ω) an der Stelle xs, ys, zs), kleine Dämpfung<br />
ˆp(x, y,z,ω)<br />
ˆq s (ω)<br />
jω̺ c2<br />
= −<br />
V<br />
<br />
n<br />
Ly<br />
Lz<br />
Lz<br />
Ψn(x, y,z)Ψs,n(xs, ys, zs)<br />
ω 2 − ω 2 n + δ 2 n<br />
Summe von “Moden” mit Eigenfrequenzen ωn<br />
(inkl. Dämpfung δn) und dazugehörigen Empfängerund<br />
Sender-Eigenfunktionen Ψn(x, y,z) und<br />
Ψn(x, y,z)<br />
In der Praxis werden die ωn, δn, Ψn(x, y,z) und<br />
Ψn(x, y,z) durch Messung von ˆp(x, y,z,ω) ˆq s (ω)<br />
bestimmt (experimentelle Modalanalyse)<br />
Seite 137
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
7. Echt dreidimensionale Wellen<br />
• Modendichte in Räumen<br />
dN<br />
df<br />
≈ 4πV f 2<br />
z.B. typischer Wohnraum (V = 40 m 3 ):<br />
0.12 Moden/Hz @ f = 100 Hz<br />
12 Moden/Hz @ f = 1 kHz<br />
8. Diffuses Schallfeld<br />
•<br />
ÜF des Schalldrucks in typischem Wohnraum<br />
Übertragungsfunktion in dB<br />
150<br />
100<br />
c 3<br />
50<br />
0 100 200 300 400 500<br />
Frequenz in Hz<br />
• Idee: statistische Betrachtung, d.h. Mittelung (über<br />
Ort, Zeit, Frequenz)<br />
→ Schallenergiedichte w = dW/dV = ˜pB 2 (̺ c 2 )<br />
• ideal diffuses Schallfeld: 1.) w an allen Punkten gleich<br />
groß, 2.) an jedem Punkt alle Schalleinfallsrichtungen<br />
gleich wahrscheinlich<br />
• Grundgleichung V dw<br />
dt<br />
cA<br />
+ w = P<br />
4<br />
Seite 138
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
8. Diffuses Schallfeld<br />
• Anwendbarkeit:<br />
– Mittelung über ausreichend viele Moden (Betrachtung<br />
in Frequenzbändern mit ausreichen hoher Modendichte)<br />
→ untere Grenzfrequenz <strong>für</strong> Terzen<br />
fg = 700 Hz 3 V/m3 (20 Moden pro Terz)<br />
→ alternativ: fg = 2000 Hz T/s<br />
V/m3 (3 Moden pro mittlerer Moden-Bandbreite)<br />
– genügend weit weg von Quellen und Wänden<br />
– (möglichst zufällige Verteilung der Wandimpedanz)<br />
8. Diffuses Schallfeld<br />
• Spezialfall zeitlich stationäre Anregung (dw/dt = 0)<br />
A<br />
4<br />
˜pB 2<br />
̺ c<br />
= P<br />
– A äquivalente Schallabsorptionsfläche<br />
A = <br />
i αiSi <br />
A = −S ln<br />
(Sabine)<br />
(Eyring)<br />
Si, αi<br />
S = <br />
1 − 1<br />
S<br />
i αiSi<br />
Flächeninhalt und Absorptionsgrad der<br />
iten Teilfläche<br />
i Si Gesamtfläche<br />
– als Pegel ausgedrückt<br />
LW = Lp,m + 10 lg A<br />
dB<br />
4 m2 Seite 139
Was ist Schall?<br />
Grundgrößen: p, v,...<br />
Schallausbreitung 1<br />
Schallausbreitung 2<br />
Ebene Wellen<br />
Kugelwellen<br />
Echt ...<br />
Diffuses Schallfeld<br />
8. Diffuses Schallfeld<br />
• Spezialfall Abschalten einer stationären Quelle<br />
V dw<br />
dt<br />
cA<br />
+ w = 0<br />
4<br />
– Lösung: w(t) = w0 e−t/τ mit τ = 4V/(cA)<br />
– als Pegel ausgedrückt<br />
Lp,m = L0 − 2.5cA<br />
t dB<br />
V ln 10<br />
L p /dB<br />
0<br />
−20<br />
−40<br />
−60<br />
Nachhallzeit T<br />
0 1 2 3<br />
−60 dB<br />
t/s<br />
T = 24 ln 10 V<br />
cA<br />
= 55.3 V<br />
c A
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
Akustische Messverfahren<br />
Prof.Dr.-Ing. Matthias Blau<br />
Institut <strong>für</strong> Hörtechnik und <strong>Audiologie</strong><br />
FH <strong>Oldenburg</strong>/Ostfriesland/Wilhelmshaven<br />
XXI. Winterschule der <strong>Deutsche</strong>n <strong>Gesellschaft</strong> <strong>für</strong> Medizinische Physik<br />
Pichl 2009<br />
Übersicht<br />
1. Das Wesen des Messens<br />
2. Instrumentierung<br />
3. Schallpegel<br />
4. Spektren<br />
5. Übertragungsfunktionen<br />
Seite 141
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
1. Das Wesen des Messens<br />
• Messen bedeutet Parametrisieren von Modellen<br />
• im Zusammenhang mit akustischen Messungen häufig<br />
verwendete Modelle:<br />
a) wenn die Anregung nicht kontrolliert werden kann:<br />
stationäre Zufallsprozesse<br />
→ aufgenommener Schalldruck ist Stichprobe eines<br />
bandbegrenzten Gauß-Prozesses<br />
p ∼ N(0, ˜p 2 ) mit ˜p 2 = +∞<br />
−∞ Γpp(f) df<br />
→ Messaufgabe: schätze ˜p 2 oder Γpp(f)<br />
b) wenn die Anregung kontrolliert werden kann:<br />
LTI-System<br />
→ Messaufgabe: schätze H(f) oder h(t)<br />
• wenn Bedingung b) erfüllt ist, immer<br />
Übertragungsfunktionen / Impulsantworten messen!<br />
2. Instrumentierung<br />
• Schalldruck p: Mikrofone<br />
– bei Messmikrofonen unterschiedliche Entzerrungen<br />
(Druck vs. Freifeld vs. Diffusfeld) beachten<br />
– Signalkonditionierung: integrierte Vorverstärker,<br />
externe Speiseteile (Polarisationsspannung bei<br />
Messmikrofonen!)<br />
– Kalibrierung: in der Regel in kleinen abgeschlossenen<br />
Volumina<br />
Seite 142
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
2. Instrumentierung<br />
• Schallschnelle v: Mikrofonpaare oder Hitzdraht-<br />
Anemometrie<br />
– Signalkonditionierung: siehe Messmikrofone bzw.<br />
spezielle Speisung bei Hitzdrahtsonden<br />
– Kalibrierung: in speziellen Kupplern (Mikrofonpaare)<br />
bzw. in Rohren oder im Freifeld<br />
2. Instrumentierung<br />
• Schwingbeschleunigung a bzw. Schwingschnelle v:<br />
Beschleunigungsaufnehmer bzw. Laser-Vibrometrie<br />
– Signalkonditionierung: Ladungsverstärker bzw.<br />
Laser-Controller<br />
– Kalibrierung: Kalibrierschwingtische, ggf. mit<br />
Kalibriermassen<br />
Seite 143
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
2. Instrumentierung<br />
• Signalanalyse<br />
– <strong>für</strong> Standardaufgaben entsprechende Kiste kaufen<br />
– <strong>für</strong> Forschung/Entwicklung PC-basierte Systeme<br />
(offen, flexibel), z.B. PureMeasurement<br />
(www.hoertechnik-audiologie.de/downloads)<br />
3. Wer misst, misst Mist<br />
• empfohlene Strategie: AAA<br />
• Anhören:<br />
• Anschauen: Oszillogramme,<br />
Spektrogramme,<br />
. ..<br />
• Analysieren: Kohärenz, . . .<br />
Rauschen?, Verzerrungen?,<br />
Brummen?, . . . ?<br />
Seite 144
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
4. Schallpegel<br />
• Definition Schalldruckpegel Lp = 10 lg ˜p 2 /p2 <br />
0 dB<br />
• ˜p 2 : p(t) quadrieren, zeitlich mitteln (integrieren)<br />
˜p 2 (tx) = 1<br />
tx<br />
p<br />
τ<br />
2 (t) e −(tx−t)/τ<br />
dt<br />
quadrierter quadrierter quadrierter quadrierter Schalldruck<br />
Schalldruck<br />
Schalldruck<br />
Y−Axis<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
2<br />
p p p p (t)<br />
−(t −t)/<br />
e x −t)/<br />
e x −t)/<br />
p p 22<br />
(t) ee τ<br />
−(t x −t)/ τ<br />
t=−∞<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
000000000000000000000000000000000000000000000000000<br />
111111111111111111111111111111111111111111111111111<br />
0 0 0.1 0.1 0.2 0.2 0.2 0.3 0.3 0.3<br />
X−Axis<br />
τSLOW = 1s, τFAST = 125ms<br />
4. Schallpegel<br />
• zeitliche Mittelung<br />
– äquivalenter Dauerschallpegel Leq<br />
<br />
1 2 ˜p (tx)<br />
<br />
Leq = 10 lg Ti Mittelwert<br />
tx in Ti<br />
<br />
dB<br />
oder<br />
Tr<br />
<br />
1<br />
Leq = 10 lg<br />
i<br />
Tr<br />
Tr<br />
t=0<br />
p 2 (t) dt<br />
t x<br />
p 2 0<br />
<br />
t<br />
p 2<br />
0 dB<br />
– Taktmaximal-Mittelungspegel LT,m oder LT,eq<br />
<br />
1 2 ˜p (tx)<br />
<br />
LT,m = 10 lg Ti max<br />
tx in Ti<br />
<br />
dB<br />
Tr<br />
i<br />
p 2 0<br />
Seite 145
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
5. Spektren<br />
• Spektren über Filter<br />
– Oktav-, Terzfilter: konstante relative Bandbreite<br />
– IEC 1260<br />
a) fm,i,Oktav = 2 i · 1 kHz, fm,i,Terz = 2 (i/3) · 1 kHz<br />
b) fm,i,Oktav = 10 i0.3 ·1 kHz, fm,i,Terz = 10 (i0.1) ·1 kHz<br />
filter gain<br />
Y − A x i s<br />
1 E 0 1<br />
1 E − 1 0.1<br />
1 E − 2 0.01<br />
1 E − 3 0.001<br />
1 E − 4 0.0001<br />
5. Spektren<br />
1 E − 1 1 E 0 1 E 1<br />
X − A x i s<br />
0.1 1<br />
10<br />
frequency re mid frequency<br />
• Spektren über Filter (cont’d)<br />
– im Zeitbereich: Verzögerung TR ≈ 1/B, effektive<br />
Länge TE ≈ 3/B<br />
→ z.B. Terzfilter, fm = 50 Hz: TR ≈ 87 ms,<br />
TE ≈ 260 ms<br />
→ <strong>für</strong> Nachhallzeitmessungen: BT > 16<br />
Seite 146
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
5. Spektren<br />
• Spektren über Filter (cont’d)<br />
– Statistik von Effektivwertschätzern<br />
∗ Modell: pB ∼ N(0, ˜pB 2 )<br />
∗ Schätzer 1 (zeitkontinuierlich, Rechteckfenster):<br />
˜p 2 <br />
1<br />
B = p<br />
T T<br />
2<br />
B(t) dt<br />
<br />
E ˜p 2<br />
B = ˜p 2<br />
<br />
B, Var ˜p 2<br />
B<br />
= ˜p4 B<br />
BT<br />
∗ Schätzer 2 (zeitdiskret, Rechteckfenster):<br />
˜p 2 N 1<br />
B,N = p<br />
N<br />
n=1<br />
2<br />
B(n/Fs)<br />
<br />
E ˜p 2<br />
B,N = ˜p 2<br />
<br />
B, Var ˜p 2<br />
B,N<br />
5. Spektren<br />
• Spektren über Filter (cont’d)<br />
= 1<br />
N<br />
˜p 4 B<br />
B/Fs<br />
∗ Schätzer 3 (zeitdiskret, Exponentialfenster):<br />
2 ˜p B,α (n) = αp 2<br />
B(n) + 1 − α 2 ˜p B,α (n − 1)<br />
äquivalente Zeitkonstante τ = − 1<br />
ln(1 − α)<br />
<br />
E ˜p 2<br />
B,α<br />
= ˜p 2<br />
<br />
B, Var ˜p 2<br />
B,α<br />
Fs<br />
= α<br />
2 − α<br />
B/Fs<br />
– bei allen Schätzern ist die Varianz umgekehrt proportional<br />
zu Filterbandbreite B und der jeweiligen<br />
Mittelungszeit<br />
– daher bei Terz-/Oktavfiltern besonders bei niedrigen<br />
Mittenfrequenzen hohe Varianz aufgrund<br />
kleiner Filterbandbreite<br />
˜p 4 B<br />
Seite 147
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
5. Spektren<br />
• Spektren über FFT<br />
– Modell: p ∼ N(0, ˜p 2 ), ˜p 2 =<br />
+∞<br />
−∞<br />
Γpp(f) df<br />
– Messaufgabe: Schätzen der Leistungsdichte<br />
Γpp(f) = F γpp(τ) 1<br />
= lim<br />
T →∞ T EP ∗<br />
T(f)PT(f) <br />
– Realisierung: Methode nach Welch (1967)<br />
Spp(f = kFs/M) = 1<br />
R 1<br />
P<br />
R MUM r=1<br />
∗<br />
M(k, r)PM(k,r)<br />
PM(k) = FFT pM(m)wM(m) <br />
MUM =<br />
5. Spektren<br />
p<br />
M = 2 q<br />
Bewertung<br />
mit Zeitfenster<br />
FFT<br />
P (k,1)<br />
M<br />
M<br />
m=1<br />
w 2<br />
M(m) Fensterenergie<br />
M = 2 q<br />
Bewertung<br />
mit Zeitfenster<br />
FFT<br />
P (k,2)<br />
M<br />
t<br />
Seite 148
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
5. Spektren<br />
• Spektren über FFT (cont’d)<br />
– Vergleich des Welch-Schätzers mit wahrer Leistungsdichte<br />
∗ Zeitabtastung → aliasing im Frequenzbereich<br />
Lösung: analoge Anti-Alias-Filter<br />
∗ M endlich → leakage im Frequenzbereich<br />
Lösung: Hann-Fenster mit M > 4Fs/Br<br />
∗ Mittelung über endlich viele (R) Blöcke<br />
→ zufällige Schwankungen des Schätzers<br />
Lösung: R groß genug, überlappende Blöcke<br />
Var Spp(k) <br />
Var Spp(k) <br />
5. Spektren<br />
• Spektren über FFT (cont’d)<br />
kein overlap<br />
50% overlap<br />
≈ 1<br />
R S2<br />
pp(k)<br />
≈ 11<br />
9R S2<br />
pp(k)<br />
– Nachbemerkung zu Skalierungsfaktoren<br />
analog: ˜p 2 =<br />
zeitdiskret: 1<br />
N<br />
N<br />
n=1<br />
p 2<br />
<br />
n<br />
<br />
Fs<br />
+∞<br />
−∞<br />
Γpp(f) df<br />
↓ Zeitabtastung<br />
<br />
Spp = FsΓpp<br />
= 1<br />
Fs<br />
+ 1<br />
2<br />
− 1<br />
2<br />
Spp<br />
f<br />
Fs<br />
<br />
↓ Frequenzabtastung<br />
= Fs/M<br />
M<br />
Spp(k)<br />
Fs<br />
k=1<br />
<br />
f<br />
<br />
d<br />
Fs<br />
Seite 149
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
6. Übertragungsfunktionen<br />
• Modell: LTI-System<br />
• Messaufgabe: Hxy(f) = Y (f)/X(f) schätzen<br />
• in Praxis sind betrachtete Systeme häufig schwach<br />
nichtlinear oder/und zeitvariant<br />
Y(f)<br />
X(f)<br />
Y(f)<br />
X(f)<br />
→ Entscheidung: Schätzung des punktuellen (einzelner<br />
Anregungspegel, einzelner Zeitpunkt) oder des<br />
gemittelten Verhaltens?<br />
6. Übertragungsfunktionen<br />
• Problem Messrauschen<br />
– Modell ohne Rauschen/Artefakte<br />
H (f) Y(f)<br />
X(f) xy<br />
Y (f) = Hxy(f)X(f)<br />
Γxy(f) = Hxy(f)Γxx(f)<br />
Γyy(f) = Hxy(f)Γ ∗<br />
xy(f)<br />
– Modell mit unkorreliertem Rauschen<br />
Testsignal<br />
U(f)<br />
M(f)<br />
X(f)<br />
gemessenes<br />
Eingangssignal<br />
H (f)<br />
xy<br />
N(f)<br />
Y(f)<br />
gemessenes<br />
Ausgangssignal<br />
V(f)<br />
Seite 150
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
6. Übertragungsfunktionen<br />
• punktuellen Schätzung - deterministische Testsignale<br />
– Testsignale: Sinus, stepped sine, Multiton, Sweeps,<br />
Maximalfolgen<br />
– Schätzer:<br />
a) Hxy(f) =<br />
b) Hxy(f) = 1<br />
R<br />
R r=1 YM(f, r)<br />
R r=1 XM(f, r)<br />
R<br />
r=1<br />
YM(f, r)<br />
XM(f, r)<br />
– Messrauschen führt nur zu zufälligen Fehlern<br />
6. Übertragungsfunktionen<br />
• mittlere Schätzung - zufällige Testsignale<br />
– Testsignale: weißes oder gefärbtes Rauschen,<br />
Sprache, Musik<br />
– Modell: Messrauschen, Nichlinearitäten und Zeitvarianzen<br />
werden als unkorrelierte Rauschvorgänge<br />
auf Eingang und Ausgang betrachtet<br />
→ <strong>für</strong> jede betrachtete Frequenz f gilt<br />
<br />
Γyy Γ∗ <br />
xy 1 Γnn 0 1<br />
=<br />
Γxy Γxx<br />
−Hxy<br />
0 Γmm<br />
−Hxy<br />
– verschiedene Schätzer sind jeweils optimal <strong>für</strong> bestimmte<br />
Annahmen zu den Rauschvorgängen auf<br />
Eingang und Ausgang<br />
Seite 151
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
6. Übertragungsfunktionen<br />
• mittlere Schätzung - zufällige Testsignale (cont’d)<br />
– H1-Schätzer<br />
∗ Annahme: Γmm = 0<br />
(kein Rauschen am Eingang)<br />
∗ Schätzer:<br />
Hxy = Γxy<br />
∗ was wenn . . . ?<br />
→ Unterschätzung<br />
Γxx<br />
6. Übertragungsfunktionen<br />
• mittlere Schätzung - zufällige Testsignale (cont’d)<br />
– H2-Schätzer<br />
∗ Annahme: Γnn = 0<br />
(kein Rauschen am Ausgang)<br />
∗ Schätzer:<br />
Hxy = Γyy<br />
Γ ∗ xy<br />
∗ was wenn . . . ?<br />
→ Überschätzung<br />
Seite 152
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
6. Übertragungsfunktionen<br />
• mittlere Schätzung - zufällige Testsignale (cont’d)<br />
– H3-Schätzer<br />
∗ Annahme: Γxx/Γmm = Γyy/Γnn<br />
(gleiche SNRs an Ein- und Ausgang)<br />
∗ Schätzer: <br />
Hxy =<br />
Γxy Γyy<br />
Γxx Γ∗ xy<br />
∗ was wenn . . . ?<br />
→ Unter- oder Überschätzung<br />
6. Übertragungsfunktionen<br />
• mittlere Schätzung - zufällige Testsignale (cont’d)<br />
– HV -Schätzer<br />
∗ Annahme: Γmm = Γnn (Rauschen auf Eingang<br />
und Ausgang gleich groß, aber unkorreliert)<br />
∗ Schätzer:<br />
Hxy = 1<br />
<br />
2Γxy<br />
Γyy − Γxx<br />
+<br />
<br />
Γyy<br />
2 − Γxx + 4 Γxy<br />
∗ was wenn . . . ?<br />
→ Unter- oder Überschätzung<br />
2<br />
<br />
Seite 153
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
6. Übertragungsfunktionen<br />
• mittlere Schätzung - zufällige Testsignale (cont’d)<br />
– Problem zeitliche Verzögerung zwischen Eingangsund<br />
Ausgangssignal (z.B. durch Schallausbreitung)<br />
∗ führt zu systematischen Fehlern<br />
Kreuzleistungsdichte <br />
Sxy ≈ 1 − τ<br />
<br />
Sxy<br />
M/Fs<br />
Übertragungsfunktion <br />
Hxy ≈ 1 − τ<br />
<br />
Kohärenz γ 2 xy ≈<br />
M/Fs<br />
<br />
1 − τ<br />
M/Fs<br />
Hxy<br />
2<br />
γ 2<br />
xy<br />
∗ Abhilfe: a) Zeitfenster lang genug<br />
b) Verzögerung um τ im gemessenen<br />
x(t) kompensieren<br />
6. Übertragungsfunktionen<br />
• mittlere Schätzung - zufällige Testsignale (cont’d)<br />
– zufällige Fehler<br />
∗ H-Schätzer beruhen auf Schätzern von Leistungsdichten,<br />
die ihrerseits zufällige Fehler<br />
aufweisenm, siehe Abschnitt 5<br />
∗ aber: zufällige Fehler der Leistunsdichteschätzer<br />
sind häufig stark korreliert, da sie in der<br />
Regel aus einem Prozess hervorgegangen sind<br />
∗ wichtige Varianzformeln:<br />
Var 1 − γ<br />
Hxy<br />
≈ 2 xy 2<br />
Hxy<br />
2Rγ 2 xy<br />
Var arg 1 − γ<br />
Hxy<br />
≈ 2 xy<br />
2Rγ2 xy<br />
rad 2<br />
Seite 154
Das Wesen des ...<br />
Instrumentierung<br />
Wer misst, misst Mist<br />
Schallpegel<br />
Spektren<br />
Übertragungsfunktionen<br />
6. Übertragungsfunktionen<br />
• praktische Vorgehensweise<br />
1. AAA<br />
2. mit Rauschen beginnen<br />
3. keine Übertragungsfunktion ohne Kohärenz!<br />
2<br />
(ΓxxΓyy) ist wichtiger Indikator <strong>für</strong><br />
γ2 xy = Γxy<br />
viele Fehler (schlechtes SNR, leakage Nichtlinearitäten,<br />
Zeitvarianzen)<br />
Achtung: bei periodischen Anregungssignalen<br />
reagiert γ2 xy nicht auf Übersteuerungen!<br />
4. Vergleich mit Multitonsignal, Fensterlänge optimieren<br />
(ggf. x(t) verzögern)<br />
5. Entscheidung <strong>für</strong> ein Anregungssignal, Anregungspegel<br />
optimieren
156
Signalverarbeitung <strong>für</strong> Hörhilfen und <strong>Audiologie</strong><br />
Einführung<br />
Norbert Dillier / Zürich<br />
Ausgehend von der Feststellung und diagnostischen Eingrenzung einer Hörstörung schliesst<br />
sich wenn möglich eine Behandlung dieser Hörstörung durch medizinische und technische<br />
Mittel an. Medizinische Behandlungsmöglichkeiten beinhalten medikamentöse Therapien<br />
und chirurgische Eingriffe. Technische Lösungen bestehen aus der Anpassung von Hörinstrumenten<br />
bzw. implantierbaren Systemen (Mittelohr-, Cochlea- und Hirnstammimplantate).<br />
In diesem Beitrag beschränken wir uns auf die technisch-apparativen Rehalibitationsmöglichkeiten<br />
und dabei insbesondere auf Aspekte der Signalverarbeitung.<br />
Ziele der Signalverarbeitung <strong>für</strong> Hörinstrumente, Hörhilfen, Sprachprozessoren oder Kommunikationsgeräte<br />
ist es, die zur sprachlichen Verständigung erforderlichen Schallsignale <strong>für</strong><br />
die hörgeschädigte Person wahrnehmbar („Hören“) und unterscheidbar („Verstehen“) zu<br />
machen und wenn möglich einem natürlichen Klangempfinden („Hörqualität“) anzunähern.<br />
Traditionelle Hörgeräte mussten sich aufgrund der begrenzten Möglichkeiten der Analogschaltungstechnik<br />
auf einfache Verstärkung, Filterung und Pegelbegrenzung beschränken.<br />
Moderne Systeme mit digitaler Signalverarbeitung erlauben vielfältigere und neuartige<br />
Transformationen der Schallsignale, sodass vielleicht in nicht allzu ferner Zukunft die Vision<br />
eines „Verstehgerätes“ im Unterschied zu den bisherigen „Hörgeräten“ erfüllt sein könnte.<br />
Die Algorithmen und Verfahren der digitalen Signalverarbeitung können in zwei grosse Klassen<br />
unterteilt werden. Die erste Gruppe ist relativ eng an die konkreten Ausprägungen eines<br />
Hörschadens gekoppelt und versucht, aufgrund möglichst genauer individueller Angaben<br />
über Art und Ausmass dieses Hörschadens Signalverarbeitungsparameter so zu wählen,<br />
dass Grundfunktionen der gestörten Hörwahrnehmung wie Lautheits- und Tonhöhenempfindung,<br />
Detektion zeitlicher Modulationen und weitere Klangeigenschaften möglichst gut kompensiert<br />
werden. Die zweite Gruppe betrifft globalere Funktionen, welche als Vorverarbeitung<br />
<strong>für</strong> praktisch beliebige nachgeschaltete Systeme benutzt werden können. Reduzierung<br />
von Störlärmeinfluss durch gesteuerte Richtmikrofone, automatische Klassifikation von<br />
Klangsituationen zur Wahl unterschiedlicher Verarbeitungsprogramme, Integration von<br />
Kommunikationssystemen wie Telefon, Raumbeschallungsanlagen, Internetanbindung usw.<br />
Im folgenden werden zu diesen beiden Signalverarbeitungsklassen einige Beispiele vorgestellt.<br />
Signalverarbeitung <strong>für</strong> Innenohrschwerhörigkeit<br />
Die Signalverarbeitung im Gehör und die bei einer Innenohr-Schwerhörigkeit möglicherweise<br />
auftretenden Störungen können vereinfacht wie folgt beschrieben werden. Das Schallsignal<br />
gelangt über Außen- und Mittelohr in das Innenohr, dessen Wirkung grob durch eine<br />
Filterbank mit anschließender einhüllenden Extraktion und Dynamikkompression (kompressive<br />
Nichtlinearität z.B. durch aktive Prozesse im Innenohr) modelliert werden kann. Die weitere<br />
Signalanalyse im Hirnstamm kann durch eine Zerlegung nach Modulationsfrequenzen<br />
(Modulationsfilterbank) und einen binauralen Vergleich mit Störschallunterdrückung charakterisiert<br />
werden. Am Ausgang dieser Vorverarbeitungsstufen stehen die akustischen Merkmale<br />
des Eingangsschallsignals in Form einer „internen Repräsentation“ der kognitiven Ver-<br />
157
arbeitung im Hörkortex zur Verfügung, wo eine optimale Verarbeitung und Mustererkennung<br />
der eingehenden, transformierten Schallsignale vorgenommen wird. Limitiert wird dabei die<br />
„Schärfe“ der internen Repräsentation durch das „interne Rauschen“. Als Störungen ist an<br />
erster Stelle die Abschwächungswirkung zu nennen, die durch Schallleitungs-<br />
Schwerhörigkeit und Ausfall der inneren sowie teilweisen Ausfall der äußeren Haarzellen<br />
bedingt ist, sowie als zweiter Faktor der Kompressionsverlust (Ausfall der äußeren Haarzellen),<br />
an dritter Stelle der binaurale Verlust (Reduktion der binauralen Störschall-<br />
Unterdrückung) und an vierter Stelle eine Erhöhung des internen Rauschens als „zentraler<br />
Hörverlust“.<br />
Ausgehend von diesem grob-schematischen Modell sind folgende Möglichkeiten zur Kompensation<br />
der Verarbeitungsstörung denkbar:<br />
1. Die Abschwächungswirkung lässt sich durch eine lineare Verstärkung kompensieren.<br />
2. Der Kompressionsverlust lässt sich durch eine Dynamikkompression kompensieren, die<br />
modellbasiert erfolgen sollte, um gemäß einem möglichst validierten Verarbeitungsmodell<br />
zu einer optimalen Kompensation dieses Funktionsausfalls zu gelangen.<br />
3. Der binaurale Verlust sollte durch eine „echt“ binaurale Signalverarbeitung (z. B. Verstärkung<br />
der Unterschiede zwischen beiden Ohren) erfolgen, die normalerweise im Gehirn<br />
durch binaurale Signalverarbeitung durchgeführt wird.<br />
4. Der zentrale Hörverlust kann durch eine Stör-Reduktion und eine Anpassung der jeweiligen<br />
Signalverarbeitung an die akute aktuelle akustische Situation erfolgen.<br />
Die Wiederherstellung der Dynamik- und Lautheitsempfindung in unterschiedlichen Frequenzbereichen<br />
erfolgt sinnvollerweise durch einen Lautheitsmodell-gesteuerten Ansatz, bei<br />
dem das jeweilige Eingangssignal einerseits mit einem Lautheitsmodell <strong>für</strong> Normalhörende<br />
bewertet wird und zugleich mit einem Lautheitsmodell <strong>für</strong> den individuellen Schwerhörigen.<br />
Aus dem Vergleich kann die Modifikation des Eingangssignals im Hörgerät so durchgeführt<br />
werden, daß am Ausgang beider Lautheitsmodelle möglichst der gleiche (frequenzabhängige)<br />
Wert resultiert (vgl. Hohmann, 1993, Launer, 1995, Appell, 2002). Da dieser Ansatz wesentlich<br />
von der Güte und Validierung des verwendeten Lautheitsmodells abhängt, gilt es,<br />
hier eine an die Gegebenheiten von Schwerhörenden und an praktische Messungen angepasste<br />
und validierte Version des Lautheitsmodells zu verwenden.<br />
Aussen - und Mittelohr<br />
Auditorische Filterbank<br />
N = ∑ N’<br />
N’~ E α<br />
Bei Hörverlusten werden die<br />
Parameter des Modells<br />
entsprechend modifiziert:<br />
Dämpfung der Anregung<br />
Exponent αSH > αNH<br />
Die Potenzfunktion mit αSH > αNH berücksichtigt<br />
automatisch die Lautheitssummation <strong>für</strong><br />
breitbandige Spektren<br />
Abb. 1:Modell zur Berechnung der Lautheit <strong>für</strong> Normal- und Schwerhörige (modifiziert nach<br />
Zwicker).<br />
158
Das in Abb.1 gezeigte modifizierte Modell berücksichtigt die kochleären Defizite Schwerhöriger.<br />
Die erhöhte Hörschwelle dämpft direkt die Anregung der Cochlea, die Steilheit der<br />
Lautheitsfunktion beeinflusst die Potenzfunktion und die Lautheitsbildung wird damit im Vergleich<br />
zu Normalhörenden stark verändert. Die optimalen Parameter <strong>für</strong> das Lautheitsmodell<br />
liefern das Audiogramm und die Lautheitsskalierung.<br />
Die Zielverstärkung in einem solchen Signalverarbeitungsalgorithmus ist abhängig vom Signal.<br />
In jedem einzelnen Filterband wird die Verstärkung so gewählt, dass die entsprechende<br />
Bandlautheit (spezifische Lautheit) derjenigen eines Normalhörenden bei gleichem Signal<br />
entspricht; die Lautheit wird normalisiert.<br />
Die Umwandlung des Erregungspegel-Musters in eine spezifische Lautheit geschieht durch<br />
eine Lautheitstransformation, die die Form der Isophonen von Normal- und Schwerhörenden<br />
insbesondere bei tiefen Frequenzen und dabei auch neuere Messungen zum Verlauf dieser<br />
Isophonen berücksichtigt (Gabriel et al., 1997). Nach der sich anschließenden spektralen<br />
Aufintegration der spezifischen Lautheit und Bestimmung der Gesamt-Lautheit in sone erfolgt<br />
eine Transformation in kategoriale Einheiten, so daß die Kategorial-Lautheit (KU) vorhergesagt<br />
werden kann, die sich unmittelbar mit Hilfe der kategorialen Lautheitsskalierung<br />
experimentell nachmessen lässt<br />
Herkömmliche Hörgeräte modellieren die Cochlea als lineare, pegelunabhängige Filterbank<br />
und berechnen die Zielverstärkung als Funktion des Schalldruckpegels. Mit einem solchen<br />
Multiband-Konzept können jedoch maskierte Signale nicht erkannt werden, daher werden<br />
auch maskierte Komponenten verstärkt. Diese Fehlsignale äussern sich als Rauschen und<br />
Verzerrungen und beeinträchtigen die Klangqualität des Hörgerätes. Klassische Multiband-<br />
Systeme sind auch nicht in der Lage, schmal- und breitbandige Signale zu differenzieren<br />
und können damit auch die verminderte Lautheitssummation Schwerhöriger nicht kompensieren.<br />
Eine gehörgerechte Signalverarbeitung hingegen bezieht die elementaren Funktionen der<br />
normalen und geschädigten Cochlea wie Maskierung, Lautheit und Lautheitssummation mit<br />
ein.<br />
Möglichkeiten der Störgeräusch-Reduktion<br />
Die derzeitige Lage von Störgeräusch-Unterdrückungs-Algorithmen bei Hörsystemen stellt<br />
sich wie folgt dar:<br />
- Die Annahmen verschiedener Störunterdrückungs-Algorithmen sind in der Realität<br />
nie vollständig erfüllt, so daß in modernen Hörgeräten verschiedene Algorithmen<br />
kombiniert bzw. je nach vorliegender akustischer Umgebungssituation aktiviert und<br />
deaktiviert werden müssen.<br />
- Akustisch „einfache“ Situationen sind mit derzeitiger Technologie beherrschbar (dazu<br />
zählt stationäres Störgeräusch mit einer großen spektralen Differenz zwischen Sprache<br />
und Störgeräusch und stabilen räumlichen Differenzen).<br />
- Probleme bereiten dagegen nach wie vor „schwierige Situationen“, die sich durch instationäre<br />
Störschallquellen, durch Nachhall und durch mehrere gleichzeitig aktive<br />
Sprecher von verschiedenen Richtungen auszeichnen. Hier besteht noch ein großer<br />
Forschungsbedarf.<br />
Die neueste Entwicklung in diesem Bereich stellen adaptive Mehr-Mikrofon-Systeme dar<br />
(Spriet et al., 2005). Bei ihnen wird die Richtcharakteristik in Abhängigkeit von der Einfallsrichtung<br />
des Störgeräusches variiert (siehe Abb. 2)<br />
159
speech<br />
noise<br />
speec<br />
h<br />
noise<br />
160<br />
speech<br />
noise<br />
Abb. 2: Adaptives Richtmikrofonsystem. Die Richtcharakteristik wird in Abhängigkeit von der<br />
Einfallsrichtung des Störgeräusches variiert.<br />
Zur Reduzierung von Störgeräuschen können in digitalen Hörgeräten die Eingangssignale<br />
analysiert und dadurch Nutzsignale von Rauschen unterschieden werden. Die frequenzabhängige<br />
Verstärkung des Hörgerätes kann dann in Abhängigkeit von der Umgebungssituation<br />
geregelt werden. Um Sprache von Störgeräuschen zu unterscheiden, müssen spezielle<br />
Kenntnisse über die Eigenschaften von Sprache herangezogen werden. Mit deren Hilfe<br />
können z. B. Sprachpausen erkannt werden. In solchen Pausen kann das Rauschsignal<br />
näherungsweise berechnet werden und vom Eingangssignal subtrahiert werden. Auf diese<br />
Weise wird das Rauschsignal reduziert. Da die Subtraktion im Frequenzbereich erfolgt,<br />
nennt man dieses Verfahren spektrale Subtraktion (s. z.B. Marcincik und Kollmeier, 1999).<br />
Bei einem anderen Algorithmus werden z. B. die langsamen Schwankungen der Einhüllenden<br />
der Signale berechnet. Die Änderungsgeschwindigkeit der Einhüllenden wird als Modulationsfrequenz<br />
bezeichnet. Die Einhüllende zeigt im Frequenzbereich einen <strong>für</strong> Sprache<br />
typischen Verlauf mit einem Maximum im Bereich von 2-8 Hz. Diese Frequenzen sind durch<br />
den Rhythmus der Sprache (die Dauer der Wörter, Silben und Phoneme) bestimmt und sind<br />
sowohl vom Klang der Stimme als auch von der gesprochenen Sprache unabhängig. Störgeräusche<br />
dagegen beinhalten zumeist andere Modulationsfrequenzen. Ein Algorithmus<br />
kann nun die Einhüllenden der Eingangssignale analysieren. Wenn die typischen Modulationsfrequenzen<br />
von Sprache im Bereich von bis zu 10 Hz nicht vorhanden sind, wird die<br />
Verstärkung in dem entsprechenden Frequenzbereich und damit das Störgeräusch reduziert.<br />
Feedbackreduktion<br />
Ein wichtiges Qualitätsmerkmal von Hörgeräten ist die Unterdrückung der akustischen Rückkopplungen<br />
(Feedback). Sie wird meist durch eine Reduzierung der Verstärkung bei der<br />
Anpassung des Hörgerätes vermieden. Eine andere Möglichkeit sind schmalbandige<br />
Lückenfilter (Notch-Filter), die bei den kritischen Feedbackfrequenzen positioniert werden<br />
und die Verstärkung bei der betreffenden Frequenz damit selektiv reduzieren. Solche statischen<br />
Anpassungen sind jedoch wirkungslos, falls die Rückkopplungen als Reaktion auf<br />
veränderte äußere akustische Bedingungen plötzlich bei einer anderen Frequenz auftreten.<br />
Dieses Problem können adaptive Algorithmen lösen. Sie analysieren ständig das Eingangssignal<br />
und erkennen Rückkopplungen. Ein Notch-Filter oder ein Kompensationsfilter eliminieren<br />
den Feedbackanteil im Signal und werden ständig an die aktuellen Bedingungen an-
gepaßt. Der Kompensationsfilters-Ansatz vermeidet Rückkopplungen durch die Einstellung<br />
eines adaptiven Filters, so dass sein Ausgangssignal die rückgekoppelten Anteile im Eingangssignal<br />
gerade auslöscht.<br />
Auditorische Objekterkennung und Klangklassifizierung<br />
Hörgeräte ermöglichen es, <strong>für</strong> verschiedene akustische Situationen unterschiedliche Programme<br />
zu wählen, um den Frequenzgang und Kompressionsparameter zu ändern, oder<br />
Richtmikrofon, Störgeräusch-Reduktion oder Feedback-Unterdrückung zu aktivieren. Der<br />
Hörgeräteträger hat dabei die nicht immer leichte Aufgabe, die akustische Hörsituation zu<br />
beurteilen und dann per Schalter am Hörgerät oder über eine Fernbedienung das entsprechende<br />
Programm zu wählen. Ein automatisches Erkennen der aktuellen akustischen Situation<br />
und automatisches Umschalten in das geeignetste Programm könnten den Hörgerätekomfort<br />
verbessern. Ein System zur Geräuschklassifizierung wird im folgenden vorgestellt,<br />
welches die vier Klassen 'Sprache', 'Sprache im Störgeräusch', 'Störgeräusch' und 'Musik'<br />
robust erkennen soll.<br />
Es sind bereits einige Hörgeräte im Handel, die eine Geräuschklassifizierung vornehmen. In<br />
einem Gerät von Widex wird die Amplitudenstatistik des Signals ausgewertet, um zwischen<br />
impulshaften und kontinuierlichen Klängen zu unterscheiden und damit ein Störgeräusch-<br />
Unterdrückungssystem zu steuern (Ludvigsen, 1993). Im Zusammenhang mit Störgeräusch-<br />
Unterdrückung wird auch von ReSound eine Geräuschklassifizierung vorgenommen (Edwards<br />
et al., 1998). Anhand einer Analyse der Amplitudenmodulationen wird Sprache im<br />
Signal detektiert. Von Phonak ist ein Gerät im Handel, das abhängig von der akustischen<br />
Umgebung zwischen zwei Programmen umschaltet (Phonak, 1999). Die Klassifizierung in<br />
die Klassen 'Sprache im Störgeräusch' und 'Andere' erfolgt aufgrund einer Analyse der zeitlichen<br />
Fluktuationen und der Form des Spektrums, wie es von Kates (1995) vorgeschlagen<br />
wurde. Ostendorf et al. (1998) unterscheiden basierend auf einer Modulationsfrequenz-<br />
Analyse die drei Klassen 'Sprache', 'Sprache im Störgeräusch', und 'Störgeräusch'. Von<br />
Nordqvist (2000) wird ein Verfahren vorgeschlagen, mit dem reine Sprache und verschiedene<br />
Hintergrund-Geräusche mittels einer LPC-Analyse und HMMs klassifiziert werden. Ein<br />
Ansatz von Feldbusch (1998) erkennt reine Sprache, Stimmengewirr und Verkehrslärm, indem<br />
verschiedene zeitliche und spektrale Merkmale mittels neuronalen Netzen ausgewertet<br />
werden.<br />
Alle genannten Ansätze erlauben ein robustes Erkennen von reiner Sprache; Musik hingegen<br />
kann bis anhin nicht identifiziert werden, und es ist nur teilweise möglich, Störgeräusch<br />
von Sprache im Störgeräusch zu trennen.<br />
Auditorische Szenenanalyse<br />
Auditorische Szenenanalyse beschreibt die Mechanismen und Strategien, die das auditorische<br />
System verwendet, um die akustische Umgebung zu analysieren. Obwohl dieser Prozess<br />
noch nicht vollständig verstanden wird, ist bekannt, dass das auditorische System charakteristische<br />
Merkmale aus dem akustischen Signal extrahiert. Diese auditorischen Merkmale<br />
umfassen spektrale Trennung, spektrales Profil, Harmonizität, Onsets und Offsets,<br />
kohärente Amplituden- und Frequenz-Modulationen sowie räumliche und zeitliche Trennung.<br />
Auditorische Merkmale<br />
Im folgenden Ansatz <strong>für</strong> die Geräuschklassifizierung werden bis anhin vier Merkmalsgruppen<br />
verwendet: Amplituden-Modulationen, spektrales Profil, Harmonizität und Onsets.<br />
Für die Modellierung der Amplituden-Modulationen werden die genannten bisherigen Ansätze<br />
von Ludvigsen (1993), Ostendorf et al. (1998) und Kates (1995) verwendet. Fig. 3 zeigt<br />
161
als Beispiel, wie das Amplituden-Histogramm mittels Perzentilen modelliert wird, und der<br />
Abstand zwischen den Perzentilen Aufschluss über die Modulationstiefe gibt.<br />
m es<br />
N u<br />
Fra<br />
of<br />
ber<br />
m<br />
200<br />
180<br />
160<br />
140<br />
120<br />
100<br />
80<br />
60<br />
40<br />
20<br />
Envelope Histogram and Percentiles over 30 s of Clean Speech<br />
10 % 50 % 90 %<br />
Breite<br />
0<br />
20 30 40 50<br />
Envelope Level [dB]<br />
60 70 80<br />
Fig. 3: Amplitudenhistogramm und Perzentile eines Sprachsignals.Das Merkmal 'Breite' ist<br />
definiert als Differenz zwischen der 90 % und der 10 % Perzentile.<br />
Das spektrale Profil wird auf eine rudimentäre Weise durch zwei Merkmale modelliert, den<br />
spektralen Schwerpunkt und die zeitlichen Schwankungen des spektralen Schwerpunktes<br />
(Fig. 4). Diese beiden Merkmale wurden bereits im Klassifizierer von Phonak (1999) verwendet.<br />
Amplitude [dB]<br />
80<br />
70<br />
60<br />
50<br />
40<br />
30<br />
Schwankungen<br />
des spektralen<br />
Schwerpunkts<br />
spektraler Schwerpunkt<br />
1000 2000 3000 4000 5000 6000 7000 8000<br />
Frequenz [Hz]<br />
Fig. 4: Zur Beschreibung des spektralen Profils werden der spektrale Schwerpunkt und dessen<br />
zeitliche Schwankungen berechnet.<br />
Für die Beschreibung der Harmonizität wird normalerweise der Pitch eines Klanges benutzt<br />
(Fig. 5). In unserem Ansatz wird die Harmonizität durch zwei Merkmale charakterisiert: die<br />
Tonalität und die Pitch-Varianz. Die Tonalität ist definiert durch das Verhältnis der harmonischen<br />
zu den unharmonischen Anteilen im Zeitsignal.<br />
[Hz]<br />
requency<br />
F<br />
500<br />
400<br />
300<br />
200<br />
100<br />
0<br />
Pitch Frequency of Clean Speech<br />
5 10 15 20 25<br />
Time [s]<br />
Fig. 5: Typischer zeitlicher Pitch-Verlauf eines Sprachsignals. Das Merkmal Tonalität ist das<br />
Verhältnis von harmonischen zu unharmonischen (hier durch 0 Hz angezeigten) Anteilen.<br />
Um Amplituden-Onsets zu modellieren, wird das Auftreten hoher und schneller Amplitudenanstiege<br />
im Bark-Spektrum analysiert. Fig. 6 zeigt ein typisches Onsetmuster <strong>für</strong> Popmusik.<br />
162
Da im Onsetmuster auch sehr schön der Rhythmus eines Signals sichtbar wird, wird zusätzlich<br />
ein Merkmal <strong>für</strong> den Takt berechnet.<br />
[Bark]<br />
requency<br />
F<br />
20<br />
15<br />
10<br />
5<br />
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />
163<br />
Time [s]<br />
Fig. 6: Onsetmuster von Pop-Musik. Starke Onsets sind durch Punkte dargestellt. Der<br />
Rhythmus der Musik ist deutlich erkennbar.<br />
Die genannten auditorischen Merkmale wurden zusammen mit Klassifizierern unterschiedlicher<br />
Komplexität evaluiert. Fünf verschiedene Klassifizierer-Typen kamen zur Anwendung:<br />
Regelbasierter Ansatz, Minimum-Distance Klassifizierer, Bayes Klassifizierer, neuronales<br />
Netz, und Hidden Markov Modell (HMM).<br />
Der Vorteil der ersten zwei Klassifizierer ist, dass diese etwa viermal weniger Rechenzeit<br />
und Speicherplatz benötigen als die übrigen Ansätze; da<strong>für</strong> ermöglichen die letzteren eine<br />
genauere Unterteilung des Merkmalsraums.<br />
Die Performance der einzelnen Klassifizierer mit unterschiedlichen Merkmalssets wurde mit<br />
etwa 300 verschiedenen Alltagsklängen getestet. Die Klang-Datenbank enthält unterschiedlichste<br />
Beispiele zu den vier Klassen; <strong>für</strong> die Klasse 'Sprache' zum Beispiel verschiedene<br />
Sprecher, die unterschiedliche Sprachen mit unterschiedlichen Geschwindigkeiten und Tonlagen<br />
in unterschiedlich halligen Räumen sprechen, oder Signale der Klasse 'Störgeräusch'<br />
aus Haushalt, Verkehr, Restaurant, Industrie usw., 'Sprache im Störgeräusch' bei verschiedenen<br />
SNR, und 'Musik' von Klassik über Pop und Rock zu einzelnen Instrumenten und Gesang.<br />
Von jeder Klasse wurden 80 % der Klänge <strong>für</strong>s Training und 20 % <strong>für</strong>s Testen der Klassifizierer<br />
verwendet. Viele Klänge wurden sehr robust erkannt, insbesondere reine und<br />
schwach verhallte Sprache, Verkehrs- und Stimmen-Geräusche, klassische Musik, Instrumente<br />
und Gesang. Probleme bereiten vor allem stark verhallte Sprache, fluktuierende<br />
Störgeräusche und komprimierte Pop-Musik. Da<strong>für</strong> sollten weitere Merkmale aus dem Signal<br />
extrahiert werden, wie zum Beispiel ein Mass <strong>für</strong> die Stärke des Nachhalls im Signal.<br />
Merkmale zur auditorischen Objekterkennung<br />
Einige charakteristischen spezifischen Merkmale (Yost & Sheft, 1993), welche <strong>für</strong> die Bildung<br />
akustischer Objekte wichtig sind, werden im folgenden aufgelistet.<br />
• Spektrale Trennung<br />
Die bemerkenswerte Fähigkeit des auditorischen Systems, den spektralen Inhalt eines Signals<br />
zu bestimmen, ist eine wichtige Basis <strong>für</strong> die weitere Trennung in die nachfolgenden<br />
Merkmale.<br />
• Spektrales Profil<br />
Die meisten Klangquellen produzieren ein bestimmtes Amplitudenspektrum, dessen Profil<br />
relativ konstant bleibt wenn der Gesamtpegel verändert wird. Verschiedene Klangklassen,<br />
wie z.B. Sprache, stationäres Störgeräusch und Musik, haben oft unterschiedliche spektrale<br />
Profile, was zur Unterscheidung von Quellen beitragen kann. Das spektrale Profil ist auch<br />
<strong>für</strong> die Klangfarbe (Timbre) von Musikinstrumenten und Stimmen wesentlich. Das Timbre<br />
wird jedoch ebenso durch temporale Faktoren bestimmt, wie Anstiegs- und Abfallzeiten von<br />
gespielten Noten eines Instruments.<br />
• Harmonische Struktur
Die Teiltöne vieler natürlicher Klangquellen haben eine harmonische oder annähernd harmonische<br />
Struktur, die ihren Ursprung in einem schwingenden Medium hat. Die Harmonischen<br />
formen ein einzelnes auditorisches Bild, beschrieben als Pitch. Dies ist ein hervorragendes<br />
Beispiel von Fusion, denn es ist in der Regel unmöglich, einzelne Teiltöne herauszuhören.<br />
Da unterschiedliche Quellen meist verschiedene harmonische Serien bilden, ist mit<br />
dem Pitch eine Trennung von Quellen möglich.<br />
• Gemeinsame Ein / Ausschwingzeit<br />
Eines der stärksten Merkmale <strong>für</strong> die Gruppierung von Teiltönen ist der gemeinsame Anstieg<br />
der Amplitude. Gleichzeitig einsetzende Teiltöne werden in der Regel zu einem auditorischen<br />
Objekt fusioniert. Kleinere Asynchronitäten bestimmen zu einem wesentlichen Teil<br />
das Timbre der Quelle, grössere asynchrone Amplitudenanstiege einzelner Teiltöne tragen<br />
andererseits stark zur Trennung in separate Quellen bei, auch wenn die Teiltöne untereinander<br />
harmonische Verhält-nisse aufweisen. Messungen haben ergeben, dass Musiker in<br />
einem Orchester um sich selbst zu hören bis zu 50 ms versetzt spielen (Mellinger & Mont-<br />
Reynaud, 1996). Auch das Publikum kann dadurch einzelne Instrumente heraushören, ohne<br />
aber den Eindruck eines gleichzeitigen Einsatzes zu verlieren.<br />
• Kohärente Amplituden- und Frequenzmodulation<br />
Amplitudenmodulation ist charakteristisch <strong>für</strong> viele natürliche Klangquellen wie z.B. Sprache.<br />
Unter kohärenter Amplitudenmodulation versteht man die gleichzeitige Amplitudenänderung<br />
von mehreren Teiltönen. Das auditorische System vermag spektrale Komponenten zu gruppieren,<br />
die mit demselben zeitlichen Muster moduliert sind, oder zu trennen, wenn die Muster<br />
unter-schiedlich sind. Dies funktioniert <strong>für</strong> Modulationsfrequenzen unter 50 bis 100 Hz.<br />
Weit weniger stark scheint die gemeinsame Frequenzmodulation mehrerer Partialtöne zur<br />
Fusion oder Trennung beizutragen. Trotzdem kann sie gerade bei Musik zur Trennung von<br />
Instrumenten beitragen (Vibrato).<br />
• Lokalisation<br />
Das auditorische System verrichtet eine schwierige Aufgabe, wenn es entscheidet, woher im<br />
Raum ein Signal kommt. Interaurale Zeit- und Pegeldifferenzen und Aspekte der Übertragungs-funktion<br />
von Kopf / Ohrmuschel sind entscheidend <strong>für</strong> die Lokalisation. Für die Trennung<br />
von Klangquellen ist die räumliche Lokalisation zwar signifikant aber nicht unerlässlich.<br />
Gruppierungsverfahren<br />
Unter Gruppierung versteht man die auf den vorgängig beschriebenen physikalischen<br />
Merkmalen basierende Zuordnung der Ereignisse in einem akustischen Signal zu verschiedenen<br />
akustischen Objekten (Fusion oder Trennung).<br />
Primitive Gruppierung und Gruppierung nach Schema<br />
Bregman (1990) unterscheidet zwischen zwei Mechanismen um zu entscheiden, welche<br />
Komponenten zu einer bestimmten Klangquelle gehören.<br />
• Primitive Gruppierungsmechanismen teilen das Eingangssignal auf der Basis einfacher<br />
physikalischer Signalmerkmale auf, wie dies im vorhergehenden Abschnitt beschrieben<br />
wurde. Diese Mechanismen funktionieren ohne vorheriges Wissen.<br />
• Bei der Gruppierung nach Schema geschieht die Auswahl und Kombination von Komponenten<br />
des komplexen Signals aufgrund von Erfahrungen und gelernten Mustern, also<br />
aufgrund der Eigenschaften von Klängen oder Klangklassen, die einem schon früher begegnet<br />
sind.<br />
Die Erfahrung zeigt, dass die kontextunabhängige, primitive Gruppierung viel einfacher modellierbar<br />
und anzuwenden ist als die Gruppierung nach Schema. Allerdings ist nicht zu erwarten,<br />
dass eine vergleichbare Klassifizierungs- und Quellentrennleistung wie beim audito-<br />
164
ischen System erreicht werden kann, wenn die höher liegenden Gruppierungsmechanismen<br />
nicht berücksichtigt werden.<br />
Gestaltprinzipien<br />
Am Anfang des zwanzigsten Jahrhunderts hat die Forschung der visuellen Wahrnehmung<br />
die sogenannten Gestaltprinzipien formuliert, welche nun auch <strong>für</strong> auditorische Empfindungen<br />
Anwendung finden. Bregman (1990) nennt dazu zwei Grundregeln (allocation und accounting):<br />
• Jedes Element eines komplexen Signals kann nur einer Quelle zugeordnet werden.<br />
• Alle Elemente des akustischen Ereignisses müssen einer Quelle zugeordnet werden.<br />
Kann ein Element keiner existierenden Quelle zugeordnet werden, so wird es selbst zu<br />
einer Quelle.<br />
Für die Bildung von auditorischen Objekten werden diese Gestaltprinzipien auf verschiedenen<br />
Ebenen angewendet.<br />
• Kontinuität: Amplitudenmoduliertes Rauschen wird als einzelnes Objekt wahrgenommen,<br />
falls die Modulation glatt (zum Beispiel sinusförmig) ist. Bei Rechteckmodulation hingegen<br />
hört man zwei Objekte. Pfeifen, zusammenhängend oder abgesetzt, erzeugt eine<br />
oder zwei Quellen.<br />
• Nähe: Aufeinanderfolgende Noten, die spektral nahe beieinander liegen (Pitch), werden<br />
zur gleichen Quelle gezählt. Es braucht viel, bis eine Melodie durch Störsignale zerfällt.<br />
• Ähnlichkeit: Ähnliche Klangkomponenten werden gruppiert; Noten mit demselben Timbre<br />
werden meistens derselben Quelle zugeordnet.<br />
• Gemeinsames Schicksal: Ändern sich Teiltöne eines Klangs auf gleiche Weise, werden<br />
sie gruppiert. Gemeinsamer Amplitudenanstieg und gemeinsame Modulationen sind<br />
starke Gruppierungsprinzipien. Werden in einem harmonischen Klang einige Teiltöne<br />
moduliert, heben sie sich von den anderen ab, und man hört zwei Klänge.<br />
• Geschlossenheit: Geschlossenheit hilft, Kontinuität trotz abrupter Änderungen zu erhalten.<br />
Lücken in einem Signal trennen Ereignisse, während Rauschen in den Lücken hilft,<br />
sie wieder zu fusionieren. Ein Beispiel dazu wäre Klatschen beim Sprechen. Auch die<br />
Trennung von mehreren gleichzeitigen Sprechern wird dadurch unterstützt.<br />
• Gute Fortsetzung: Die meisten Klänge ändern nicht plötzlich den Charakter; ein Klavier<br />
wird nicht plötzlich wie eine Violine tönen. Das heisst, dass feine, glatte Änderungen einer<br />
einzigen Quelle zugeordnet werden, plötzliche Wechsel erzeugen eine neue Quelle.<br />
Wenn wir uns die Prozesse zur akustischen Szenenanalyse nochmals vor Augen führen und<br />
mit den Methoden aktueller Hörgeräte-Automaten vergleichen so erkennen wir, dass die<br />
heutigen Lösungsansätze sehr technisch inspiriert sind und noch wenig mit unserem eigenen<br />
Wahrnehmungssystem zu tun haben. Wir haben aber die Grenzen der heutigen Lösungen<br />
erkannt und neue Wege entdeckt, die noch fehlenden Klassifizierungsleistungen einzubringen.<br />
Die primitive Gruppierung auditorisch basierter Merkmale mit Hilfe der Gestaltprinzipien<br />
ist ein vielversprechender Lösungsansatz zur besseren Klassifizierung der akustischen<br />
Umgebung. Es dürfte möglich sein, einige Prinzipien zu formulieren und in Hörsystemen<br />
einzusetzen.<br />
Schlussfolgerungen<br />
Die eingangs genannten Ziele der rehabilitativen <strong>Audiologie</strong> (Hören, Verstehen, Klangqualität)<br />
sind durch digitale Signalverarbeitung heute nur unzureichend erfüllbar, obwohl in den<br />
letzten Jahren ein deutlicher Fortschritt erzielt worden ist und auch mit weiteren Fortschritten<br />
165
in nächster Zeit zu rechnen ist. Aus audiologischer Sicht ist dem Versuch eines Ausgleichens<br />
des Hörschadens eine besondere Bedeutung beizumessen, wobei es um eine Verbesserung<br />
der Diagnostik und des Verständnisses von Verarbeitungsdefiziten bei Innenohr-<br />
Schwerhörigkeit primär geht. Dabei erscheint der Modell-basierte Ansatz erfolgversprechend,<br />
da durch Verarbeitungsmodelle unser derzeitiges Wissen über die Funktion und etwaige<br />
Fehlfunktion des Hörsystems in <strong>für</strong> die Hörgeräte-Signalverarbeitung nutzbarer Form<br />
charakterisiert werden kann. Komplexe Computermodelle zur auditorischen Szenenanalyse<br />
sind allerdings derzeit zur Implementation in Hörgeräten noch zu aufwendig. Wenn nicht nur<br />
rein technisch inspirierte Konzepte zur Klassifizierung akustischer Situationen und Objekte<br />
verwendet werden sollen, lassen sich den zusammengefassten Theorien folgend aber Modelle<br />
und Regeln zur Verwendung in Hörinstrumenten ableiten.<br />
Literatur<br />
Appell, Jens-Ekkehardt, Loudness models for rehabilitative Audiology, Dissertation, <strong>Universität</strong> <strong>Oldenburg</strong>, 2002<br />
(http://docserver.bis.uni-oldenburg.de/publikationen/dissertation/2002/applou02/applou02.html)<br />
Büchler, M. et al. (2000). „Klassifizierung der akustischen Umgebung <strong>für</strong> Hörgeräte-Anwendungen“, DAGA 2000.<br />
Dau, T. et al. (1998). „Psychophysics, Physiology and Models of Hearing“. World Scientific Publishing.<br />
Edwards, B. W., Hou, Z., Struck, C. J., Dharan, P. (1999). "Signal-processing algorithms for a new softwarebased,<br />
digital hearing device," The Hearing Journal, Vol. 51, No. 9, 44-52.<br />
Feldbusch, F. (1998). "Geräuscherkennung mittels Neuronaler Netze," Zeitschrift <strong>für</strong> <strong>Audiologie</strong> 1/1998, 30-36.<br />
Gabriel, B., B. Kollmeier and V. Mellert (1997). “Influence of individual listener, measurement room and choice of<br />
test tone levels on the shape of equal-loudness level contours.” Acustica united with acta acustica 83(4):<br />
670-683.<br />
Hohmann, V. (1993). Dynamikkompression <strong>für</strong> Hörgeräte- Psychoakustische Grundlagen und Algorithmen.<br />
Düsseldorf, VDI-Verlag.<br />
Kates, J. M. (1995). „Classification of background noises for hearing-aid applications“, Journal of the Acoustical<br />
Society of America, 97 (1), 461-470.<br />
Launer, S. (1995). Loudness perception in listeners with sensorineural hearing loss. Fachbereich Physik. <strong>Oldenburg</strong>,<br />
Carl-von-Ossietzky <strong>Universität</strong> <strong>Oldenburg</strong>.( http://www.physik.unioldenburg.de/Docs/medi/pub_down.html)<br />
Ludvigsen, C. (1997). „Schaltungsanordnung <strong>für</strong> die automatische Regelung von Hörhilfsgeräten“, Europäische<br />
Patentschrift, EP 0 732 036 B1.<br />
Marzinzik, M. and Kollmeier, B. (1999). "Development and Evaluation of Single-Microphone Noise Reduction<br />
Algorithms for Digital Hearing Aids," in Psychophysics, Physiology and Models of Hearing, edited by T.<br />
Dau, V. Hohmann, and B. Kollmeier (World Scientific, Singapore), pp. 279-282.<br />
Mellinger, D. K., Mont-Reynaud, B. M. (1996). „Scene Analysis,” in Auditory Computation, edited by H. L. Hawkins<br />
et al., Springer, New York.<br />
Nordqvist, P. (2000). "Automatic Classification of Different Listening Environments in a Generalized Adaptive<br />
Hearing Aid," International Hearing Aid Research Conference, IHCON 2000, Lake Tahoe, CA.<br />
Ostendorf, M. et al. (1997). „Empirische Klassifizierung verschiedener akustischer Signale und Sprache mittels<br />
einer Modulationsfrequenzanalyse“, DAGA 97, 608-609.<br />
Phonak Hearing Systems (1999). "Claro AutoSelect", company brochure no. 028-0148-02.<br />
Spriet, A., Moonen, M., and Wouters, J. (2005). "Stochastic gradient-based implementation of Spatially Preprocessed<br />
Speech Distortion Weighted Multichannel Wiener filtering for noise reduction in hearing aids,"<br />
IEEE Trans. Signal Process. 53, 911-925.<br />
Yost, A. W., Sheft, S. (1993). „Auditory Perception,“ in Human Psychophysics, edited by W. A. Yost et al.,<br />
Springer, Berlin.<br />
Zwicker, E., Fastl, H. (1990). „Psychoacoustics, Facts and Models“, Springer, Berlin.<br />
166
Cochlea-Implantate<br />
Norbert Dillier / Zürich<br />
Einführung<br />
Patienten, welche aufgrund einer Innenohr-Schädigung ertaubt oder hochgradig schwerhörig<br />
geworden sind, sind heute vielfach in der Lage, mit einem Cochlear Implant (CI) wieder<br />
Sprache zu hören und zu verstehen. Auch frühertaubte oder taub geborene Kleinkinder können<br />
mit Hilfe der elektrischen Hörnervstimulation nicht nur eine direkte Verbindung zur<br />
akustischen Umwelt aufnehmen, sondern auch eine dem Alter entsprechende Sprache entwickeln.<br />
Ein CI-System besteht aus Implantat, Sprachprozessor und Mikrofon-Sendeeinheit. Die Stimulationselektroden<br />
zur elektrischen Reizung des Hörnerven werden in einer Operation in<br />
die Hörschnecke eingelegt. Durch den hinter dem Ohr getragenen digitalen Sprachprozessor<br />
werden Schallwellen in elektrische Impulse umgewandelt und über eine Sendespule durch<br />
die Haut zum Implantat und zu den Hörnervfasern übertragen. Der Hörnerv leitet dieses<br />
Reizmuster in ähnlicher Art und Weise wie beim natürlichen Hören zum Gehirn weiter, wo<br />
es als Hör- und Klangempfindung wahrgenommen wird. Je nach Alter und Vorgeschichte ist<br />
nach der Operation eine mehrwöchige bis mehrmonatige Hörtrainings- und Rehabilitationsphase<br />
zum Erlernen und Unterscheiden der künstlichen Hörsignale angezeigt.<br />
Das Cochlear Implant als erster und bislang einziger in der Praxis funktionierender Ersatz <strong>für</strong><br />
ein Sinnesorgan ist ein erfolgreiches Beispiel <strong>für</strong> die gegenseitige Befruchtung von Biologie,<br />
Medizin und Technik. Weltweit wurden schätzungsweise bereits nahezu 100'000 Patienten<br />
mit diesen Implantaten versorgt.<br />
Die aktuelle Forschung und Entwicklung zielt auf die verbesserte Programmierung und Anpassung<br />
der Sprachprozessoren. Dazu werden auch elektrophysiologische Messungen der<br />
Hörnervantworten bei verschiedenen Reizsignalen durchgeführt. Mit neuartigen Elektrodenanordnungen<br />
sowie zunehmend höheren Reizraten wird ein natürlicheres Klangbild sowie<br />
eine differenziertere Wahrnehmungsleistung angestrebt.<br />
Komponenten des Cochlear Implants<br />
Cochlear Implants bestehen aus Komponenten, welche ausserhalb des Körpers getragen werden<br />
und dem eigentlichen Implantat. Ueber ein hinter dem Ohr befestigtes Mikrophon mit<br />
Richtcharakteristik werden Schallsignale aufgenommen und über ein Kabel dem Sprachprozessor<br />
zugeleitet, welcher die Schallreize in geeignete elektrische Stimulationsmuster umwandelt<br />
und wiederum über ein Kabel als Hochfrequenzsignale einer Sendespule zuführt. Die<br />
Information gelangt drahtlos über induktive Kopplung zum Implantat mit seiner Empfangsspule<br />
sowie der Decodierungs- und Stimulatorelektronik. Die in der Cochlea plazierten Elelektroden<br />
vermitteln das nunmehr elektrische Signal zum Hörnerv und lösen einen Höreindruck<br />
aus. Für telemetrische Messungen dienen beide Spulen als Sender und Empfänger.<br />
Der Sprachprozessor enthält die digitale Reizcodierungselektronik mit zwei bis acht gespeicherten<br />
Programmen und eine oder mehrere (aufladbare) Batterien. Derzeit sind Systeme von<br />
167
vier kommerziellen Anbietern verfügbar (Tabelle 1). Bereits sind Sprachprozessoren soweit<br />
miniaturisiert worden, dass sie als Hinter-dem-Ohr-Einheit getragen werden können. HdO-<br />
Sprachprozessoren haben nahezu die gleiche Leistungsfähigkeit wie die in Hemd- oder Blusentasche<br />
oder bei Kleinkindern in Brustbeutel oder Rucksäckchen getragenen grösseren Taschengerät-Sprachprozessoren.<br />
Tabelle 1: Technische Daten der kommerziell verfügbaren Implantate: CI22M und CI24M<br />
(Nucleus, Cochlear ), Clarion (Advanced Bionics), Combi 40+ (MedEl), Digisonic (MXM).<br />
Nucleus, Cochlear<br />
(Australien)<br />
Advanced Bionics<br />
(USA)<br />
HiRes 90k<br />
Harmony<br />
MedEl<br />
(Oesterreich)<br />
Neurelec MXM<br />
(Frankreich)<br />
Bezeichnung CI24R/CI24RE/<br />
Combi40+/ Pul- Digisonic<br />
Freedom<br />
sar/Sonata<br />
Abmessung (mm) 27x18x6.4 31x25x6 33.4x23.4x4 28∅x6.8<br />
Gewicht (Gramm) 9.5 8 9 15<br />
Material Gehäuse Titan Titan Keramik<br />
Titan<br />
Keramik<br />
Max. Pulsrate (pps) 14'500/31’600 83’000 18'180/? 7'800<br />
Stimulationskanäle 22/(virtuell 43) 16 12 15<br />
Stimulationsmodus Bipolar<br />
Monopolar<br />
Common ground<br />
Sprachprozessoren SPrint<br />
ESPrit, Esprit-3G,<br />
Freedom (HdO)<br />
Bipolar<br />
Monopolar<br />
Clarion Platinum<br />
PSP und BTE,<br />
HiRes Harmony<br />
Monopolar Common<br />
ground<br />
CIS PRO+<br />
TEMPO+, Opus<br />
(HdO)<br />
Anzahl Programme 8/2 3 3 2<br />
Strategien SPEAK (NofM)<br />
CIS<br />
ACE (NofM)<br />
MP3000<br />
SAS<br />
CIS<br />
PPS<br />
Information www.cochlear.com www.bionicear.c<br />
om<br />
Funktionsweise des Cochlear Implants<br />
CIS<br />
NofM<br />
FSP<br />
Digisonic,<br />
DigiSP K<br />
TG und HdO<br />
CIS/ASR<br />
NofM<br />
www.medel.com www.neurelec.c<br />
om<br />
Die Aufgabe eines Cochlear Implants ist es, im Falle einer Innenohr-Taubheit den Hörnerven<br />
direkt elektrisch zu stimulieren und dadurch Hörempfindungen zu erzeugen. Die Information,<br />
welche im akustischen Schallsignal enthalten ist, muss durch geeignete Umwandlung <strong>für</strong><br />
jeden Patienten individuell in die adäquaten elektroneuralen Erregungsmuster übersetzt werden.<br />
Die heutigen CI-Systeme sind Meilensteine auf dem Weg einer fortschreitenden technologischen<br />
Entwicklung und Verbesserung. Sie stellen aber ohne Ausnahme im Vergleich mit dem<br />
zu ersetzenden biologischen System technische Kompromisslösungen dar, welche immer nur<br />
168
Teilfunktionen des peripheren Gehörs ersetzen können (Patrick u. Evans 1995).<br />
Der Hörnerv kann mit unterschiedlichen elektrischen Reizformen angeregt werden. Die <strong>für</strong><br />
einen effektiven Reiz wirksame elektrische Grösse ist der Strom, welcher während einer gewissen<br />
Zeit in das Nervengewebe hinein- oder herausfliesst. Zur Vermeidung von schädlichen<br />
elektrochemischen Reaktionen am Elektroden-Gewebe-Uebergang muss das elektrische<br />
Stimulationssignal gleichstromfrei angekoppelt werden (eine aktuelle Uebersicht über Modelle<br />
der elektrischen Hörnervstimulation ist zu finden in Hamacher, 2004).<br />
Als Reizformen kommen sinusoidale (analoge) oder pulsatile Signale zur Anwendung.Bei<br />
der analogen Stimulation wird das Signal ähnlich wie bei einem konventionellen Hörgerät<br />
gefiltert und komprimiert und dadurch an den eingeschränkten elektrischen Dynamikbereich<br />
angepasst. Sobald allerdings mehrere nahe beeinander liegende Reizorte vorhanden sind,<br />
ergeben sich Lautheitssummationen durch Stromüberlagerungen. Biphasische Pulse erlauben<br />
demgegenüber eine zeitlich besser kontrollierbare Reizung als analoge Sinussignale. Bei der<br />
Stimulierung von mehreren Kanälen können Interferenzen vermindert werden, indem die<br />
Kanäle zeitlich versetzt ("interleaved") aktiviert werden. Nachteilig wirkt sich unter Umständen<br />
bei der sequentiellen Stimulation die verminderte Zeitauflösung aus, da pro Reizpuls<br />
immer nur die Information eines Frequenzbandes übertragen wird, die anderen also inaktiv<br />
bleiben.<br />
Voraussetzung <strong>für</strong> die elektrische Stimulation ist eine genügende Anzahl elektrisch erregbarer<br />
Nervenzellen. Durch die Lage der Stimulations- und Referenzelektroden kann der aktivierte<br />
Bereich beeinflusst werden. Die bipolare Elektrodenansteuerung zielt darauf ab, einen<br />
möglichst geringen Anteil von Nervenfasern und damit ein schmales Frequenzband zu aktivieren.<br />
Bei weiter auseinanderliegenden Elektroden werden bei gleicher Reizstärke mehr<br />
Neuronen aktiviert als bei nahe beisammenliegenden. Die monopolare Reizkonfiguration<br />
stellt diesbezüglich einen Grenzfall dar, indem vor allem die Hörnervfasern in der Nähe der<br />
aktiven intracochleären Elektrode aktiviert werden, während die im Muskelgewebe plazierte<br />
Referenzelektrode keine Empfindungen auslöst.<br />
Für die Sprachprozessor-Einstellung muss <strong>für</strong> jede Elektrodenkonfiguration die Wahrnehmungsschwelle<br />
(Threshold, T-level) sowie die Reizstärke <strong>für</strong> eine angenehme, erträgliche<br />
Lautheitsempfindung (Comfort, C-level, manchmal auch MCL, most comfortable level genannt,<br />
bzw. durch UCL, upper comfortable level, ersetzt) bestimmt werden. Der Bereich zwischen<br />
diesen Werten (dynamic range, dynamischer Bereich) liegt in den meisten Fällen unterhalb<br />
von 6 dB (Ladung/Phase auf 1 nanoCoulomb bezogen) und ist damit wesentlich kleiner<br />
als die bis zu 120 dB Dynamik bei der akustischen Stimulation.<br />
Die Hörempfindungen bei elektrischer Stimulation werden durch die Reizrate und den Ort<br />
der Stimulation bestimmt. Die Reizrate eines periodischen Stimulationssignals kann bis zu<br />
einer Frequenz von etwa 300 Pulsen pro Sekunde der Grundfrequenz der menschlichen Stimme<br />
(Pitch) zugeordnet werden. Die Stimulation an verschiedenen Reizorten innerhalb der<br />
Cochlea ruft Empfindungen hervor, die mit der ortsabhängigen Tonhöhenempfindung Normalhörender<br />
verglichen werden kann. Die Reizelektroden können somit wie die Tasten eines<br />
Klaviers unterschiedliche Klangspektren wiedergeben. Die wahrgenommenen charakteristischen<br />
Frequenzen hängen von der Eindringtiefe des Elektrodenträgers ab. Mit den über 17<br />
mm verteilten 22 Elektroden des Nucleus-Implantats beispielsweise kann bei einer Eindringtiefe<br />
von ca. 20 mm der Frequenzbereich zwischen etwa 700 und 11'000 Hz angesprochen<br />
169
werden.<br />
In jüngster Zeit sind von mehreren Implantatherstellern neue Arten von Elektrodenformen<br />
vorgestellt worden, welche einerseits tiefer in die Hörschnecke einzudringen erlauben und<br />
andererseits gezielter das elektrische Stromfeld in Richtung auf die Hörnervfasern im Zentrum<br />
der Schnecke ausrichten sollen. Dadurch wird eine bessere Trennschärfe der einzelnen<br />
Elektrodenkanäle sowie eine Reduktion der Stromstärke angestrebt. Ein Beispiel einer vorgeformten<br />
Elektrode, welche zur Einführung in die Cochlea mit einem sogenannten Stilett (einem<br />
dünnen Draht) gerade gehalten wird, ist in Abb. 1 dargestellt. Inwiefern die angestrebten<br />
Ziele mit diesen neuen Elektroden erreicht werden können, ist Gegenstand laufender Studien.<br />
Die Elektrode wird<br />
durch ein Stilett<br />
während der<br />
Einführung gerade<br />
gehalten<br />
Stilett wird<br />
entfernt<br />
Elektrode<br />
formt sich<br />
Abb. 1 Beispiel einer vorgeformten Elektrode (Nucleus 24 Contour), welche sich bei der Implantation<br />
nach Entfernen eines dünnen Drahtes (Stilett) eng an die innere Schneckenwand<br />
(Modiolus) anschmiegt.<br />
Bezüglich Sprachcodierung haben die Forschungsarbeiten der letzten zehn Jahre zu einer<br />
beträchtlichen qualitativen Verbesserung und ebenso zu einer Vereinheitlichung der zugrundeliegenden<br />
Konzepte und Strategien geführt. Die Merkmalsextraktion gemäss dem Schema<br />
eines Formantvocoders, wie sie in den Sprachprozessor der ersten Generation realisiert war<br />
und bei welchem nur die zwei oder drei Maximalwerte des Frequenzspektrums ermittelt und<br />
auf die Reizelektroden abgebildet wurden, wurde zugunsten immer detaillierterer zeitlich<br />
besser aufgelöster Spektralinformation aufgegeben. Bei der SPEAK-Strategie beispielsweise<br />
werden laufend aus 20 Frequenzbändern die sechs bis zehn grössten Werte bestimmt und mit<br />
einer Reizrate von etwa 250 Pulsen pro Sekunde (pps) auf die<br />
entsprechenden Elektroden abgebildet (Skinner et al. 1994). Die moderneren ACE-Strategien<br />
(Advanced Combination Encoder, manchmal auch mit dem Begriff NofM bezeichnet) erlauben<br />
die Kombination von höheren Reizraten auf gleichzeitig mehr Kanälen bis zur derzeit<br />
maximalen Gesamtrate von 14'400 pps (mit dem CI24R-Implantat) bzw. 31’600 (mit dem<br />
CI24RE-Implantat) (also zum Beispiel 16 Kanäle mit je 900 bzw. 1975 pps, 12 Kanäle mit je<br />
1200 bzw. 2600 pps oder 9 Kanäle mit je 1800 bzw. 3500 pps). Abb. 2 zeigt beispielhaft,<br />
wie ein gesprochenes Wort spektral in verschiedene Frequenzbänder zerlegt wird, von denen<br />
zu jedem Zeitpunkt diejenigen Bänder mit der grössten Signalenergie ausgewählt und den<br />
entsprechenden Elektroden zugeordnet werden. Das zeitlich und räumlich verteilte Reizmus-<br />
170
ter <strong>für</strong> ein Elektroden-Bündel ist in Abb. 3 dargestellt.<br />
Die früher häufig verwendete Breitband-Analog-Stimulation, welche heute nur noch als<br />
SAS-Strategie (Simultaneous Analog Stimulation) im Clarion-System angeboten wird, wurde<br />
von mehreren Forschungsgruppen durch pulsatile Reizung möglichst hoher Raten (CIS, continuous<br />
interleaved sampling) ersetzt. Besonders bei Elektrodenkonfigurationen mit geringem<br />
Abstand zwischen benachbarten Elektroden bietet die nichtsimultane Pulsreizung gegenüber<br />
simultaner Analogreizung gewichtige Vorteile. Die hohen Reizraten können insbesondere die<br />
zeitliche Feinstruktur der Sprachsignale besser reproduzieren (Wilson et al. 1991).<br />
0 400 [msec]<br />
Amplitude (%)<br />
22 21 20 19 18 17 16 15 14 13 12 11 10 9 8 7<br />
Elektrode (Filterband)<br />
6<br />
5<br />
4<br />
3<br />
2<br />
1<br />
22 21 20 19 18 17 16 15 14 13 12 11 10 9<br />
8 7 6 5 4 3 2 1<br />
Elektrode (Filterband)<br />
Abb.2 Frequenzanalyse des Sprachsignals gemäss der Advanced Combination Encoder<br />
(ACE) Strategie des Nucleus-Sprachprozessors. Die obere Kurve stellt das gesprochene Wort<br />
"Fall" dar, welches mit einer Filterbank in maximal 22 Frequenzbänder aufgeteilt wird. Die<br />
zu einem Zeitpunkt energiereichsten Bandfilter werden zur Stimulation ausgewählt und einer<br />
Reizelektrode zugeordnet. Die unteren beiden Grafiken stellen die Frequenzspektren und die<br />
jeweils aktiven Elektroden zum Zeitpunkt 100 msec (links, Konsonant) und 240 msec (rechts,<br />
Vokal) dar.<br />
Wie gut die durch die Signalcodierung reduzierte und auf die implantierten Elektroden übertragene<br />
Sprachinformation im Einzelfall zur Diskrimination von Wörtern und Sätzen ausreicht,<br />
kann nur durch Evaluationsexperimente mit grösseren Patientengruppen ermittelt werden.<br />
Solche Experimente sind naturgemäss aufwendig und von vielen Variablen abhängig<br />
(Dillier et al. 1995; Brill et al. 1997).<br />
Zusammenfassend lässt sich jedoch sagen, dass mit den modernen digitalen Strategien spontan<br />
ein besseres Konsonantenverständnis erzielt wurde als mit den von den Patienten früher<br />
benutzten Sprachprozessoren. Die besten Ergebnisse wurden mit Verfahren erzielt, welche<br />
höhere Reizraten und differenziertere Abbildungen spektraler Feinstrukturen enthielten<br />
171
Elektroden (22 - 1)<br />
Elektroden (22 - 1)<br />
0<br />
Zeit (msec)<br />
400<br />
100 120 240 260 350<br />
370<br />
Abb. 3 Zeitlicher Verlauf der Reizsignale an den einzelnen Elektroden. Dargestellt ist eine<br />
Elektrodogramm-Analyse des gesprochenen Wortes "Fall". Mit einer Wiederholrate von 900<br />
Hertz werden jeweils maximal 12 Elektroden zeitlich versetzt aktiviert ("interleaved stimulation").<br />
Die Auswahl der Kanäle erfolgt wie in Abb. 3 beschrieben gemäss der spektralen<br />
Energieverteilung.Horizontal ist die Zeit von 0 bis 400 Millisekunden dargestellt, vertikal die<br />
Elektrodenposition von 22 (apikal, tiefste Ortsfrequenz) bis 1 (basal, höchste Ortsfrequenz).<br />
Die Länge und Schwärzung der Striche ist proportional zur jeweiligen Reizamplitude. Die<br />
unteren drei Grafiken zeigen zeitlich gedehnte Ausschnitte von jeweils 20 msec Dauer:<br />
stimmloser Konsonant /f/ (100 - 120 msec), Vokal /a/ (240 - 260 msec), stimmhafter Konsonant<br />
/l/ (350 - 370 msec).<br />
Audiologische Indikationen bei Erwachsenen und Kindern<br />
Für die Versorgung mit einem Cochlear Implant sind Patienten geeignet, die eine beidseitige<br />
überwiegend sensorische Taubheit bis hin zur an Taubheit grenzenden Schwerhörigkeit haben.<br />
Dieser Indikationsbereich ist jedoch nicht an starre Grenzen der Tonschwellenaudiometrie<br />
gebunden, sondern vielmehr an die tatsächliche Sprachperzeption. Patienten, die trotz optimaler<br />
Versorgung mit konventionellen Hörgeräten kein Sprachverstehen haben, sind Kandi-<br />
172
daten <strong>für</strong> ein Cochlear Implant. Ausnahme sind ältere Kinder, Jugendliche und Erwachsene,<br />
die taub geboren sind.<br />
Erwachsene müssen in der präoperativen Evaluation ton- und sprachaudiometrisch untersucht<br />
werden. Hinzu kommen die Impedanzaudiometrie sowie die Hirnstammaudiometrie und<br />
Elektrocochleographie. Das Resultat einer solchen Untersuchung kann eine Neuversorgung<br />
mit optimierten Hörgeräten sein. Liegt das Einsilberverstehen im Freiburger Sprachtest unter<br />
40 % - bei Freifeldmessung mit Hörgeräten -, so ist heute die Indikation zum Cochlear<br />
Implant gegeben (Fraysse et al. 1998). Im übrigen dürfen Patienten mit kurzer Ertaubungsdauer<br />
ein besseres Sprachverstehen nach Implantation erwarten als Langzeitertaubte.<br />
Bei Kindern haben wir aus audiometrischer Sicht mit sehr ähnlichen Bedingungen zu rechnen.<br />
Die Indikation wird dann als gegeben angesehen, wenn im Vorschulalter mit Hörgeräten<br />
eine ausreichende Sprachperzeption ausbleibt und somit eine adäquate Sprachproduktion<br />
nicht zu erwarten ist. In Abhängigkeit vom Alter des Kindes sind objektive audiometrische<br />
Testverfahren einzusetzen, ergänzt durch Spiel- und verhaltensaudiometrisch erfasste Tonschwellen.<br />
Entscheidend <strong>für</strong> den Erfolg einer CI-Versorgung beim Kleinkind ist die frühe<br />
Erkennung des Hörschadens. Die rechtzeitige Versorgung mit Hörgeräten und optimale hör-<br />
und sprachgerichtete sonderpädagogische Förderung sollten 6 Monate nach Diagnosestellung<br />
eine Entscheidung <strong>für</strong> oder gegen ein Cochlear Implant erbringen (Dillier u. Laszig 2001)<br />
Intra- und postoperative objektive Messungen<br />
Die modernen Cochlear Implants enthalten alle eine Möglichkeit zur Ueberprüfung der Funktionsfähigkeit<br />
des Implantats sowie zur Messung der Elektrodenimpedanzen. Die Uebermittlung<br />
der gemessenen Werte erfolgt telemetrisch über die Sende/Empfangsspule und wird in<br />
einem Testgerät oder Messprogramm ausgewertet.<br />
Die elektrische Impedanzmessung ermöglicht die Identifikation von kurzgeschlossenen oder<br />
unterbrochenen Elektrodenzuleitungen innerhalb weniger Sekunden. Für die Messung werden<br />
Testreize mit geringer Stromstärke verwendet, welche normalerweise von den Patienten<br />
nicht wahrgenommen werden können. Aus dem Verhältnis der gemessenen Spannung über<br />
den Reizelektroden und der aufgeprägten Stromamplitude wird ein Mass <strong>für</strong> die Elektrodenimpedanz<br />
ermittelt (Swanson et al. 1995; Zierhofer et al. 1997; Schulman 1995).<br />
Die intra- oder post-operativen objektiven audiologischen Verfahren verwenden zur Stimulation<br />
die implantierten intracochleären sowie allenfalls extracochleäre Referenz-Elektroden<br />
(bei monopolarer Stimulation). Intraoperativ stehen einerseits die Ableitung der elektrisch<br />
evozierten Reizantworten über Hautelektroden bzw. über das Implantat selbst, andererseits<br />
die visuelle Registrierung des Stapediusreflexes zur Verfügung (Shallop 1993).<br />
Die intraoperative Beobachtung des Stapediusreflexes unter operationsmikroskopischer Sicht<br />
ist wenig aufwendig, wenig störanfällig und erfolgt während der Stimulation des Hörnerven<br />
über das Implantat. Insofern dient die Stapediusreflexmessung auch der Funktionsprüfung<br />
des Hörnerven und damit letztendlich auch der des Implantates. Die Stapediusreflexschwelle<br />
liegt etwa im Uebergang zwischen mittlerem und oberem Drittel des späteren Dynamikbereichs<br />
(Battmer et al. 1990) und liefert Richtgrössen zur Vermeidung von Ueberstimulation<br />
bei der ersten Anpassung. Mit den Telemetrieoptionen der heutigen Implantate hat sich die<br />
173
Bedeutung der Stapediusreflexbeobachtung zur Sicherstellung der Implantatsfunktion relativiert.<br />
Neben den elektrisch evozierten Stapediusreflexen sind die elektrisch evozierten Hirnstammpotentiale<br />
und die telemetrisch übermittelten elektrisch evozierten Aktionspotentiale (neurale<br />
Reizantwort-Telemetrie, NRT) weitere objektive audiologische Messverfahren. Nach intracochleärer<br />
Stimulation über das Implantat werden Hirnstammpotentiale über Fernelektroden<br />
wie bei der BERA am Kopf abgeleitet oder Aktionspotentiale des Ganglion spirale über<br />
intracochleäre Elektroden und Telemetrie gesendet und registriert.<br />
PC mit NRT Software<br />
SPrint<br />
Elektrodenträger<br />
Nervenfasern<br />
Decodierung / Stimulation<br />
Sendespule<br />
Verstärkung / Codierung<br />
Implantat<br />
Nucleus CI24<br />
Neurale Antwort<br />
und Reizartefakt<br />
Abb. 4 NRT-Messaufbau. Ein Sprachprozessor (SPrint), welcher mit dem klinischen Anpasscomputer<br />
verbunden ist, sendet Reizpulse über die Sendespule zum Implantat (Nucleus CI24).<br />
Die neuralen Antworten werden durch die implantierten Elektroden abgeleitet, im Implant<br />
verstärkt und über die Sende/Empangsspulen zum Sprachprozessor und PC zurückgesendet.<br />
Die neuste Generation von Implantaten erlaubt neben der mehrkanaligen Stimulation auch<br />
die Messung von Elektroden- und Implantatseigenschaften sowie die Ableitung neuraler<br />
Reizantworten (NRT). Die Uebermittlung der Messdaten erfolgt telemetrisch durch die intakte<br />
Haut (Abbas et al. 1999). Zur Messung werden ausser dem standardmässigen Programmierungssystem<br />
(PC mit Spezialinterface) und einem Sprachprozessor nur das NRT-Programm<br />
benötigt. Abb. 4 zeigt den Aufbau der verschiedenen Komponenten des Messsystems. Ein<br />
vom NRT-Programm ausgewähltes Reizsignal (Stimulus) wird über die ausgewählte Elektrode<br />
ausgegeben. Die resultierende neurale Antwort wird von einer anderen Elektrode in der<br />
Nähe abgeleitet. Das Messergebnis wird verstärkt, codiert und über die Sendeeinheit an den<br />
Sprachprozessor zurückgeschickt.<br />
174
210<br />
Abb. 5 Beispiel einer intraoperativen NRT-Messung. Links: Antwortkurven bei Stimulation<br />
an allen 22 intracochleären Elektroden (monopolare Reizung und Ableitung, 1.5 mm Abstand<br />
der Messelektrode von der aktiven Reizelektrode, Stromstärke jeweils 210 CL-Einheiten,<br />
Pulsbreite 25 μs, Reizrate 80 Pulse pro Sekunde, 50 Mittelungen). Rechts unten: Einzelkurve<br />
mit negativer (N1) und positiver (P1) Welle. Rechts oben: Antwortamplituden (P1 - N1) bei 3<br />
Stromstärken (210, 200, 190 CL) <strong>für</strong> alle 22 intracochleären Elektroden.<br />
Die entsprechenden neuralen Reizantworten (oder Nervenantworten) werden am Bildschirm<br />
dargestellt und können anschliessend ausgewertet werden. Die Form und Grösse der Antwort<br />
sind abhängig von den Reiz- und Messbedingungen. NRT-Messungen können ohne grösseren<br />
Aufwand intraoperativ durchgeführt werden. Sie bieten neben dem Nachweis der neuralen<br />
Aktivität auch den Vorteil der kompletten Funktionsüberprüfung des Implantats.Ein Beispiel<br />
einer intraoperativen Serie von NRT-Messungen über alle 22 intracochleären Elektroden<br />
zeigt Abb. 5. Häufig lässt sich eine typische Antwortkurve des Summenaktionspotentials<br />
gewinnen mit einer negativen Welle (N1), welche von einer positiven Welle (P1) gefolgt<br />
wird (s. Abb. 5 rechts unten). Die Zunahme des neuralen Summenaktionspotentials mit steigender<br />
Reizstärke (SL, Stimulus-Level) korrespondiert mit der postoperativen subjektiven<br />
Lautheitswahrnehmung (von sehr leise bis angenehm laut). Aus den Amplitudendifferenzen<br />
der beiden Wellen <strong>für</strong> drei verschiedene Reizstärken (210, 200, 190) kann eine NRT-<br />
Schwelle extrapoliert werden (Abb. 5 rechts oben), welche meist etwa in der Mitte zwischen<br />
den späteren T- und C-Werten liegt.<br />
175<br />
N1<br />
P1<br />
CL<br />
200<br />
190
Postoperative Basis- und Folgetherapie<br />
Der Erfolg einer CI-Versorgung hängt von vielen Faktoren ab, nicht zuletzt von der Anpassung<br />
des Sprachprozessors. Ein gut angepasster Sprachprozessor ermöglicht es dem Patienten,<br />
die Klangeindrücke in ihrer Vielfalt wahrzunehmen und schneller voneinander unterscheiden<br />
zu lernen. Hauptziel einer Anpassung ist es, <strong>für</strong> jede aktive Elektrode die Hörschwellen<br />
und den Pegel der angenehmen Lautheit zu bestimmen. Bei Erwachsenen ist diese<br />
Anpassung relativ problemlos, da sie ihr Lautheitsempfinden in der Regel gut beschreiben<br />
und skalieren können. Die Arbeit mit Kindern erweist sich als schwieriger, da deren subjektive<br />
Angaben nicht immer so zuverlässig (und reproduzierbar) erfolgen. Zur Verifizierung der<br />
subjektiven Angaben können objektive Messverfahren beigezogen werden.<br />
Die Anpassung des Sprachprozessors erfolgt nach abgeschlossener Wundheilung. Alle modernen<br />
Cochlear Implants werden heute mittels eines Computers über eine spezielle Software<br />
angepasst. Grundsätzlich müssen <strong>für</strong> alle Implantatstypen die optimalen Stimulationsparameter<br />
bestimmt und im Prozessor gespeichert werden. Die Ermittlung der minimalen Stromstärken,<br />
die Höreindrücke auslösen (Hörschwelle, Threshold bzw. T-level) und der maximalen<br />
Stromstärken, die noch angenehm laut empfunden werden (Comfort level bzw. most comfortable<br />
level, abgekürzt C-level oder MCL) <strong>für</strong> alle verfügbaren Kanäle ist bei ertaubten Erwachsenen<br />
einfach und zuverlässig.<br />
Die postoperative Basis- und Folgetherapie ertaubter Erwachsen beinhaltet eine bis auf die<br />
Erstanpassung weitgehend ambulante Begleitung, Beratung über technische Fragen, Ersatz<br />
von defekten Teilen, Veränderung der Anpassungsdaten und Aktualisierung der individuellen<br />
Hard- und Software sowie die Dokumentation der Fortschritte mittels verschiedener Hör- und<br />
Sprachtests.<br />
Die CI-Anpassung bei Kleinkindern bedarf einer engen Zusammenarbeit von Pädagogen und<br />
Audiologen und ähnelt in mancher Hinsicht der pädagogischen Verhaltensbeobachtung zur<br />
Hörprüfung oder zur Hörgeräteanpassung (Bertram 1998). Das ”Hören” der Kleinkinder,<br />
insbesondere taubgeborener, ist zunächst nur an sehr diskreten Reaktionen der Augen oder<br />
der Mimik zu erkennen. Sie zu entdecken und richtig zu werten, ist das hauptsächliche Ziel<br />
der ersten Sitzungen zur Anpassung des Sprachprozessors. Erfahrene und eingespielte Teams<br />
sind in der Lage, auch mit Kindern unter 2 Jahren zu arbeiten und zuverlässige Anpasswerte<br />
zu erreichen (Lenarz et al. 1994).<br />
Parallel zur Vervollständigung und wiederholten Kontrolle des Sprachprozessor-Programms<br />
werden Hörübungen und Hörtests zur Förderung und Verlaufsdokumentation der Sprachentwicklung<br />
durchgeführt Hörtest (Bertram 1998) (McCormick et al. 1994). Für die Verlaufskontrolle<br />
bei Kleinkindern vor dem Spracherwerb bietet sich der LiP-Test (Listening Progress)<br />
dar, welcher in einer Uebersichtstabelle die sprachlichen Teilleistungen auflistet<br />
(Archbold et al. 1995). Der Test of Auditory Perception of Speech (TAPS, (Reid u. Lehnhardt<br />
1994)) ist ebenfalls auf CI-Kinder abgestimmt und zwar schon ab dem dritten Lebensjahr.<br />
Als weitere Testbatterie zu erwähnen ist auch der EARS test (Evaluation of Auditory<br />
Responses, MedEl), der aus ursprünglich englischen Tests zusammengesetzt ist und in verschiedenen<br />
Europäischen Sprachversionen vorliegt. Eine Zusammenstellung von weiteren<br />
Tests <strong>für</strong> Sprachperzeption und -Produktion von CI-Kindern findet sich in (Dyar 1994).<br />
Die technologische Entwicklung ist heute so weit fortgeschritten, dass auch bei Kleinkindern<br />
176
eine sichere, zuverlässige und erfolgreiche Versorgung mit einem Cochlear Implant vorgenommen<br />
werden kann (Lehnhardt et al. 1992). Neben der Hörentwicklung sind speziell bei<br />
Kindern vor allem die Fortschritte in der Sprachentwicklung hervorzuheben (Robbins et al.<br />
1995; Waltzman et al. 1997).<br />
Literatur<br />
Abbas PJ, Brown CJ, Shallop JK, Firszt JB, Hughes ML, Hong SH, Staller SJ. Summary of<br />
results using the nucleus CI24M implant to record the electrically evoked compound<br />
action potential. Ear Hear 1999;20: 45-59<br />
Archbold S, Lutman ME, Marshall DH. Categories of Auditory Performance. Ann Otol Rhinol<br />
Laryngol [Suppl] 1995;166: 312-314<br />
Battmer RD, Laszig R, Lehnhardt E. Electrically elicited stapedius reflex in cochlear implant<br />
patients. Ear Hear 1990;11: 370-374<br />
Bertram B. Rehabilitationskonzept bei Kindern. In: Lenarz T (ed) Cochlea-Implantat. Ein<br />
praktischer Leitfaden <strong>für</strong> die Versorgung von Kindern und Erwachsenen. Springer-<br />
Verlag, Berlin, Heidelberg, 1998: 108-121<br />
Brill SM, Gstoettner W, Helms J, von Ilberg C, Baumgartner W, Muller J, Kiefer J. Optimization<br />
of channel number and stimulation rate for the fast continuous interleaved<br />
sampling strategy in the COMBI 40+. Am J Otol 1997;18: S104-6<br />
Dillier N, Battmer RD, Döring WH, Müller-Deile J. Multicentric field evaluation of a new<br />
speech coding strategy for cochlear implants. Audiology 1995;34: 145-159<br />
Dillier N, Laszig R. Audiometrie und Cochlear Implant. In: Lehnhardt E, Laszig R (eds)<br />
Praxis der Audiometrie. Georg Thieme-Verlag, Stuttgart, 2001: 293-309<br />
Dyar D. Monitoring progress: the role of a speech and language therapist. In: McCormick B,<br />
Archbold S, Sheppard S (eds) Cochlear Implants for young children. Whurr Publishers<br />
Ltd, London, 1994: 237-268<br />
Fraysse B, Dillier N, Klenzner T, Laszig R, Manrique MJ, Perez CM, Morgon A, Müller-<br />
Deile J, Ramos AM. Cochlear Implants for Adults Obtaining Marginal Benefit from<br />
Acoustic Amplification. Am J Otol 1998;19: 591-597<br />
Hamacher, V. (2004). Signalverarbeitungsmodelle des elektrisch stimulierten Gehörs. Wissenschaftsverlag<br />
Mainz in Aachen, ISBN 3-928493-48-5<br />
Lehnhardt E, Gnadeberg S, Battmer RD, von Wallenberg EL. Experience with the cochlear<br />
miniature speech processor in adults and children together with a comparison of unipolar<br />
and bipolar modes. ORL 1992;54: 308-313<br />
Lenarz T, Lehnhardt E, Bertram B. Cochlear Implant bei Kindern. Thieme Verlag, Stuttgart,<br />
New York, 1994: 1-158.<br />
McCormick B, Archbold S, Sheppard S. Cochlear Implants for Young Children. Whurr Pub-<br />
177
lisher Ltd., London, 1994: 1-291.<br />
Patrick JF, Evans AR. Implant designs for future coding strategies. Ann Otol Rhinol Laryngol<br />
[Suppl] 1995;166: 137-138<br />
Reid J, Lehnhardt M. Speech perception test results for European children using the Nucleus<br />
Cochlear Implant. Adv in Cochlear Implants, Proc 3rd Int Cochlear Implant Conf<br />
(Innsbruck AU) 1994522-527<br />
Robbins AM, Osberger MJ, Miyamoto RT, Kessler KS. Language development in young<br />
children with cochlear implants. Adv Otorhinolaryngol 1995;50: 160-166<br />
Schulman JH. Using impedance telemetry to diagnose cochlear electrode history, location,<br />
and functionality. Ann Otol Rhinol Laryngol [Suppl] 1995;166: 85-87<br />
Shallop JK. Objective electrophysiological measures from cochlear implant patients. [Review].<br />
Ear Hear 1993;14: 58-63<br />
Skinner MW, Clark GM, Whitford LA, Seligman PM, Staller SJ, Shipp DB, Shallop JK,<br />
Everingham C, Menapace CM, Arndt PL, Antognelli T, Brimacombe JA, Pijl S,<br />
Daniels P, George CR, McDermott HJ, Beiter AL. Evaluation of a new spectral peak<br />
coding strategy for the Nucleus 22 channel cochlear implant system. Am J Otol<br />
Suppl 1994;15: 15-27<br />
Swanson B, Seligman P, Carter P. Impedance measurement of the Nucleus 22-electrode array<br />
in patients. Ann Otol Rhinol Laryngol [Suppl] 1995;166: 141-144<br />
Waltzman S, Cohen NL, Gomolin R, Green J, Shapiro W, Brackett D, Zara C. Perception and<br />
production results in children implanted between 2 and 5 years of age. Adv Otorhinolaryngol<br />
1997;52: 177-180<br />
Wilson BS, Finley CC, Lawson DT, Wolford RD, Eddington DK, Rabinowitz WM. Better<br />
speech recognition with cochlear implants. Nature 1991;352: 236-238<br />
Zierhofer CM, Hochmair IJ, Hochmair ES. The advanced Combi 40+ cochlear implant. Am<br />
J Otol 1997;18: S37-S38<br />
178
Implantierbare Hörgeräte<br />
Andreas Büchner / Hannover<br />
Neben den konventionellen Hörgeräten gibt es inzwischen eine Vielzahl an teil- und<br />
vollimplantierbaren Hörsystemen. Es gibt auch eine Reihe von medizinischen und<br />
audiologischen Indikationen, bei denen die Anwendung von implantierbaren Hörsystemen ein<br />
besseres Ergebnis <strong>für</strong> die Patienten bringen kann. Allerdings hängt der Erfolg der<br />
Hörversorgung solcher Therapiemaßnahmen davon ab, dass die Auswahl der Patienten unter<br />
Betrachtziehen aller medizinischen und audiologischen Aspekte in ausgewiesenen Kliniken<br />
mit ausreichender Erfahrung auf diesem Gebiet durchgeführt wird. Einige von den<br />
Indikationen <strong>für</strong> implantierbare Hörsysteme sind in folgenden genannt:<br />
• Rezidivierende Gehörgangentzündungen infolge konv. HG<br />
• Malformationen des Gehörganges (z. B. Verengung, Exostose usw.)<br />
• Ausgeprägter Hochtonhörverlust mit geringer Hörminderung in Tief- und<br />
Mitteltonbereich<br />
• Limitierte Sprachverständlichkeit bei Nebengeräuschen mit konv. HG<br />
• Schallleitung- und kombinierte Schwerhörigkeiten infolge von verschiedene Krankheiten<br />
(z. B. fehlender Gehörgang oder Mittelohrstrukturen, Chronische Mittelohrentzündungen<br />
mit oder ohne Trommelfellperforation, Radikalhöhle, Otosklerose usw.)<br />
• Tragekomfort und soziale Aspekte<br />
Die implantierbaren Hörgeräte werden in teil- und vollimplantierbare Hörsysteme eingeteilt.<br />
Die teilimplantierbaren Hörgeräte werden wiederum in passive und aktive Hörsysteme<br />
gegliedert. Untere Tabelle zeigt die Einteilung der implantierbaren Hörgräte mit<br />
dazugehörigen Hörsystemen.<br />
179
180<br />
• Retro-X<br />
• Otologics MET<br />
• Hörimplantat Esteem<br />
• BAHA<br />
• Vibrant ® Soundbridge ®<br />
• Otologics CARINA<br />
passive Hörsysteme<br />
aktive Hörsysteme<br />
Aktive Hörsysteme<br />
teilimplantierbare Hörgeräte<br />
vollimplantierbare Hörgeräte<br />
Implantierbare Hörgeräte
Vibrant ® Soundbridge ®<br />
Dieses teilimplantierbare aktive Hörgerät Vibrant Soundbridge (VSB) von Fa. MED-EL<br />
besteht aus einem internen Teil (genant als VORP, S. Bild) und einem externen Teil als<br />
Audioprozessor, welcher die Signalverarbeitung und Stromversorgung des Implantates<br />
beinhaltet. Die HNO-Klinik an der MHH verfügt über jahrelange Erfahrung (seit 1997) mit<br />
über 100 Implantationen an Patienten.<br />
Die VSB eignet sich <strong>für</strong> gering- bis mittelgradige, grenzend an hochgradige Schallleitungs-,<br />
Schallempfindung- und kombinierte Schwerhörigkeiten. Die Bilder zeigen die Operations-<br />
bzw. Ankopplungsmethode <strong>für</strong> verschiedene Indikationen.<br />
Ankopplung am Amboss <strong>für</strong><br />
Innenohrschwerhörigkeiten<br />
181<br />
Ankopplung am runden Fenster <strong>für</strong><br />
kombinierte Schwerhörigkeiten
Die Auswahlkriterien <strong>für</strong> die VSB je nach Indikationen sind in den Diagrammen dargestellt.<br />
Auswahlkriterien <strong>für</strong><br />
Innenohrschwerhörigkeit<br />
(Luftleitungshörschwelle)<br />
Auswahlkriterien <strong>für</strong> Schallleitungs- und<br />
kombinierte Schwerhörigkeiten<br />
(Knochenleitungshörschwelle)<br />
Um die Eignung dieses Systems präoperativ zu bestimmen bzw. dem Patienten einen<br />
Höreindruck zu vermitteln, wird ein Simulationssystem (das sog. DDS-System) mit dem<br />
Trommelfell in Kontakt gebracht und Hörsamples (Sprache und Musik) vorgespielt (S. Bild).<br />
DDS (Direct Drive Stimulation) Darstellung der<br />
Simulationsmethode<br />
182
Otologics MET TM<br />
Das teilimplantierbare Hörsystem MET (Middle Ear Transducer) von Fa. Otologics eignet<br />
sich <strong>für</strong> mittel- bis hochgradige Schallempfindungsschwerhörigkeiten. Dieses System besteht<br />
auch aus einem internen Implantat und einem externen Audioprozessor (s. Bild). Das<br />
Diagramm rechts zeigt die Auswahlkriterien <strong>für</strong> MET.<br />
Frequency [kHz]<br />
183<br />
Hearing Loss [dB HL]<br />
0,125 0,25 0,5 1 1,5 2 3 4 6 8 10<br />
-10<br />
0<br />
10<br />
20<br />
30<br />
40<br />
50<br />
60<br />
70<br />
80<br />
90<br />
100<br />
11 0<br />
Auswahlkriterien <strong>für</strong><br />
Innenohrschwerhörigkeit<br />
(Luftleitungshörschwelle)
Otologics CARINA TM<br />
Das vollimplantierbare Hörsystem CARINA von Fa. Otologics hat<br />
seit 2006 eine CE-Markt Zulassung und wurde bis jetzt weltweit an<br />
450 Patienten implantiert. Dieses System eignet sich <strong>für</strong> die mittel-<br />
bis hochgradige Schallempfindungs- und kombinierten<br />
Schwerhörigkeiten.<br />
Ankopplung am Amboss <strong>für</strong><br />
Innenohrschwerhörigkeiten<br />
Bei diesem System werden alle Teile (Mikrofon, Batterie,<br />
Audioprozessor und der Wandler) implantiert. Die<br />
Programmierung und das Aufladen der Batterie erfolgt transkutan<br />
(über die Haut) wie in Abb. dargestellt. Die Aufladedauer beträgt<br />
etwa 1 Std. <strong>für</strong> je etwa 16 Std. Nutzungszeit.<br />
Auflade-Station des<br />
CARINA-Systems<br />
Die Abb. zeigt die Auswahlkriterien <strong>für</strong> das CARINA.<br />
Auswahlkriterien <strong>für</strong> CARINA<br />
(Luft- und Knochenleitungshörschwelle)<br />
184<br />
Hearing loss [dB HL]<br />
Frequency [kHz]<br />
0.25<br />
0<br />
0.5 1 1.5 2 3 4 6<br />
20<br />
40<br />
60<br />
80<br />
100<br />
Ankopplung am Stapes <strong>für</strong><br />
kombinierte Schwerhörigkeiten<br />
Aufladen von CARINA über<br />
das Gurtsystem
Esteem®<br />
Das Funktionsprinzip des vollimplantierbaren Hörsystems Esteem von Fa. Envoy Medical<br />
basiert auf die Schallaufnahme am Amboß durch einen Piezosensor, welcher nach<br />
entsprechender Signalverarbeitung und Verstärkung durch einen zweiten Piezowandler,<br />
welcher am Stapes implantiert wird, an das Innenohr weitergegeben wird. Allerdings, um<br />
Verzerrungen bzw. Rückkopplungen zu vermeiden, muss die normale Gehörknöchelchenkette<br />
unterbrochen werden. Die Energieversorgung dieses Systems erfolgt über spezielle Batterien,<br />
die sonst bei Herzschrittmachern eingesetzt werden. Die Batterien haben eine Lebensdauer<br />
von ca. 3 Jahren und müssen dann über einen kleinen chirurgischen Eingriff gewechselt<br />
werden.<br />
185
186
Versorgung und Rehabilitation mit technischen Hörhilfen<br />
Jürgen Kießling / Gießen<br />
1. Aufbau und Funktion von Hörgeräten<br />
Unter der Bezeichnung technische Hörhilfen versteht man grundsätzlich sämtliche Formen konventioneller<br />
Hörgeräte und implantierbarer Hörsysteme sowie Zusatzeinrichtungen und Übertragungsanlagen<br />
(FM-Anlagen, Bluetooth), die im Englischen unter dem Begriff Assistive Listening<br />
Devices (ALD) zusammengefasst werden. Da implantierbare Hörsysteme an anderer Stelle abhandelt<br />
werden, beschränkt sich der vorliegende Beitrag auf die Behandlung nichtimplantierbarer<br />
Hörhilfen. Heutige Hörgeräte basieren grundsätzlich auf digitaler Signalverarbeitung.<br />
Das grundlegende Funktionsprinzip von Digitalhörgeräten basiert auf den in Abb. 1 schematisch<br />
dargestellten Komponenten: Schallempfänger (Mikrofon bzw. Induktionsspule), Vorverstärker,<br />
Analog-Digital-Wandler, Signalprozessor mit n Frequenzbändern, Digital-Analog-<br />
Wandler, Nachverstärker und Schallsender (Hörer).<br />
Im normalen Betrieb handelt es sich beim<br />
Schallempfänger um ein Mikrofon, das den<br />
Schall am Hörgeräteeingang aufnimmt und<br />
<strong>für</strong> die weitere Verarbeitung in eine elektrische<br />
Wechselspannung umwandelt. Neben<br />
dem Mikrofon sind zahlreiche Hörgeräte<br />
zusätzlich mit einem Empfänger <strong>für</strong> den<br />
induktiven Betrieb (Induktionsspule, Telefonspule)<br />
ausgestattet, um optional auch<br />
elektromagnetische Wellen aufnehmen zu<br />
können, die z. B. von Induktionsschleifen<br />
oder Telefonhörern abgestrahlt werden.<br />
Über eine weitere Möglichkeit der Signaleinspeisung<br />
verfügen Hörgeräte, die mit<br />
Audioeingang ausgestattet sind. Bei diesen<br />
Geräten kann zum Anschluss externer<br />
Schallquellen, wie Klassenverstärkeranlagen,<br />
Funkanlagen, Radio- oder Fernsehgeräten,<br />
CD- oder MP3-Playern sowie anderer<br />
Zusatzeinrichtungen, das Eingangssignal<br />
direkt als elektrische Spannung über<br />
den Audioeingang ins Hörgerät eingekoppelt<br />
werden. Insbesondere <strong>für</strong> die Versorgung<br />
schwerhöriger Kinder hat sich der<br />
Audioeingang als unverzichtbar erwiesen,<br />
wohingegen er bei der Versorgung Erwachsener<br />
bisher nur begrenzte Bedeutung<br />
erlangt hat.<br />
Band 1<br />
Das Mikrofon (bzw. die Induktionsspule oder der Audioeingang) liefert das elektrische Eingangssignal,<br />
das in den nächsten Schritten verstärkt und mittels Analog-Digital-Wandler <strong>für</strong> die<br />
187<br />
Mikrofon<br />
Band 2<br />
Hörer<br />
(=Miniaturlautsprecher)<br />
Verstärker<br />
Analog-<br />
Digital-<br />
Wandler<br />
Band 3<br />
+ ++<br />
Digital-<br />
Analog-<br />
Wandler<br />
Verstärker<br />
Band 4<br />
Band n<br />
Hörgeräteprogrammierung<br />
mittels Computer<br />
über Interface<br />
Digitaler<br />
Signalprozessor<br />
(DSP)<br />
Abb. 1: Funktionsdiagramm eines mehrkanaligen Hörgerätes mit<br />
digitaler Signalverarbeitung
weitere Verarbeitung digitalisiert wird. Das Digitalsignal wird im Signalprozessor entsprechend<br />
den Bedürfnissen des Nutzers bearbeitet, d.h. verstärkt, komprimiert, gefiltert oder in anderer<br />
Weise modifiziert, wobei auch bei Digitalhörgeräten die Verstärkungsfunktion im Vordergrund<br />
steht. Angesichts der Vielzahl von innenohrschwerhörigen Hörgerätekandidaten mit Recruitment<br />
sind in der Regel nicht-lineare Verstärkungssysteme angezeigt, bei denen das erforderliche<br />
frequenzabhängige Verstärkungs- und Kompressionsverhalten durch Aufteilung des Eingangssignals<br />
in mehrere Frequenzbänder verwirklicht wird. Nach digitaler Verarbeitung wird das Signal<br />
digital-analog gewandelt und nachverstärkt, um den nachfolgenden Wandler zu betreiben.<br />
Bei Luftleitungshörgeräten hat ein Miniaturhörer die Funktion des Schallsenders, der das Ohr<br />
direkt oder über ein Ohrpassstück beschallt. Knochenleitungshörgeräte sind mit Knochenleitungshörern<br />
ausgestattet, die eine vibratorische Anregung des Schädelknochens bewirken und<br />
damit Wanderwellen in der Cochlea direkt auslösen.<br />
Neben den in Abb. 1 beschriebenen Hauptkomponenten benötigen Hörgeräte eine Energiezelle<br />
(Batterie oder Akku) und, sofern es sich nicht um Automatikgeräte handelt, Bedienungselemente<br />
<strong>für</strong> den Hörgeräteträger (Ein-Ausschalter, Programmschalter, Verstärkungsregler). Zudem<br />
verfügen Hörgeräte über eine Kabelanschlussmöglichkeit (Buchse, Adapter <strong>für</strong> Batteriefach) an<br />
das Programmiersystem, mit dem der Akustiker die Hörgerätewiedergabe an die Gehöreigenschaften<br />
des Nutzers individuell anpassen kann. Solche Programmiersysteme bestehen aus<br />
einem hörgerätespezifischen Interface und einem Personal Computer, auf dem die Anpassprogramme<br />
der Hörgeräthersteller installiert sind. Zusammen mit der Softwareplattform NOAH haben<br />
sich universelle kabelgebundene bzw. kabellose Schnittstellen zwischen Hörgerät und<br />
Computer als de facto Industriestandard zur Programmierung von Hörgeräten durchgesetzt, die<br />
von den Hörgeräteherstellern unterstützt werden. Mit dieser universellen Software-Plattform<br />
können Hörgeräte in Verbindung mit herstellerspezifischer Anpasssoftware programmiert und<br />
Messgeräte <strong>für</strong> die Hörgerätanpassung gesteuert werden. Daneben bieten die Hersteller auch<br />
Stand-alone-Versionen ihrer Anpassprogramme an.<br />
2. Signalverarbeitung in Hörgeräten<br />
Die primäre Aufgabe von Hörgeräten besteht darin, den einfallenden Schall, insbesondere Sprache<br />
und andere relevante Schallereignisse, in den Restdynamikbereich des Hörgeräteträgers passend<br />
zu übertragen, so dass in etwa eine lautheitsgerechte Wahrnehmung erfolgen kann: leise Eingangssignale<br />
sollen leise und laute Eingangssignale sollen laut gehört werden. Dazu ist eine individuelle<br />
Frequenz- und Dynamikanpassung erforderlich. Sofern die Restdynamik ausreichend breit<br />
ist, kann die Verstärkung linear erfolgen, d. h. unabhängig vom Eingangspegel liefert das Hörgerät<br />
frequenzspezifisch eine einheitliche Verstärkung. Da die Mehrzahl der Hörgerätekandidaten jedoch<br />
unter Innenohrschwerhörigkeit mit Recruitment, also unter einer eingeengten Restdynamik, leiden,<br />
bedarf es in der Regel nicht-linearer Verstärkungssysteme.<br />
Im Falle von stark frequenzabhängigen Hörstörungen verbunden mit frequenzspezifisch eingeengtem<br />
Restdynamikbereich, gelingt es mit einkanaligen, frequenzunabhängigen Kompressionssystemen<br />
nicht, Sprache adäquat in den Restdynamikbereich zu übertragen. In diesem <strong>für</strong> Hörgeräteversorgungen<br />
typischen Fall sind mehrkanalige Verstärkungs- und Kompressionssysteme notwendig.<br />
Digitalhörgeräte zerlegen das Eingangssignal grundsätzlich in mehrere Frequenzbänder, so<br />
dass frequenzspezifische Verstärkung und Kompression realisiert werden und deren Parameter<br />
individuell an das jeweilige Gehör angepasst werden können. In Abb. 2 ist eine frequenzabhängige<br />
Verstärkungs- und Kompressionswirkung <strong>für</strong> ein 12-kanaliges System dargestellt, mit dem das<br />
Sprachsignal komplett und dynamikgerecht in den Restdynamikbereich verlagert werden kann,<br />
ohne die Unbehaglichkeitsschwelle zu überschreiten.<br />
188
Neben der Möglichkeit der differenzierten Frequenz- und Dynamikanpassung bieten aktuelle<br />
Hörgeräte zusätzliche Funktions- und Ausstattungsmerkmale, die auf komplexer Signalverarbeitung<br />
beruhen. In diesem Bereich der digitalen Signalverarbeitung konnten bei der Bekämpfung<br />
akustischer Rückkopplungen deutliche Fortschritte erzielt werden. Zur Lösung dieses Problems<br />
haben sich Verfahren etabliert, die auf einer Auslöschung der Rückkopplung durch Addition<br />
eines gegenphasigen Signals beruhen. Zu diesem Zweck wird der akustische Rückkopplungspfad<br />
kontinuierlich analysiert, ein zum Rückkopplungssignal gegenphasiges Signal erzeugt und<br />
dem Hörgeräteeingang überlagert, so dass es nach einer kurzen Adaptationszeit zur Auslöschung<br />
der Rückkopplung kommt. Durch die Adaptivität passt sich das System eventuellen Änderungen<br />
des Rückkopplungspfades ständig an, so dass man derzeit eine um 15-20 dB höhere<br />
Verstärkung rückkopplungsfrei erreichen und im täglichen Gebrauch nutzen kann, was der offenen<br />
Versorgung in den letzten Jahren zum Durchbruch verholfen hat.<br />
Ein anderes Problem von großer<br />
praktischer Bedeutung ist<br />
das eingeschränkte Sprachverstehen<br />
im Störgeräusch, speziell<br />
im Stimmengewirr. Auch<br />
diesem Problem kann man mit<br />
modernen Signalverarbeitungsalgorithmen<br />
entgegenwirken.<br />
Der heute gängigste Lösungsansatz<br />
beruht auf der Annahme,<br />
dass es sich beim Nutzsignal<br />
meist um Sprache handelt und<br />
das Nutzsignal damit durch eine<br />
sprachtypische Amplitudenmodulation<br />
gekennzeichnet ist. Zur<br />
Detektion und Reduktion des<br />
Störschalls nutzt man die Aufteilung<br />
des Eingangssignals in<br />
mehrere Frequenzbänder (siehe<br />
Abb. 2), in denen jeweils<br />
Hörverlust in dB HL<br />
eine Modulationsanalyse vorgenommen wird. Findet das System in einem Band eine ausgeprägte<br />
sprachtypische Modulation, ist davon auszugehen, dass in diesem Frequenzband<br />
Sprachanteile in erheblichem Maße auftreten, die erhalten werden müssen. Dementsprechend<br />
erfolgt in diesem Band keine Abschwächung. In den Bändern, in denen dagegen keine oder<br />
keine wesentliche sprachtypische Modulation auftritt, wird abhängig vom Modulationsgrad eine<br />
Abschwächung des Signals vorgenommen. Dann werden die bearbeiteten Teilsignale der einzelnen<br />
Frequenzbänder wieder zusammengeführt und dem Hörgerätenutzer über den Hörer<br />
hörbar gemacht.<br />
Wenn in den einzelnen Frequenzbändern<br />
entweder überwiegend<br />
Sprachanteile oder Störschall auftreten,<br />
funktioniert diese Form der Störschallunterdrückung<br />
gut. Liegt dagegen,<br />
wie es in realen Störschallsituationen<br />
häufig der Fall ist, eine weitgehende<br />
spektrale Überlappung von<br />
0<br />
20<br />
40<br />
60<br />
80<br />
100<br />
120<br />
125 250 500 1k 2k 4k 8k<br />
Band 2<br />
Band 1<br />
Eingangssignal:<br />
Sprache und<br />
Störschall<br />
189<br />
Band 4<br />
Band 3<br />
Frequenz in Hz<br />
Abb. 2: Grundprinzip der Signalverarbeitung in mehrkanaligen Hörgeräten<br />
veranschaulicht anhand eines Tonaudiogramms in Relativdarstellung.<br />
Band 1<br />
Band 2<br />
Band 3<br />
Band 4<br />
Band n<br />
Band 1<br />
Band 2<br />
Band 3<br />
Band 4<br />
Band n<br />
Ausgangssignal<br />
nach Störschallunterdrückung<br />
Abb. 3: Störschallunterdrückung auf der Basis einer Modulationsanalyse: Bänder mit<br />
Sprachmodulation werden verstärkt, Bänder ohne Sprachmodulation abgeschwächt.<br />
Band n<br />
Sprachspektrum<br />
Hörschwelle<br />
Unbehaglichkeitsschwelle<br />
+
Nutz- und Störschall vor, so kann diese Form der Störschallunterdrückung lediglich begrenzte<br />
Wirkung entwickeln, da in den Frequenzbändern des Überlappungsbereichs ein ähnlicher Modulationsgrad<br />
vorliegt, deshalb alle relevanten Bänder in gleichem Umfang abgeschwächt werden<br />
und somit nicht zur Verbesserung des Signal-Störschall-Abstands beitragen können.<br />
Handelt es sich um eine Störschallsituation, bei der der Nutzschall von vorn einfällt, also der<br />
typischen Situation zweier Gesprächspartner im Störschall, kann mit Richtmikrofonen eine signifikante<br />
Verbesserung des Sprachverstehens erreicht werden. Das Grundprinzip moderner<br />
Richtmikrofonhörgeräte basiert auf dem Zusammenwirken zweier Mikrofone, die in ausreichendem<br />
Abstand in Vorn-Hinten-Richtung angeordnet sind und deren Signale voneinander subtrahiert<br />
werden. Dabei wird das Signal des hinteren Mikrofons zeitlich so verzögert, dass es bei der<br />
nachfolgenden Subtraktion der Mikrofonsignale zu einer Auslöschung des rückwärtigen oder<br />
seitlichen Schalls kommt.<br />
Typische Richtmikrofonsysteme verfügen über zwei Einzelmikrofone, die in der beschriebenen<br />
Weise zusammenwirken, doch kann die Richtwirkung durch Mikrofonarrays bestehend aus drei<br />
oder mehr zusammen geschalteten Mikrofonen noch gesteigert werden. Das hier beschriebene<br />
Mikrofonprinzip bietet eine universelle Richtcharakteristik oder durch Wahl einer anderen Zeitverzögerung<br />
die Möglichkeit, die gewünschte Richtung maximaler Störschallunterdrückung<br />
(häufig die Hinten-Richtung) im Rahmen der Hörgeräteanpassung individuell einstellen zu können.<br />
Heutige Richtmikrofonhörgeräte wirken vielfach über diese Form der fest eingestellten<br />
Richtwirkung hinaus und verfügen über eine adaptive Richtwirkung, die sich automatisch auf die<br />
Unterdrückung der Hauptstörschallquelle einstellt.<br />
Basierend auf den hier behandelten Formen der Signalverarbeitung (Verstärkung, Dynamikompression,<br />
Rückkopplungsunterdrückung, Störschallunterdrückung, Richtwirkung) kann ein<br />
Set von Grundeinstellungen <strong>für</strong> typische, immer wiederkehrende Hörsituationen wie z. B. Sprache<br />
in Ruhe, Sprache im Störschall, Störschall allein, Musik, Telefonieren etc., definiert und im<br />
Hörgerät programmiert werden. Diese so genannten Hörprogramme können zudem entsprechend<br />
den persönlichen Wünschen und Bedürfnissen des Hörgerätenutzers optimiert, auf verschiedenen<br />
Programmplätzen des Hörgerätes abgelegt und situationsbedingt vom Nutzer angewählt<br />
werden. In dieser Form können typischerweise zwei bis vier Hörprogramme zur Verfügung<br />
gestellt werden. Die Programmwahl erfolgt entweder mit Hilfe eines Tippschalters am Gerät,<br />
mit dem die einzelnen Programme zyklisch durchgeschaltet werden können, oder mit Hilfe<br />
einer Fernbedienung. Wird in ein anderes Hörprogramm umgeschaltet, bestätigt das Hörgerät<br />
die Umschaltung mit einer akustischen Programmkennung (Tonfolge, Sprachansage), die<br />
wahlweise deaktiviert und bei manchen Produkten auch individualisiert werden kann.<br />
Die praktische Erfahrung mit Multiprogramm-Hörgeräten zeigt, dass zahlreiche Hörgerätenutzer<br />
ihre Hörprogramme häufig nicht entsprechend ihrer Bestimmung nutzen. So zeigen Studien mit<br />
Datalogging-Hörgeräten (siehe unten), dass das Basisprogramm, das beim Einschalten der<br />
Hörgeräte aktiviert wird, zu 70-80 % der Nutzungsdauer beibehalten wird, auch in Situationen in<br />
denen andere Hörprogramme zweckmäßiger gewesen wären. Deshalb bieten die Hörgerätehersteller<br />
zunehmend die Möglichkeit der automatischen Programmeinstellung auf der Basis<br />
einer Situationserkennung und -klassifizierung (akustische Szenenanalyse) an. Dazu führt das<br />
Hörgerät eine kontinuierliche Analyse des Umgebungsschalls durch und bewertet eine Reihe<br />
von Schallfeldparametern (Pegel, Frequenz, Modulation, zeitliche Veränderungen, Links-<br />
Rechts-Vergleich etc.). Auf dieser Grundlage erfolgt eine Klassifikation der jeweiligen Hörsituation<br />
und nachfolgend die Einstellung des zugeordneten Hörprogramms. Neben Hörgeräten mit<br />
Festprogrammautomatik gibt es solche, die eine situationsbedingte Optimierung einzelner Ein-<br />
190
stellparameter vornehmen, also nicht auf einem vorgegebenen Satz von Einstellungen beruhen.<br />
Zahlreiche Hörgerätetypen bieten die Möglichkeit, das Nutzungsverhalten der Geräte intern aufzuzeichnen<br />
und zu speichern (Datalogging). In diesen Fällen kann der Hörgeräteakustiker beim<br />
nächsten Besuch des Kunden z. B. auslesen, wie lange die einzelnen Hörprogramme in welchen<br />
Hörsituationen genutzt worden sind, wie oft manuelle Aktionen (Ein-Ausschalten, Programmwahl)<br />
durchgeführt wurden und in welchem Umfang die Verstärkung nachgeregelt wurde.<br />
Diese Information kann der Akustiker in zweierlei Hinsicht zur Optimierung der Versorgung nutzen:<br />
Zum einen kann er den Hörgeräteträger gezielt beraten und nachschulen, wenn erkennbar<br />
ist, dass die Hörgeräte nicht adäquat genutzt worden sind. Ferner kann eine gezielte Nachanpassung<br />
durchgeführt werden, wenn die aufgezeichneten Daten zeigen, dass der Hörgerätenutzer<br />
systematische Abweichungen von der vorgewählten Einstellung vornimmt.<br />
Daneben sind auch so genannte selbstlernende Hörgeräte auf dem Markt, die auf der Grundlage<br />
des Nutzungsverhaltens automatische Korrekturen der Hörgeräteeinstellung vornehmen.<br />
Korrigiert der Hörgeräteträger die eingestellte Verstärkung oder den Klang nach jedem Einschalten<br />
immer wieder tendenziell in die gleiche Richtung, so regelt ein selbstlernendes System<br />
die Verstärkungseinstellung oder den Klang langsam über mehrere Tage nach bis die Einstellung<br />
auf den gewünschten Wert konvergiert ist. Dieser Lernprozess erfolgt separat in jedem<br />
Hörprogramm, so dass eine programmspezifische Optimierung möglich ist.<br />
3. Hörgerätebauformen<br />
3.1 HdO-Hörgeräte<br />
Die am stärksten verbreitete Bauform sind die so genannten Hinter-dem-Ohr-Hörgeräte (HdO),<br />
deren Marktanteil in Deutschland bei etwa 90 % liegt. Bei HdO-Geräten ist die Schalleintrittsöffnung<br />
des Mikrofons an der Gehäuseoberseite platziert, um einen möglichst ungehinderten<br />
Schalleinfall zu ermöglichen. Sofern das Gerät über eine zuschaltbare Richtcharakteristik verfügt,<br />
sind mehrere Mikrofonöffnungen vorhanden. Bei klassischen HdO-Geräten ist der Hörer im<br />
Gehäuse integriert und der Schall wird über einen Hörgerätewinkel, einen Schallschlauch und<br />
eine individuell gefertigte (Abb. 4, links) oder universelle (Abb. 4, Mitte) Otoplastik in den äußeren<br />
Gehörgang des Hörgeräteträgers geleitet.<br />
Ferner ist der<br />
Signalprozessor im<br />
HdO-Gehäuse<br />
untergebracht und<br />
kann über ein<br />
Programmierinterface<br />
mit einem Computer<br />
verbunden und<br />
programmiert werden<br />
(siehe Abb. 1). Die<br />
Batterie ist in der<br />
Abb. 4: Hinter-dem Ohr-Hörgeräte mit individueller Otoplastik (links, transparent zur Darstellung der<br />
Komponenten), offenem Standardohrstück (Mitte) und ausgelagertem Hörer im Gehörgang (rechts).<br />
Regel im unteren Teil des Gehäuses platziert, während die Bedienungselemente (Lautstärkesteller,<br />
ggf. Programmwahlschalter) auf der Gehäuseoberseite angeordnet sind. Optional kann<br />
die Bedienung auch mittels Fernbedienung erfolgen. Automatikgeräte kommen ohne mechanische<br />
Bedienungselemente aus.<br />
Für die Wiedergabeeigenschaften von HdO-Hörgeräten ist die akustische Ankopplung, bestehend<br />
aus Hörgerätewinkel, Schallschlauch, Otoplastik und Gehörgangsrestvolumen, von be-<br />
191
sonderer Bedeutung. So kann die Hörgerätewiedergabe durch gezielte Modifikationen am akustischen<br />
System (Dimensionierung, Dämpfungselemente, Zusatzbohrungen, Resonanzräume)<br />
an die Bedürfnisse des Nutzers angepasst werden. Die wichtigsten und wirkungsvollsten Möglichkeiten,<br />
die Wiedergabekurve in definierter Weise zu modifizieren, bieten Zusatzbohrungen<br />
(Vents) in der Otoplastik und total offene Versorgungen. Bei Zusatzbohrungen handelt es sich<br />
um Bohrungen, meist parallel zum Schallkanal, die das Gehörgangsrestvolumen nach außen<br />
eröffnen, so dass Schallkanal, Residualvolumen und Zusatzbohrung gemeinsam einen Hohlraumresonator<br />
bilden. Zusatzbohrungen stellen einen akustischen Tiefpass dar, der <strong>für</strong> niedrige<br />
Frequenzen durchlässig und <strong>für</strong> hohe Frequenzen weitgehend undurchlässig ist. So fließen<br />
tieffrequente Schallanteile aus dem Gehörgangsrestvolumen nach außen ab, was zu einer Absenkung<br />
der Wiedergabekurve im Frequenzbereich unterhalb 1000 Hz führt.<br />
Heute kann die Anpassung von Hörgeräten in vielen Fällen mit offenem Gehörgang erfolgen.<br />
Durch die Verwendung offener Ohrpassstücke wird das Auftreten des Okklusionseffekts (Verschlusseffekt)<br />
vermieden, der sich primär durch Unnatürlichkeit der eigenen Stimme äußert,<br />
was wiederum häufig zu Akzeptanzproblemen mit den Hörgeräten führt. Grund da<strong>für</strong> ist die Tatsache,<br />
dass der Schall der eigenen Stimme sowohl auf dem Luftleitungsweg über den äußeren<br />
Gehörgang als auch körpergeleitet über die Gehörgangswand ans eigene Ohr gelangt. Im unversorgten<br />
Fall fließt ein Teil des körpergeleiteten Schalls nach außen ab und der so entstehende<br />
Klangeindruck wird als natürlich empfunden. Wird dagegen ein Hörgerät mit geschlosser<br />
Otoplastik angepasst, so fängt sich der körpergeleitete Schallanteil im Gehörgang, weil ein<br />
Schallabfluss nicht möglich ist.<br />
Möglich wurden offenen Versorgung durch Fortschritte in der Signalverarbeitung. Effiziente<br />
Rückkopplungsunterdrückungssysteme (siehe 2.) erlauben bei offener Versorgung 15-20 dB<br />
höhere Verstärkung. Daneben hat die schnelle Signalverarbeitung in modernen Hörgeräten dazu<br />
beigetragen, dass die zeitliche Verzögerung des im Hörgerät verarbeiteten Schalls gegenüber<br />
dem Direktschall durch das Vent so gering geworden ist (< 5 ms), dass sie vom Hörgeräteträger<br />
nicht mehr störend wahrgenommen wird. So konnten sich zwei neue Produktgruppen<br />
etablieren, nämlich HdO-Geräte mit:<br />
• dünnem Schallschlauch und offenem Silikon-Standardohrstück (Abb. 4, Mitte) bzw.<br />
• ausgelagertem Hörer im Gehörgang (RIC: Receiver-in-Canal; Abb. 4, rechts).<br />
Geräte mit dünnem Schallschlauch (Mikroschallschlauch) und offenem Silikon-<br />
Standardohrstück zeichnen sich durch Unauffälligkeit und hohen Tragekomfort aus. Der wesentliche<br />
Vorzug dieser Kopplungssysteme besteht aber darin, dass sie bezüglich der Okklusionswirkung<br />
dem offenen Gehörgang sehr nahe kommen. Diesen Vorzügen stehen nur unbedeutende<br />
Nachteile gegenüber. So bieten Silikon-Standardohrstücke nicht immer einen sicheren<br />
Sitz im Gehörgang. In diesen Fällen können Mikroschlauchsysteme auch mit individuell gefertigten,<br />
offenen Otoplastiken ausgestattet werden. Ferner muss bei Mikroschlauchsystemen beachtet<br />
werden, dass der Schallschlauch mit abnehmendem Durchmesser eine zunehmende Höhenabsenkung<br />
verursacht, die durch entsprechende Verstärkungsanhebung kompensiert werden<br />
muss.<br />
Bei HdO-Geräten mit externem Hörer entfällt der Schallschlauch und so werden störende<br />
Schlaucheffekte, wie Tiefpasswirkung und Resonanzspitzen vermieden. Durch die Auslagerung<br />
des Hörers können die Geräte noch kleiner gestaltet werden. Die offene Anpassung erfolgt bei<br />
den Ex-Hörersystemen mit ähnlichen Standardohrstücken wie sie <strong>für</strong> Mikroschlauchsysteme<br />
üblich sind. Auch Systeme mit externem Hörer können mit offenen Maßotoplastiken angepasst<br />
werden, um eine bessere Fixierung im Gehörgang zu erreichen. Da der Hörer im Gehörgang<br />
192
Zerumen- und Feuchtigkeitseinflüssen direkt ausgesetzt ist, muss die Hörer-Kabeleinheit bei<br />
Defekten leicht austauschbar sein. Daneben haben Ex-Hörersysteme tendenziell den Nachteil,<br />
nicht ganz so offen angepasst werden zu können wie Mikroschlauchsysteme, da der Hörer einen<br />
Teil des Gehörgangsquerschnitts verlegt und damit den Grad der Offenheit reduziert.<br />
3.2 Andere Hörgerätebauformen<br />
Im-Ohr-Hörgeräte (IO-Geräte), die in Deutschland derzeit einen Marktanteil von etwa 10 % haben,<br />
werden meist als Gehörgangsgeräte ausgeführt (Abb. 5; Mitte und rechts). Nur noch selten<br />
kommen größere Bauformen, die die Concha in Teilen ausfüllen (Abb. 5, links), zum Einsatz.<br />
Die akustischen Vorteile von IO-Geräten beruhen vornehmlich auf der Platzierung des Mikrofons<br />
am Gehörgangseintritt, also der Schallaufnahme am natürlichen Ort, und darauf, dass der<br />
Schallschlauch mit den oben genannten Nachteilen entfällt.<br />
Negativ wirkt sich<br />
bei IO-Geräten aus,<br />
dass komplett offene<br />
Anpassungen<br />
nicht möglich sind,<br />
da die Hörgerätetechnik<br />
auch bei<br />
extrem kleiner Bauform<br />
den Gehörgangsquerschnitt<br />
zu<br />
großen Teilen ausfüllt.<br />
Doch können<br />
abhängig von den<br />
Abb. 5: Im-Ohr-Hörgeräte-Bauformen: Conchagerät (links), Gehörgangsgerät (Mitte), Gehörgangsgerät<br />
mit speziellem Vent zur Reduktion des Okklusionseffekts (rechts).<br />
Gehörgangsdimensionen auch mit Im-Ohr-Hörgeräten tendenziell offenere Versorgungen realisiert<br />
werden, um den Okklusionseffekt zu reduzieren. Das geling mit möglichst großen und kurzen<br />
Vents (Abb. 5, rechts), da die akustische Masse des Vents <strong>für</strong> das Ausmaß des Okklusionseffekts<br />
maßgeblich ist. Wenn der Gehörgang <strong>für</strong> derartige Lösungen nicht genügend groß ist,<br />
kann man auf IO-Varianten ausweichen, bei denen entweder das Mikrofon in die Cymba ausgelagert<br />
wird, oder das eigentliche Hörgerät in der Cymba platziert ist und über ein Kabel mit externem<br />
Hörer im Gehörgang verbunden ist, um den Gehörgang möglichst offen zu halten.<br />
Luftleitungshörbrillen stellen de facto keine separate Form der Versorgung dar, sondern verkörpern<br />
HdO-Technologie, die in einem Brillenbügel an Stelle eines HdO-Gehäuses integriert ist.<br />
Das kann durch Anbringung von HdO-Geräten mittels Adapter an eine Brille erfolgen, was nur<br />
noch sehr selten zum Einsatz kommt. Daneben werden eigens gefertigte Hörbrillenbügel angeboten,<br />
die herstellerseitig alle Hörgerätekomponenten enthalten und an nahezu jede Brille angebracht<br />
werden können.<br />
In Fällen von Schallleitungsstörungen, bei denen eine Gehör verbessernde Operation nicht indiziert<br />
oder nicht gewünscht ist, können Knochenleitungshörhilfen in Erwägung gezogen werden.<br />
In ihrer herkömmlichen Form werden Knochenleitungshörgeräte als beidseitige Hörbrille ausgeführt,<br />
bei der beide Brillenbügel mit Knochenleitungshörern ausgestattet sind. Bei Kleinkindern,<br />
<strong>für</strong> die eine Brillenlösung noch nicht in Frage kommt, kann die Knochenleitungsversorgung vorübergehend<br />
auch mit Hilfe eines Kopfbügels erfolgen. Ein Vorzug von Knochenleitungsversorgungen<br />
ist der unverschlossene Gehörgang, der eine gute Belüftung des Gehörgangs sicherstellt,<br />
die aber auch mit offener Luftleitungsversorgung erreicht werden kann. Ein kosmetischer<br />
Vorzug ergibt sich daraus, dass es bei Knochenleitungsbrillen keines Schallschlauchs bedarf.<br />
193
Dem steht der erforderliche Andruck der Knochenleitungshörer bzw. des Brillenbügels gegenüber,<br />
der gelegentlich Kopfschmerz verursacht und in manchen Fällen zur Knochenresorption<br />
führen kann. Auch reicht die Verstärkungsleistung von Knochenleitungshörbrillen oft nicht aus.<br />
194
4. Hörgeräteanpassung und -kontrolle<br />
4.1 Hörgeräteanpassung<br />
Am Beginn einer Hörgeräteanpassung muss die Erfassung des persönlichen Bedarfsprofils stehen.<br />
Das persönliche Bedarfsprofil zielt darauf ab, die Nutzungsgewohnheiten, den Anspruch<br />
und die Erwartungen zu ermitteln, die der Nutzer an seine Hörgeräte richtet. Auf dieser Grundlage<br />
können die Ausstattungsmerkmale der Hörgeräte entsprechend dem persönlichen Bedarf<br />
ausgewählt und angepasst werden. Die Erhebung des Bedarfsprofils kann informal im Rahmen<br />
eines Beratungsgesprächs erfolgen, aber grundsätzlich ist zum Abschluss der informalen Beratung<br />
eine strukturierte Befragung anhand eines Fragebogens zweckmäßig. Das in diesem Kontext<br />
wohl am häufigsten eingesetzte Befragungsinstrument ist der so genannte COSI-<br />
Fragebogen (Client Oriented Scale of Improvement), mit dem in dieser Phase zunächst die <strong>für</strong><br />
den Nutzer wichtigsten Kommunikations- bzw. Hörsituationen erfasst werden. Mit strukturierten<br />
Befragungsinstrumenten dieser Art kann das Bedarfsprofil eindeutig festgehalten, im Verlauf der<br />
Anpassung als Referenz heran gezogen und mit dem Hörgerätenutzer immer wieder besprochen<br />
und mit den persönlichen Zielen abgeglichen werden.<br />
Neben der Erfassung von grundsätzlichen Zielen und Wünschen müssen die persönlichen Präferenzen<br />
<strong>für</strong> bestimmte Ausstattungsmerkmale und die Nutzungsgewohnheiten besprochen<br />
werden soweit sie <strong>für</strong> die Typenauswahl relevant sind, so z. B. Kostenaspekte (Anschaffung,<br />
Betrieb, Service), Bedienbarkeit, Bauform (Funktionalität, Sichtbarkeit), Stellmöglichkeiten (Verstärkung,<br />
Hörprogramme, Klang), Automatikfunktionen (Verstärkungsregelung, Situationserkennung),<br />
Fernbedienung, Anschlussmöglichkeiten von Zusatzgeräten (FM, Telefon, TV, HiFi<br />
usw.).<br />
An die Erfassung des Bedarfsprofils schließt sich eine Basisanpassung der Hörgeräte an. Wie<br />
bereits an anderer Stelle dargelegt, ist die Wiederherstellung der Hörbarkeit das primäre Ziel<br />
der gängigen Anpassformeln und -prozeduren, die im Rahmen der Basisanpassung verwendet<br />
werden. Damit basiert die Hörgeräteanpassung grundsätzlich auf einem modifizierten Lautheits-<br />
Mapping. Trotzdem haben sich lautheitsgestützte Anpassprozeduren <strong>für</strong> die Basisanpassung<br />
nicht durchgesetzt sondern hörschwellenbasierte Formeln, da diese schnell und unkompliziert<br />
angewendet werden können. Die schwellenbasierten Verfahren zur Bestimmung des frequenzbezogenen<br />
Verstärkungsbedarfs gehen von einem funktionalen Zusammenhang zwischen der<br />
Hörschwelle und dem Bereich angenehmen Hörens (MCL: Most Comfortable Level) aus. Auf<br />
dieser Grundlage wurden verschiedene generische, schwellenbasierte Anpassformeln <strong>für</strong> nichtlineare<br />
Hörgeräte entwickelt (NAL-NL, DSL [i/o]). Diese Anpassformeln liefern Zielfrequenzgänge<br />
<strong>für</strong> niedrige, mittlere und hohe Eingangspegel und ggf. den maximal zulässigen Ausgangsschalldruckpegel<br />
(MPO: Maximum Power Output). Die aktuellen Versionen dieser Anpassformeln<br />
(NAL-NL-2 und DSLm [i/o] v5) erlauben eine stärker personalisierte Form der Anpassung<br />
(z. B. Alter, Geschlecht, Erfahrung mit Hörgeräten) als die Formeln der ersten Generation.<br />
Um der persönlichen Hörpräferenz gerecht zu werden, die im Einzelfall entweder klang- oder<br />
verständlichkeitsorientiert sein kann, bedarf es einer auf der Basisanpassung aufsetzenden<br />
Feinanpassung. Auf der Grundlage der Präferenzen des Hörgerätenutzers kann die Feinanpassung<br />
der Hörgeräteparameter entweder informal auf der Basis von Erfahrungswerten erfolgen<br />
oder mit Hilfe so genannter Anpassmanager (Anpassassistent), wie sie in kommerzieller Anpasssoftware<br />
angeboten werden. Daneben ist eine Reihe von generischen, also produktunabhängigen<br />
Verfahren zur interaktiv-adaptiven Feinanpassung von Hörgeräten entwickelt worden.<br />
Um im Rahmen der Feinanpassung auf die situationsspezifischen Bedürfnisse des Hörgerätenutzers<br />
individuell eingehen zu können, kann die Feinanpassung in virtuellen akustischen Situa-<br />
195
tionen durchgeführt werden. Im einfachsten Fall werden dazu Schallbeispiele mit einem Lautsprecher,<br />
stereophon oder in Surroundtechnik abgespielt, um <strong>für</strong> den Nutzer wichtige Hörsituationen<br />
im Anpassraum zu simulieren. Durch das zusätzliche Angebot von visueller Information<br />
in Form von Videosequenzen kann eine noch realitätsnähere Situation erreicht werden.<br />
Da sich die meisten Hörstörungen schleichend entwickeln und bei den Betroffenen zudem die<br />
Neigung besteht, die Hörgeräteversorgungen möglichst lange hinauszuzögern, ist das Gehör<br />
zum Zeitpunkt der Versorgung in starkem Maße vom normalen Hören entwöhnt. Deshalb ist es<br />
meist nicht sinnvoll, von Anfang an eine komplette Kompensation der Hörstörung anzustreben,<br />
da dies von vielen Hörgeräteträgern nicht toleriert wird. So wird zunächst eine reduzierte Gesamtverstärkung,<br />
und im Falle typischer Hochtonhörverluste eventuell eine überproportionale<br />
Absenkung der Höhenwiedergabe, eingestellt, um eine gute Spontanakzeptanz und ein möglichst<br />
regelmäßiges Trageverhalten zu erreichen. Aufbauend darauf wird in den ersten Wochen<br />
und Monaten die Verstärkung schrittweise erhöht, um den Hörgeräteträger an die bestmögliche<br />
Hörgeräteeinstellung heran zuführen. Diesen Prozess bezeichnet man als gleitende Anpassung,<br />
der <strong>für</strong> Erstversorgungen unverzichtbar ist, aber auch bei Wiederversorgungen eine Rolle spielen<br />
kann, wenn der Klang der neuen Hörgeräte vom Nutzer nicht sofort akzeptiert wird. Wenn<br />
im Einzelfall erforderlich, sollte die gleitende Anpassung durch Audiotherapie ergänzt werden,<br />
um das Hören- und Verstehenlernen mit Hörgeräten systematisch zu fördern. In Deutschland ist<br />
die Audiotherapie noch nicht flächendeckend verfügbar, aber das audiotherapeutische Angebot<br />
wird ständig ausgeweitet, so dass man zunehmend darauf zurückgreifen kann.<br />
Die praktische Umsetzung<br />
der beschriebenen Anpassungs-<br />
und Feinanpassungsschritte<br />
erfolgt durch<br />
Programmierung der Hörgeräte<br />
mit Hilfe der Anpasssoftware<br />
des betreffenden<br />
Hörgeräteherstellers (Abb.<br />
6). In der Regel wird die herstellerspezifische<br />
Software<br />
über die NOAH-Plattform<br />
gestartet, über die auch alle<br />
gängigen Audiometer und<br />
Hörgerätemesssysteme in<br />
die Anpassumgebung eingebunden<br />
werden können.<br />
Von dort aus kann auf alle<br />
Kundendaten zugegriffen<br />
werden kann, die in vorher- Abb. 6: Programmieroberfläche zur Feinanpassung eines mehrkanaligen Hörgerätes.<br />
gehenden Sitzungen gesammelt und gespeichert wurden (Audiogramme, Messungen, Hörgeräteeinstellungen).<br />
Aufbau der Anpasssoftware und Gestaltung der Bedienungsoberfläche sind<br />
von Hersteller zu Hersteller unterschiedlich, doch gliedert sich die Anpasssoftware typischer<br />
Weise in drei Arbeitsphasen (Voreinstellung, Basisanpassung und Feinanpassung), die vom<br />
Hörgeräteakustiker sequenziell abgearbeitet werden.<br />
4.2 Hörgerätekontrolle<br />
Ein wichtiges Element im Rahmen der Hörgeräteversorgung stellt die Hörgerätekontrolle im<br />
Sinne der Erfassung der Hörgerätewirkung dar. Wichtig ist die Hörgerätekontrolle zunächst <strong>für</strong><br />
196
den Hörgeräteakustiker, der wissen möchte, ob sich die Hörgeräte wie gewünscht verhalten.<br />
Ferner ist die Quantifizierung des Versorgungserfolgs von großer Bedeutung <strong>für</strong> den Hörgeräteakustiker,<br />
den Nutzer und den Kostenträger, die sich vom Nutzen der Hörgeräteversorgung überzeugen<br />
möchten.<br />
Zum besseren Verständnis ordnet man die Verfahren der Hörgerätekontrolle am besten synoptisch<br />
entsprechend ihres Ansatzpunktes entlang des Signalwegs bzw. des aufsteigenden auditorischen<br />
Systems:<br />
• Messung des Frequenzgangs am Ohrsimulator (oder Kuppler)<br />
• Messung des Frequenzgangs mittels Sondenmikrofon am Ohr des Nutzers<br />
• Hörschwellenbestimmung mit angepasstem Hörgerät (meist nur bei Kindern)<br />
• Lautheitsskalierung mit angepassten Hörgeräten<br />
• Sprachverständlichkeitsmessungen mit angepassten Hörgeräten<br />
• Frageninventare und Hörtagebücher zu Akzeptanz, Zufriedenheit und Performance.<br />
Die Messung des<br />
Hörgerätefrequenzgangs<br />
am Ohrsimulator<br />
(Messmikrofon<br />
in einer Kavität zur<br />
Simulation des Gehörgangs)<br />
oder mittels<br />
Sondenmikrofon<br />
am Ohr des Hörgeräteträgers<br />
(Abb. 7)<br />
und der Vergleich<br />
mit den Zielfrequenzgängen<br />
(siehe<br />
4.1) dient zunächst<br />
der Verifikation der<br />
erwarten Wirkung<br />
des Hörgeräts. Das<br />
gleiche gilt <strong>für</strong> die im<br />
peripheren Teil des<br />
auditorischen Systems<br />
ansetzenden<br />
Verstärkung in dB<br />
50<br />
40<br />
30<br />
20<br />
10<br />
0<br />
Messung mit<br />
Hörgerät:<br />
Real Ear Aided Gain<br />
(REAG)<br />
Verfahren (Hörschwellenbestimmung, Lautheitsskalierung). Mit der Verifikation können Defizite<br />
gegenüber dem beabsichtigten Verstärkungs- und Kompressionsverhalten frequenzbezogen<br />
aufgedeckt und korrigiert werden.<br />
Aussagen über die Qualität der Versorgung sind auf dieser Ebene noch nicht möglich. Das ist<br />
Gegenstand der Validierung, die sich an die Verifikation anschließt. Validierungsverfahren, wie<br />
z. B. Sprachaudiometrie in Ruhe und im Störschall, Bewertung von Klangqualität und Höranstrengung,<br />
ermöglichen in der Anpassumgebung eine Über-Alles-Kontrolle (Hörgerät, akustische<br />
Kopplung, auditorische Verarbeitung und Wahrnehmung) und geben Hinweise auf den zu<br />
erwartenden Hörgerätenutzen im Alltag. Von noch höherem Wert ist die Validierung des Hörgerätenutzens<br />
im täglichen Leben auf der Basis informaler oder formaler Befragung (Fragebögen,<br />
Hörtagtagebuch) des Hörgeräteträgers und nahe stehender Personen (Partner, Familie). Sofern<br />
die Hörgerätekontrolle Mängel erkennen lässt, ist eine weitere Feinanpassung und gleitende<br />
Nachanpassung zur Steigerung des Hörgerätenutzens erforderlich. Dabei ist ein begleitendes<br />
197<br />
Messung ohne<br />
Hörgerät:<br />
minus Real Ear Unaided Gain gleich<br />
(REUG)<br />
50<br />
50<br />
40<br />
30<br />
0<br />
0,25 0,5 1 2 4 8<br />
0,25 0,5 1 2 4 8<br />
Frequenz in kHz<br />
Frequenz in kHz<br />
20<br />
10<br />
40<br />
30<br />
20<br />
10<br />
0<br />
0,25<br />
Wirksame akustische<br />
Verstärkung =<br />
Real Ear Insertion Gain<br />
(REIG)<br />
0,5 1 2 4 8<br />
Frequenz in kHz<br />
Abb. 7: Sondenmikrofonmessung (Insitu-Messung) des Frequenzgangs der wirksamen akustischen<br />
Verstärkung (REIG: Real Ear Insertion Gain): REAG (links) – REUG (Mitte) = REIG (rechts).<br />
Oben ist jeweils die Messsituation, unten der gemessene bzw. berechnete Frequenzgang dargestellt.
Monitoring der Feinanpassung mit Hilfe der Sondenmikrofonmessung zweckmäßig. Ergänzende<br />
Informationen liefert eine Darstellung der Sprachdynamik (Pegelhäufigkeitsstatistik) am Ausgang<br />
des Hörgerätes in Relation zur Hör- und zur Unbehaglichkeitsschwelle (Abb. 8).<br />
Ausgangspegel (dB)<br />
120<br />
100<br />
80<br />
60<br />
40<br />
20<br />
Hörgeräteeingang Hörgeräteausgang<br />
0<br />
0,125 0,250 500 1 2 4 8<br />
Frequenz (kHz)<br />
5. Hörgeräteindikation und Ablauf der Hörgeräteversorgung<br />
Die Indikationskriterien gründen sich in erster Linie auf den tonaudiometrischen Hörverlust und<br />
das Einsilberverstehen ohne Hörgeräte und sind in den Hilfsmittel-Richtlinien niedergelegt<br />
(http://www.g-ba.de/downloads/62-492-66/RL-Hilfsmittel-2004-10-19.pdf). Unter tonaudiometrischem<br />
Aspekt ist eine Versorgung mit Hörgeräten möglich, wenn in mindestens einer der Prüffrequenzen<br />
im Frequenzbereich 500 - 3000 Hz der Hörverlust 30 dB übersteigt. Sofern ein<br />
Sprachtest möglich ist, muss sich die Hörgeräteindikation auch an der Sprachverständlichkeit<br />
ohne Hörgerät orientieren. Entsprechend den Hilfsmittel-Richtlinien ist das sprachaudiometrische<br />
Grenzkriterium überschritten, wenn Einsilber des Freiburger Tests über Kopfhörer bei 65<br />
dB zu 80 % oder weniger verstanden werden. Neben den audiometrischen Kriterien ist es natürlich<br />
erforderlich, dass Hörgeräte vom Nutzer akzeptiert werden und bedient werden können.<br />
Im deutschsprachigen Raum erfolgt die Hörgeräteversorgung in der Regel im Zusammenwirken<br />
von Hals-Nasen-Ohrenärzten und Hörgeräteakustikern. Dieses duale Versorgungsmodell auf<br />
der Basis der klassischen Aufgabenteilung zwischen beiden Berufsgruppen ist <strong>für</strong> Deutschland<br />
in der AWMF-Leitlinie „Hörgeräteversorgung“ Nr. 017/065 (www.uni-duesseldorf.de/AWMF/llna/017-065.htm)<br />
festgelegt. Im dualen Versorgungsmodell liegen die Indikationsstellung Verordnung<br />
von Hörgeräten in Händen des HNO-Arztes. Im Anschluss daran nimmt der Hörgeräteakustiker<br />
die Anpassung der Hörgeräte in mehreren Sitzungen vor (Hörgewöhnung). Neben der<br />
individuellen Anpassung der Hörgeräte an die Hörstörung gehören die Einweisung des Hörgeräteträgers<br />
in die Benutzung der Geräte, Nachbetreuung, Beratung bezüglich zusätzlicher Kommunikationshilfen,<br />
Service- und Reparaturleistungen zu den Aufgaben des Hörgeräteakustikers.<br />
Im Falle einer kassenärztlichen Versorgung überzeugt sich der verordnende HNO-Arzt nach<br />
Abschluss der Hörgeräteanpassung davon, dass mit den angepassten Hörgeräten eine ausreichende<br />
Verbesserung des Kommunikationsvermögens erzielt wird und die Hörhilfen zweckmäßig<br />
sind. Die HNO-ärztliche Abschlussuntersuchung stützt sich auf die sprachaudiometrische<br />
198<br />
0,125 0,250 500 1 2 4 8<br />
Frequenz (kHz)<br />
Abb. 8: Pegelhäufigkeitsstatistik am Hörgeräteeingang (links) und am Hörgeräteausgang (rechts) <strong>für</strong> ein<br />
Sprachsignal mit Eingangspegel von 65 dB. Dargestellt sind die Perzentilgrenzen <strong>für</strong> das 30%-, 65%- und<br />
99%-Perzentil in Relation zur Hör- und zur Unbehaglichkeitsschwelle in Absolutdarstellung (links Norm; rechts<br />
Fallbeispiel).
Untersuchung mit Hörgeräten sowie auf den persönlichen Eindruck des Arztes vom Versorgungserfolg<br />
und der Fähigkeit des Patienten, die Hörgeräte zu handhaben.<br />
199
200
Numerische Akustik<br />
Ennes Sarradj, <strong>Gesellschaft</strong> <strong>für</strong> Akustikforschung Dresden mbH<br />
1 Einleitung<br />
Akustischen Messungen und Berechnungen sind mittlerweile in vielen Fällen nicht ohne Einsatz<br />
eines Computers vorstellbar. Aus diesem Grund existiert eine Vielzahl so genannter numerischer<br />
Verfahren, von denen im folgenden ein kleine Auswahl vorgestellt werden soll. Die Darstellung<br />
bleibt dabei auf Verfahren zur Berechnung von Schallfeldern beschränkt. Bild 1 zeigt die verallgemeinerte<br />
Aufgabenstellung <strong>für</strong> diesen Fall. In einem Gebiet, das auch unbeschränkt ausgedehnt<br />
sein kann, lasse sich die Physik der Schallausbreitung durch eine Differentialgleichung und durch<br />
Randbedingungen beschreiben (Bsp. siehe Bild 1). Aufgabe der Berechnung des Schallfeldes ist<br />
es, eine Funktion f zu finden, die sowohl die Differentialgleichung erfüllt als auch den Randbedingungen<br />
genügt (Randwertproblem). Zur Lösung lassen sich prinzipiell folgende zwei Wege<br />
gehen:<br />
analytisch: exakte Lösung des Randwertproblems:<br />
• nur möglich, wenn der Typ der Funktion f bekannt ist (z.B. bei einfachen Geometrien<br />
wie Rechteck und Kreis)<br />
• <strong>für</strong> praktische Anwendungen meist nicht möglich<br />
numerisch: näherungsweise Lösung des Randwertproblems:<br />
• Überführung analytischer Ausdrücke und Zusammenhänge (Ableitungen, Integrale,<br />
Differentialgleichungen, . . . ) in algebraische (Addition, Multiplikation, Gleichungen,<br />
. . . )<br />
• Lösung algebraischer Gleichungen führt auf Näherungslösung <strong>für</strong> gesuchte Funktion<br />
f<br />
Die Näherungslösung <strong>für</strong> f wird dabei durch einzelne Funktionswerte gegeben, die an Stützstellen<br />
(Knoten) berechnet werden. Alle Knoten zusammen bilden ein Gitter, mit dem das gesamte<br />
Gebiet bzw. nur ein bestimmter Teil davon versehen wird. Somit ergibt sich eine Diskretisierung<br />
von f und damit auch eine veränderte Aufgabenstellung. An Stelle der Funktion f sind nun einzelne<br />
Funktionswerte gesucht.<br />
Prinzipiell bieten sich folgende Möglichkeiten <strong>für</strong> den Übergang von Analysis zu Algebra:<br />
1. numerische Differentiation:<br />
1
Beispiel:<br />
DGL: akustische Wellengleichung<br />
∆p + k 2 p = 0<br />
RB: „schallharter“ Rand<br />
∂ p<br />
∂ −→ n<br />
Bild 1: verallgemeinerte Aufgabenstellung bei der Feldberechnung<br />
• alle Ableitungen werden durch Differenzenquotienten ersetzt<br />
• Differentialgleichung wird zur Gleichung<br />
• Gebiet wird mit einem regelmäßigen (strukturierten) Gitter versehen<br />
• Werte von f an den Gitterknoten werden als Lösung eines Gleichungssystems erhalten<br />
• Bsp.: Finite-Differenzen-Methode (FDM)<br />
2. numerische Integration:<br />
• Differentialgleichung und Randbedingungen werden in Gleichungen umgewandelt, die<br />
bestimmte Integrale enthalten (Integralgleichungen)<br />
• (auch unregelmäßiges) Gitter im Gebiet oder auf Teilen davon<br />
• Integrale werden durch Summen über Funktionswerte von f in den Gitterpunkten<br />
angenähert<br />
• Werte von f an den Gitterknoten werden als Lösung eines Gleichungssystems erhalten<br />
= 0<br />
• Bsp.: Finite-Elemente-Methode (FEM), Randelemente-Methode (BEM)<br />
Nicht jedes Verfahren ist <strong>für</strong> jedes Problem einsetzbar. Welches numerische Verfahren <strong>für</strong> eine<br />
bestimmte Aufgabenstellung zu Einsatz kommt, hängt darüber hinaus auch davon ab, welcher<br />
Aufwand mit der Berechnung verbunden ist.<br />
Zwei Verfahren, die <strong>für</strong> Akustik von besonderer Bedeutung sind, werden im folgenden vorgestellt.<br />
2
Bild 2: Zwei mögliche FEM-Berechnungsgitter zur Berechnung des Schallfeldes in einem vereinfachten<br />
Pkw-Innenraum. Links: Hexaeder-Elemente, Rechts: Tetraeder-Elemente<br />
2 Finite-Elemente-Methode(FEM)<br />
Bei der FEM wird das Gebiet durch das Gitter in einzelne Teilgebiete, die finiten Elemente, zerlegt<br />
(Beispiele siehe Bild 2). Die gesuchte Funktion, z.B. die Schalldruckverteilung p(x) wird durch<br />
Interpolation angenähert und durch die (unbekannten) Werte pi in den zum Element gehörenden<br />
Knoten ausgedrückt:<br />
p(x) = ∑ i<br />
Ni(x)pi = N T p. (1)<br />
Die Interpolationsfunktionen Ni sind die so genannten Formfunktionen, z.B. lineare Funktionen,<br />
die so gewählt werden, dass sie jeweils nur in einem Knoten den Wert 1 haben und in allen<br />
anderen Knoten verschwinden.<br />
Der nächste Schritt ist die Umformung der Differentialgleichung in eine Integralgleichung, hier<br />
am Beispiel der akustischen Wellengleichung (in komplexer Schreibweise):<br />
∆p + k 2 p = 0. (2)<br />
Zunächst wird mit einer beliebigen (beschränkten) Hilfsfunktion w multipliziert und dann über das<br />
Elementvolumen integriert:<br />
<br />
w ∆p + k 2 p dV = 0 (3)<br />
V<br />
Anschließend wird die erste Greensche Formel zur Umformung dieses Integrals angewendet und<br />
außerdem die in (1) angegebene Interpolation <strong>für</strong> p und ebenso <strong>für</strong> w eingeführt, so dass sich:<br />
<br />
w T ∇N∇N T p − k 2 w T NN T <br />
pdV = w T N∇pd −→ n (4)<br />
V<br />
3<br />
S
ergibt. Nun kann die Hilfsfunktion wieder entfernt werden:<br />
<br />
V<br />
∇N∇N T dV − k 2<br />
<br />
V<br />
NN T dV<br />
<br />
p =<br />
S<br />
N∇pd −→ n (5)<br />
Damit ist ein Gleichungsystem <strong>für</strong> p (enthält die Knotenwerte pi) aufgestellt. Die auftretenden<br />
Integrale, die nur die Formfunktionen und deren Ableitungen enthalten, werden numerisch berechnet.<br />
Die rechte Seite ist als Randbedingung nutzbar und der auftretende Ausdruck ∇p muss<br />
nicht ausgerechnet werden. Da (5) jeweils nur innerhalb eines Elementes gilt, wird die rechte Seite<br />
zur Verknüpfung des Gleichungsystems mit dem anderer Elemente genutzt (Die Details dazu<br />
sind hier fortgelassen). Somit entsteht ein großes Gleichungssystem, dass gelöst werden kann.<br />
Dabei sind in der Akustik prinzipiell zwei Fälle zu unterscheiden:<br />
• keine Berücksichtigung äußerer Anregung: Eigenfrequenzen (Resonanzen) und zugehörige<br />
Schwingungszustände werden berechnet (Modalanalyse, Bild 3)<br />
• mit Berücksichtigung äußerer Anregung: Schallfeld infolge einer oder mehrerer Quellen<br />
wird berechnet (harmonische bzw. transiente Analyse, Bild 4)<br />
Damit die mit der FEM erhaltene Näherungslösung noch brauchbar ist, dürfen die Elemente nicht<br />
zu groß gegenüber der Schallwellenlänge sein. Als Faustregel gilt, dass mindestens 6 Elemente<br />
pro Wellenlänge vorgesehen werden müssen. Mit steigender Frequenz bzw. größeren Abmessungen<br />
des Berechnungsgebietes steigt der Aufwand stark an und wird bald nicht mehr beherrschbar.<br />
Derzeit ist die Behandlung von Problemen mit etwa 10 7 Unbekannten auf größeren<br />
Rechnern möglich. Übliche Rechenzeiten liegen <strong>für</strong> praktische Probleme dabei im Bereich von<br />
vielen Stunden bis zu einigen Tagen.<br />
Der <strong>für</strong> die Akustik wichtige Fall der Schallausbreitung über große Entfernungen (viele Wellenlängen<br />
bzw. bis ins Unendliche) ist nicht ohne weiteres mit der FEM zu behandeln, da das<br />
gesamte Gebiet mit einem Rechengitter versehen werden müsste und die Anzahl der Unbekannten<br />
viel zu groß werden würde. Eine Alternative bietet das im folgenden Abschnitt beschriebene<br />
Verfahren.<br />
3 Randelemente-Methode (Boundary Element Method, BEM)<br />
Zum Verständnis der diesem Verfahre zugrunde liegenden Idee sei noch einmal die allgemeine<br />
Aufgabenstellung nach Bild 1 betrachtet. Oft genügt es, die gesuchte Funktion f (z.B. Schalldruckverteilung<br />
p) nur in einem Teil des Gebietes zu kennen. In diesem Fall reicht es aus, f nur<br />
auf dem Rand des Gebietes zu bestimmen und daraus dann die gesuchten Funktionswerte im<br />
Innern des Gebietes zu berechnen.<br />
Ausgangspunkt <strong>für</strong> ein solches Verfahren ist eine Integralgleichung der Akustik, die so genannte<br />
Kirchhoff-Helmholtz-Integralgleichung (KHI). Sie besagt, dass der Schalldruck an einem<br />
Punkt −→ Y innerhalb, auf dem Rand und außerhalb des Gebietes V bestimmt werden kann, wenn<br />
4
Bild 3: Ergebnisse einer Modalanalyse eines Pkw-Innenraums: Schalldruckverteilungen bei vier verschiedenen<br />
Eigenfrequenzen<br />
Bild 4: Berechnung des Übertragungsverhaltens eines Schalldämpfers Links: verwendetes Berechnungsgitter,<br />
Rechts: Übertragungsmaß in dB als Ergebnis einer harmonischen Analyse<br />
5
Bild 5: Außenraumproblem: Durch einen dünnen Schlauch und eine Hüllfläche in unendlicher Entfernung<br />
wird das außerhalb des Randes liegende Gebiet zu einem innerhalb des Randes liegenden<br />
die Schalldruckverteilung (1.Term) und die Normalenableitung des Schalldrucks (=Schallschnelle,<br />
2.Term) auf dem Rand des Gebietes S bekannt sind:<br />
<br />
S<br />
<br />
p( −→ X ) ∂G(−→ X , −→ Y )<br />
∂ −→ n<br />
− G( −→ X , −→ Y ) ∂ p(−→ X )<br />
∂ −→ <br />
dS(<br />
n<br />
−→ X ) = p( −→ ⎧<br />
⎪⎨ 0,<br />
Y ) ·<br />
⎪⎩<br />
−→ Y ∈ V ;<br />
1<br />
2 , −→ Y ∈ S;<br />
1, −→ Y ∈ V ∩ −→ Y ∈ S.<br />
G ist die Greensche Funktion der akustischen Wellengleichung (<strong>für</strong> den dreidimensionalen Fall:<br />
e − jkr /4πr).<br />
Bevor aber die Gleichung zur Berechung des gesuchten Schalldrucks verwendet werden<br />
kann, müssen der Schalldruck und die Schallschnelle auf dem Rand bekannt sein.<br />
Liegt auch der Punkt −→ Y auf dem Rand, so taucht der gesuchte Schalldruck auf dem Rand<br />
auf beiden Seiten der Integralgleichung auf. Wird nun der Rand ähnlich wie bei der FEM in einzelne<br />
Knoten und (Rand-)Elemente zerlegt und p mit Hilfe von Formfunktionen interpoliert, dann<br />
kann das Integral als Summe ausgedrückt werden. Der Schalldruck an einem bestimmten Randpunkt(=Knoten)<br />
ergibt sich dann aus der Summe, in der die Schalldrücke und Schallschnellen an<br />
allen anderen Knoten enthalten sind. Werden so alle N Knoten betrachtet ergibt sich ein Gleichungsystem,<br />
das N Gleichungen und 2N Unbekannte enthält, nämlich p und ∂ p/∂ −→ n an allen<br />
Knoten. Mit Hilfe von N Randbedingungen <strong>für</strong> p oder ∂ p/∂ −→ n erhält man die fehlenden N Gleichungen<br />
und kann das Gleichungsystem und damit die gestellte Berechnungsaufgabe lösen.<br />
Mit einem kleinen gedanklichen Trick kann man sich klar machen, dass das Verfahren auch<br />
funktioniert, wenn das Gebiet außerhalb des Randes liegt (Aussenraum-Problem, Bild 5). Dazu<br />
wird der Rand um einen kleinen, dünnen Schlauch mit vernachlässigbar kleiner Oberfläche mit<br />
einer zweiten Berandung verbunden, die sich unendlich weit weg befindet. Somit befindet sich<br />
das Gebiet innerhalb des so neu definierten Randes, jedoch tragen Schlauch als auch unendlich<br />
weit entfernte Oberfläche nichts zum Integral in (6) bei.<br />
6<br />
(6)
Bild 6: Frontaler Einfall einer ebenen Schallwelle auf ein Modell eines menschlichen Kopfes und Torso.<br />
Links: verwendetes Modell und Visualisierungsfläche, Mitte: Berechnungsgitter, Rechts: berechnete<br />
Schalldruckverteilung bei 1600 Hz (Quelle: Jan Rejlek „Modellierung der Schallstreuung mit Hilfe der<br />
Randelementemethode“ Diplomarbeit CVUT Praha 2004)<br />
Besonders die Möglichkeit, Schallfelder außerhalb einer Randfläche mit beherrschbarem Aufwand<br />
zu berechnen, macht die BEM zu einem attraktiven Werkzeug der Akustik. Ein Beispiel zeigt<br />
Bild 6, wo die Schalldruckverteilung an einem Torso mit Kopf berechnet wurde.<br />
Bei der BEM müssen deutlich weniger Unbekannte bestimmt werden als bei der FEM. Allerdings<br />
ist der Aufwand zur Lösung des Gleichungssystem höher. Deshalb sind nur etwa 10 5<br />
Unbekannte praktisch beherrschbar. Um die Vorteile beider Verfahren zu nutzen, lassen sich<br />
FEM und BEM auch gekoppelt anwenden.<br />
7