3 Aufgabe 2 - Fakultät für Elektrotechnik und Informationstechnik ...
3 Aufgabe 2 - Fakultät für Elektrotechnik und Informationstechnik ...
3 Aufgabe 2 - Fakultät für Elektrotechnik und Informationstechnik ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
WS 2009/2010<br />
RUHR-UNIVERSITÄT BOCHUM<br />
<strong>Fakultät</strong> <strong>für</strong> <strong>Elektrotechnik</strong><br />
<strong>und</strong> <strong>Informationstechnik</strong><br />
Bachelor-VERTIEFUNGSPRAKTIKUM<br />
INFORMATIONSTECHNIK<br />
WS 2009/2010<br />
Universitätsstrasse 150, D-44780 Bochum
Versuchsverzeichnis<br />
Spurensucher (ATP) IT-V1<br />
Autonomes Fahrzeug (ATP) IT-V2<br />
Quellenlokalisation mit Mikrofonarrays (AIKA) IT-V3<br />
Auditive virtuelle Umgebung (AIKA) IT-V4<br />
Ultraschallbildgebung – praktische Aspekte (MT) IT-V5<br />
Ultraschallbildgebung – Signalverarbeitung (MT) IT-V6<br />
Glasfaserübertragungsstrecke (PTT) IT-V7<br />
Amplitudenmodulation (NT) IT-V8<br />
Gruppenlaufzeitentzerrung (NT) IT-V9<br />
Digitale Übertragungsstrecke (IS) IT-V10
Inhaltsverzeichnis<br />
Versuch IT-V1: Spurensucher<br />
1 Ziel des Versuchs 2<br />
1.1 Einleitung .................................................................................................... 2<br />
1.2 Motivation ................................................................................................... 2<br />
2 <strong>Aufgabe</strong> 1: Modellbau 3<br />
3 <strong>Aufgabe</strong> 2: Interface- <strong>und</strong> Fahrzeugtest 4<br />
4 <strong>Aufgabe</strong> 3: Streckenmessung 6<br />
5 <strong>Aufgabe</strong> 4: Spurensuche 7<br />
6 <strong>Aufgabe</strong> 5: Vermessung einer Geraden <strong>und</strong> einer vorgegebenen Strecke 8<br />
7 Beiblatt: Interface-Beschaltung Spurensucher 9<br />
IT-V1 - 1
1 Ziel des Versuchs<br />
1.1 Einleitung<br />
In den folgenden Versuchen soll mit Hilfe eines Fischertechnik-Modells ein Fahrzeug gebaut<br />
<strong>und</strong> programmiert werden, welches einer vorgegebenen Spur folgt <strong>und</strong> diese zusätzlich<br />
noch vermisst.<br />
1.2 Motivation<br />
Bei diesem Versuch wird der Versuchsaufbau nicht zur Verfügung gestellt. Das Fahrzeug<br />
muss vom Studenten aufgebaut <strong>und</strong> danach getestet werden. Für die Steuerung des Fahrzeuges<br />
steht ein Kleinrechner zur Verfügung.<br />
Durch die Kapazität von 2 Flash Speichern, einem RAM Speicher <strong>und</strong> zusätzlichen analogen<br />
<strong>und</strong> digitalen Ein- <strong>und</strong> Ausgängen, können mit Hilfe des Interfaces auch komplizierte<br />
<strong>und</strong> sehr vielseitige Automatisierungsaufgaben gelöst werden. Die mitgelieferte Bedienungssoftware<br />
besitzt, passend zur Kapazität des Interface, alle Eigenschaften zur Realisierung<br />
auch komplexer, autonomer Steuerungsanwendungen. Ebenso ist die Implementierung paralleler,<br />
unabhängig voneinander ablaufender Steuerungen möglich. Eine Einführung in die<br />
Programmierung wird zu Anfang des Praktikums gegeben.<br />
Die Anwendung standardmäßiger industrieller Steuerungen würde hier einen viel höheren<br />
verbindungstechnischen Aufwand erzeugen <strong>und</strong> wäre <strong>für</strong> ein Einführungspraktikum<br />
deutlich zu aufwendig. Aus diesem Gr<strong>und</strong>e wurde das sehr weit verbreitete Fischertechnik-<br />
System gewählt.<br />
IT-V1 - 2
2 <strong>Aufgabe</strong> 1: Modellbau<br />
Abbildung 1: Spurensucher Fahrzeug<br />
1. Es ist das Fischertechnik-Modell, wie im ausgelegten Bauplan <strong>und</strong> Abbildung 1<br />
dargestellt, aufzubauen.<br />
Beim Bau der Modelle ist folgendes zu beachten:<br />
a. Die Teile lassen sich mehr oder minder leicht zusammenstecken. Gewalt ist<br />
auch hier keine Lösung.<br />
b. Es ist genau auf den Bauplan zu achten! Es ist wichtig, dass verschiedene<br />
Blöcke in der richtigen Lage zusammen geschoben werden, da unter Umständen<br />
nachher noch Teile von außen angebaut werden müssen, was bei<br />
mangelnder Genauigkeit dann nicht mehr möglich ist.<br />
Aktoren <strong>und</strong> Sensoren anschließen!<br />
Hier ist besonders darauf zu achten, dass die Fotodioden mit der richtigen Polarität<br />
angeschlossen werden. Der rote Stecker gehört auf den rot markierten Anschluss der<br />
Diode. Die grünen Stecker werden jeweils in die obere Anschlusszeile gesteckt. Siehe<br />
auch Abbildung 2.<br />
Abbildung 2: ROBO-Interface<br />
IT-V1 - 3
3 <strong>Aufgabe</strong> 2: Interface- <strong>und</strong> Fahrzeugtest<br />
Es ist ein Interface- <strong>und</strong> Fahrzeugtest durchzuführen. Zu diesem Zweck wird das ROBO-<br />
Interface per USB an den PC angeschlossen <strong>und</strong> folgend der Interface-Test der ROBOPro-<br />
Software verwendet.<br />
1. Es sollen die Reaktionen von Aktoren <strong>und</strong> Sensoren auf verschiedene Eingaben getestet<br />
werden. Dazu sind die folgenden Fragen zu beantworten:<br />
a. Wenn sich beide Motoren laut Programm nach "`rechts"' drehen, laufen<br />
dann beide Räder in die selbe Richtung? Sollte dies nicht der Fall sein, polen<br />
Sie einen Motor um, damit die Programmierung übersichtlich wird!<br />
b. Fährt das Modell vorwärts oder rückwärts, wenn sich beide Motoren nach<br />
"rechts" drehen?<br />
c. Wie reagieren die Fotodioden, wenn man sie in das Licht hält? Mit einer 1<br />
am Ausgang (entspricht Haken im Interfacetest), oder mit einer 0 am Ausgang?<br />
(Hinweis: Nehmen Sie die Lampe ab <strong>und</strong> halten Sie diese vor die Fotodiode.<br />
Die Beleuchtung des Praktikumraums könnte nicht ausreichend<br />
sein.)<br />
d. Das Modell ist auf weißes Papier zu stellen. Wie reagieren die Sensoren auf<br />
ein- bzw. ausgeschaltetes Licht?<br />
IT-V1 - 4
2. Es sollen zwei Ablaufprogramme zur Motorensteuerung entworfen <strong>und</strong> skizziert<br />
werden.<br />
a. Das Fahrzeug soll sich zunächst vorwärts <strong>und</strong> dann nach 3 Sek<strong>und</strong>en rückwärts<br />
bewegen.<br />
b. Das Fahrzeug soll sich im Kreis bewegen.<br />
Die Lösungen sind hier einzutragen:<br />
zu 2(a):<br />
zu 2(b):
4 <strong>Aufgabe</strong> 3: Streckenmessung<br />
1. Das Programm <strong>für</strong> die Vorwärtsfahrt ist so zu erweitern, dass der Roboter genau 40<br />
Impulse, gemessen mit Taster 1, geradeaus läuft. Welche Einstellung der Tasterabfrage<br />
ergibt die größte Genauigkeit? Begründen Sie die Antwort <strong>und</strong> verwenden Sie<br />
diese Einstellung <strong>für</strong> die folgenden Versuche!<br />
2. Führen Sie den Versuch 3 Mal durch <strong>und</strong> messen Sie jeweils die zurückgelegte Strecke.<br />
Versuch 1 40<br />
Versuch 2 40<br />
Versuch 3 40<br />
Anzahl Impulse Strecke Strecke pro Impuls<br />
3. Wie viele Impulse werden pro Radumdrehung erzeugt? Damit ist der Umfang des<br />
Rades zu bestimmen.<br />
IT-V1 - 6
5 <strong>Aufgabe</strong> 4: Spurensuche<br />
Es ist ein Programm zu erstellen, das sicherstellt, dass das Fahrzeug einem vorgegebenen<br />
schwarzen Strich folgt! Hierzu sind die in <strong>Aufgabe</strong> 2 gesammelten Erkenntnisse über die<br />
Fotodioden anzuwenden.<br />
Tipps:<br />
1. Die angebaute Lampe muss die Fahrbahn beleuchten, da sonst dauerhaft ein dunkler<br />
Untergr<strong>und</strong> erkannt wird <strong>und</strong> somit keine Steuerung möglich ist.<br />
2. Die Lampe <strong>und</strong> die Dioden müssen richtig ausgerichtet sein, damit der Unterschied<br />
zwischen schwarzem Strich <strong>und</strong> weißem Papier ausreichend gut gemessen werden<br />
kann.<br />
3. Am Anfang sollte eine sehr kleine Geschwindigkeit der Motoren eingestellt werden,<br />
da es bei hohen Geschwindigkeiten sein kann, dass die Regelung trotz erkanntem<br />
hell-dunkel Übergang, nicht schnell genug reagieren kann, bevor das Fahrzeug die<br />
Spur ganz verliert.<br />
IT-V1 - 7
6 <strong>Aufgabe</strong> 5: Vermessung einer Geraden <strong>und</strong> einer vorgegebenen<br />
Strecke<br />
1. Das Programm aus <strong>Aufgabe</strong> 4 ist so zu erweitern, dass nun zwei Zähler im Online-<br />
Modus die Impulse an den Tastern mitzählen können. Hier<strong>für</strong> ist im Programm eine<br />
Variable zu implementieren.<br />
2. Vermessen der Gerade!<br />
a. Wie viele Impulse hat das Programm gezählt?<br />
b. Wie lang ist damit die Strecke?<br />
3. Vermessen der Acht! Wie lang ist eine R<strong>und</strong>e?<br />
IT-V1 - 8
7 Beiblatt: Interface-Beschaltung Spurensucher<br />
IT-V1 - 9
Versuch IT-V2: Autonomes Fahrzeug<br />
Inhaltsverzeichnis<br />
1 Ziel des Versuchs 2<br />
1.1 Vermeidung einer Kollision ........................................................................... 2<br />
1.2 Prinzip der Hinderniserkennung mit Fotodioden........................................... 2<br />
2 <strong>Aufgabe</strong> 1: Gr<strong>und</strong>legende Überlegungen 4<br />
2.1 Fragen zur Konstruktion............................................................................... 4<br />
2.2 Kalibrierung der Fotodioden ......................................................................... 5<br />
2.3 Analoge Betrachtung der Fotodioden............................................................ 5<br />
3 <strong>Aufgabe</strong> 2: Vorgegebene Bewegung mit autonomer Hinderniserkennung 6<br />
4 <strong>Aufgabe</strong> 3: Autonome Bewegung 7<br />
5 Beiblatt: Interface-Beschaltung Autonomes-Fahrzeug 8<br />
IT-V2 - 1
1 Ziel des Versuchs<br />
Im folgenden Versuch soll <strong>für</strong> ein vorgegebenes Fahrzeug eine Ablaufsteuerung entwickelt<br />
werden, die es dem Fahrzeug ermöglicht, sich autonom zu bewegen. In der ersten <strong>Aufgabe</strong><br />
soll das Fahrzeug eine vorgegebene Bewegung durchführen <strong>und</strong> in der Lage sein, autonom<br />
Hindernisse zu erkennen. Im letzten Teil soll sich das Fahrzeug vollständig autonom bewegen.<br />
1.1 Vermeidung einer Kollision<br />
Um zu verhindern, dass das Fahrzeug gegen eine Wand fährt, bzw. in einer Ecke hängen<br />
bleibt, sind am Fahrzeug Lampen <strong>und</strong> die zugehörigen Lichtsensoren angebracht. Es gibt<br />
allerdings auch andere Sensoren, die man anbringen könnte, die hier kurz erwähnt werden<br />
sollen.<br />
1. Taster: Taster kann man sicher nicht verwenden, um eine kollisionsfreie Bewegung<br />
in einem Raum zu erreichen. Dennoch reichen die Taster aus, um eine Bewegung<br />
im Raum zu schaffen, die ein Festfahren verhindert.<br />
2. Ultraschall: Ultraschallsensoren sind sicher <strong>für</strong> Anwendungen in teuren Modellen,<br />
beispielsweise Automobilen, angebracht <strong>und</strong> eine der besten Möglichkeiten den Abstand<br />
zu einer Wand oder einem Hindernis genau zu messen. Jedoch ist hier keine<br />
genaue Messung notwendig, die den Preis <strong>für</strong> die Ultraschallausrüstung rechtfertigen<br />
würde.<br />
1.2 Prinzip der Hinderniserkennung mit Fotodioden<br />
In unserem Versuch werden, wie schon erwähnt, Lichtsensoren <strong>und</strong> zugehörige Lampen<br />
verwendet. Dieses Messprinzip soll im Folgenden kurz erläutert werden:<br />
Vom Prinzip her, funktioniert die Hinderniserkennung bei diesem Fahrzeug ähnlich wie<br />
die Spurensuche im ersten Versuch. Sobald eine Fotodiode dem Hindernis zu nahe kommt,<br />
wird das Licht der Lampe am Hindernis so stark reflektiert, dass die Fotodiode am digitalen<br />
Eingang ihren Zustand ändert <strong>und</strong> somit das Hindernis erkennt. In diesem Versuch<br />
wird zusätzlich ein analoger Eingang verwendet, dem im Programm ein Grenzwert zur<br />
genaueren Abstandsmessung zugewiesen werden kann.<br />
IT-V2 - 2
Allerdings sind beim Fischertechnik-Modell einige Besonderheiten zu beachten, die bei<br />
dieser Erkennung Schwierigkeiten hervorrufen können.<br />
1. Man kann bei der Lampe verschiedene Helligkeiten einstellen, welche stark beeinflussen,<br />
unter welchen Bedingungen das Hindernis erkannt wird. Stellt man eine<br />
starke Helligkeit ein, kann es passieren, dass ein Hindernis erkannt wird, obwohl<br />
das Fahrzeug noch weit vor dem Hindernis ist <strong>und</strong> noch gar nicht reagieren müsste.<br />
Im anderen Fall kann es bei geringen Helligkeiten passieren, dass ein Hindernis u.<br />
U. gar nicht erkannt wird <strong>und</strong> es zu einer Kollision kommt.<br />
2. Die Fotodioden müssen richtig ausgerichtet sein. Sind sie etwas verschoben, oder<br />
haben einen bestimmten Winkel zur Lampe, kann es passieren, dass das Licht gar<br />
nicht auf die Fotodiode fällt <strong>und</strong> somit eine Hinderniserkennung unmöglich ist.<br />
3. Die Batteriespannung ist nicht konstant! Mit zunehmender Betriebsdauer wird die<br />
Batteriespannung abnehmen <strong>und</strong> somit auch die Stärke des Lichts. Dies hat zur<br />
Folge, dass Hindernisse später nicht mehr erkannt werden. Dieser Punkt muss bei<br />
der späteren Programmierung unbedingt berücksichtigt werden.<br />
ACHTUNG: Die Unterlagen <strong>und</strong> Ergebnisse aus dem 1.Versuch müssen mitgebracht werden,<br />
um diese <strong>Aufgabe</strong>n in angemessener Zeit lösen zu können.<br />
IT-V2 - 3
2 <strong>Aufgabe</strong> 1: Gr<strong>und</strong>legende Überlegungen<br />
2.1 Fragen zur Konstruktion<br />
Diese <strong>Aufgabe</strong>n sind in Vorbereitung auf das Praktikum zu lösen!<br />
Bevor das Fahrzeug seine ersten autonomen Bewegungen im Raum bzw. im vorgegebenen<br />
Versuchsbereich ausführt, müssen zuerst die Lampen <strong>und</strong> Fotodioden so angebracht<br />
<strong>und</strong> ausgerichtet werden, dass das Fahrzeug nachher sicher gegen Kollisionen geschützt ist.<br />
1. Ihnen stehen 3 Lampen <strong>und</strong> Fotodioden zur Vermeidung von Kollisionen zur Verfügung.<br />
Skizzieren Sie wo die betreffenden Lampen <strong>und</strong> Dioden am Rahmen des<br />
Fahrzeuges anzubringen sind. Es ist dabei zu bedenken, dass das Fahrzeug in diesem<br />
Versuch nur vorwärts fahren muss <strong>und</strong> somit gewisse Teile des Fahrzeuges<br />
nicht mit der Wand kollidieren können.<br />
2. Wie wären die Sensoren anzubringen, wenn 7 Lampen, <strong>und</strong> Fotodioden zur Verfügung<br />
ständen? (Skizze)<br />
3. Was wäre, wenn das Fahrzeug auch rückwärts fahren könnte <strong>und</strong> somit eine Kollision<br />
am Heck möglich wäre? (Skizze <strong>für</strong> 4 <strong>und</strong> 8 Sensoren)<br />
IT-V2 - 4
2.2 Kalibrierung der Fotodioden<br />
Wie in der Einleitung erwähnt, können die Lampen in ihrer Lichtstärke variiert werden,<br />
um den Abstand von der Wand einzustellen, bei der die Fotodiode ihren Zustand wechselt<br />
<strong>und</strong> somit das Hindernis erkennt.<br />
1. Es ist eine Lampe <strong>und</strong> die dazugehörige Fotodiode am Fahrzeug anzubringen <strong>und</strong><br />
an das ROBO-Interface anzuschließen. Die Fotodiode wird mit einem digitalen Eingang<br />
verb<strong>und</strong>en. Der Interfacetest wird gestartet <strong>und</strong> die Lampe eingeschaltet. Mit<br />
einem weißen Blatt Papier als Reflektor wird der Abstand zwischen Lampe <strong>und</strong> Fotodiode<br />
verkleinert.<br />
Der Abstand, bei dem die Fotodiode ihren Zustand wechselt, ist <strong>für</strong> verschiedene<br />
Lichtstärken zu messen. Das Ergebnis ist in folgender Tabelle zu notieren.<br />
Lichtstärke Abstand bei Zustandswechsel [in cm]<br />
8<br />
7<br />
6<br />
5<br />
4<br />
3<br />
2<br />
1<br />
2. Welche Einstellung ist ihrer Meinung nach <strong>für</strong> den Versuch am besten? Dabei ist zu<br />
beachten, dass eine gewisse Robustheit bezüglich des Umgebungslichts <strong>und</strong> der<br />
Spannungsschwankungen während des Betriebs gegeben sein sollte. Begründung!<br />
2.3 Analoge Betrachtung der Fotodioden<br />
Um eine genauere Abstandsmessung zu erreichen kann die Fotodiode nicht nur digital sondern<br />
auch analog betrieben werden. Dazu muss die Fotodiode entweder an den Eingang<br />
AX oder AY auf dem ROBO-Interface angeschlossen werden. Eine genauere Beschreibung<br />
der analogen Eingänge ist im ROBOPro Handbuch zu finden.<br />
Es ist mit Hilfe des Interface Test eine Tabelle <strong>und</strong> eine Kennlinie aufzunehmen, die den<br />
Zusammenhang zwischen dem Abstand von der Wand <strong>und</strong> dem Signal am analogen Eingang<br />
zeigt! Diese Daten werden später zur Hinderniserkennung gebraucht.<br />
IT-V2 - 5
3 <strong>Aufgabe</strong> 2: Vorgegebene Bewegung mit autonomer<br />
Hinderniserkennung<br />
In diesem Teilversuch soll das Fahrzeug von einer klar definierten Startposition beginnend,<br />
auf einem in Abbildung 1 spezifizierten Weg fahren <strong>und</strong> dann in einem definierten Zielbereich<br />
wieder anhalten. Hierbei soll die Bewegung im Programm vorgeschrieben sein, aber<br />
die Hinderniserkennung autonom ablaufen.<br />
Abbildung 1: Fahrweg<br />
Die Hinderniserkennung ist hier mit den vorhandenen Sensoren <strong>und</strong> Anschlüssen zu realisieren.<br />
Es bleibt dabei den Praktikumsteilnehmern überlassen, ob die analogen oder digitalen<br />
Eingänge oder auch beide genutzt werden.<br />
Bei dieser <strong>Aufgabe</strong> ist zu beachten, dass ein beträchtlicher Steuerungsanteil realisiert<br />
werden muss, da jede einzelne Drehung fest einprogrammiert werden muss. Außerdem ist<br />
darauf zu achten, dass das Fahrzeug nicht zu nah an die Ränder fährt, da ansonsten keine<br />
Drehung mehr ausgeführt werden kann.<br />
IT-V2 - 6
4 <strong>Aufgabe</strong> 3: Autonome Bewegung<br />
Das Fahrzeug soll eine völlig autonome Bewegung durchführen. Das heißt, es soll sich möglichst<br />
kollisionsfrei innerhalb der Box bewegen. Der Weg ist dabei völlig unerheblich. Es ist<br />
jedoch besonders darauf zu achten, dass sich das Fahrzeug auf keinen Fall in einer Ecke<br />
festfährt.<br />
IT-V2 - 7
5 Beiblatt: Interface-Beschaltung Autonomes-Fahrzeug<br />
IT-V2 - 8
Versuch IT-V3: Quellenlokalisation <strong>und</strong><br />
Mikrofonarrays<br />
Inhaltsverzeichnis<br />
1 Einleitung 2<br />
2 Gr<strong>und</strong>lagen der Quellenlokalisation 2<br />
2.1 Signalmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2<br />
2.2 Quellenlokalisation mit zwei Mikrofonen . . . . . . . . . . . . . . . . . . . . 3<br />
2.3 Wiener Filter <strong>und</strong> NLMS-Algorithmus . . . . . . . . . . . . . . . . . . . . . 5<br />
2.4 Adaptives FIR Wiener Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />
2.5 LMS- <strong>und</strong> NLMS-Algorithmen . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />
3 Vom Algorithmus zur Echtzeit-Anwendung 8<br />
3.1 Das DSP-Board . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />
3.2 Von Simulink zu C-Code . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />
3.3 Embedded IDE Link CC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />
4 <strong>Aufgabe</strong>n 15<br />
4.1 Vorbereitende <strong>Aufgabe</strong>n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />
4.2 Messaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />
Literaturverzeichnis 18<br />
IT-V3 - 1
1 Einleitung<br />
Die Quellenlokalisation hat die <strong>Aufgabe</strong>, den Ort einer oder mehrerer akustischer Quellen<br />
zu identifizieren. Die Quellen können sich in einem akustisch reflektierenden Raum, wie<br />
z.B. ein Wohnzimmer oder ein Büroraum, oder im Freifeld befinden, wo keine oder nur<br />
wenig Reflektionen auftreten. Quellenlokalisation dient meist dazu, weitere nachgeschaltete<br />
Algorithmen mit Richtungsinformation zu versorgen. Mit einer Anordnung aus zwei oder<br />
mehr Mikrofonen (Mikrofonarray) <strong>und</strong> entsprechender Signalverarbeitung wird es möglich,<br />
eine raumrichtungsabhängige Empfindlichkeit des Mikrofonarrays zu realisieren. Hiermit<br />
kann prinzipiell eine hohe Empfindlichkeit in Richtung einer (oder mehrerer) gewünschter<br />
Quellen eingestellt werden, während akustische Störquellen aus anderen Einfallsrichtungen<br />
bedämpft werden. Diese Verwendung von Mikrofonarrays wird anschaulich auch als “Beamformer”<br />
bezeichnet, weil hier sinnbildlich ein Strahl akustischer Empfindlichkeit in den<br />
Raum gesteuert werden kann. Die Richtungsinformation aus der Quellenlokalisation kann<br />
hierbei zur adaptiven Steuerung des Beamformers eingesetzt werden.<br />
In diesem Versuch werden Sie sich mit den Gr<strong>und</strong>prinzipien <strong>und</strong> Herausforderungen<br />
der Quellenlokalisation in reflektionsfreier <strong>und</strong> in reflektionsbehafteter Umgebung vertraut<br />
machen. Sie lernen ein konkretes Verfahren zur Quellenlokalisation kennen. Im Versuch<br />
werden Sie den Algorithmus zunächst in der Simulationsumgebung Simulink fertigstellen<br />
<strong>und</strong> untersuchen, bevor Sie ihn dann in Objekt-Code übersetzen, auf einen Signalprozessor<br />
laden <strong>und</strong> als Echtzeitprogramm testen.<br />
2 Gr<strong>und</strong>lagen der Quellenlokalisation<br />
2.1 Signalmodell<br />
Bild 1 zeigt das Modell der Quellenlokalisation: In einem Raum befindet sich an der Stelle<br />
rs eine Quelle, deren Direktschall <strong>und</strong> reflektierter Schall von M Mikrofonen aufgenommen<br />
wird. Das Signal, das ein beliebiges Mikrofon m erreicht, kann als zeitkontinuierliche<br />
Funktion dargestellt werden:<br />
ym(t) = am(t) ∗ s0(t). (1)<br />
Hierbei bezeichnet s0(t) das Quellensignal, wie es am Ort der Quelle ausgesendet wird,<br />
<strong>und</strong> am(t) die Raumimpulsantwort vom Ort der Quelle zum Mikrofon m. Die Raumimpulsantwort<br />
wird hier mit dem Quellensignal gefaltet (Operator “∗”) <strong>und</strong> modelliert daher<br />
die Filterung, welche das Quellensignal aufgr<strong>und</strong> der Raumreflektionen auf dem Weg zum<br />
Mikrofon erfährt. Die Raumimpulsantwort ist im allgemeinen Fall eine zeitvariable Größe,<br />
da sie sich verändert, wenn sich beispielsweise die Quelle bewegt.<br />
Im Folgenden gehen wir von abgetasteten Signalen aus <strong>und</strong> ersetzen daher die kontinuierlichen<br />
Zeitfunktionen durch ihre abgetasteten Versionen. Beispielsweise approximieren<br />
wir die Raumimpulsantwort durch einen Vektor der Länge L, d.h.<br />
am = (am(0),am(1),...,am(L − 1)) T , (2)<br />
wobei am(k) die abgetastete Raumimpulsantwort zum diskreten Zeitpunkt k/fA bezeichnet,<br />
fA ist die Abtastrate <strong>und</strong> das hochgestellte T kennzeichnet die Transponierung des Vektors.<br />
IT-V3 - 2
s<br />
Direktschall<br />
Reflektionen<br />
r1<br />
rm<br />
rM<br />
ex<br />
Bild 1: Signalmodell einer reflektionsbehafteten Umgebung.<br />
Für das m-te Mikrofonsignal gilt entsprechend:<br />
ym(k) = a T ms0(k) (3)<br />
s0(k) = (s0(k),s0(k − 1),...,s0(k − L − 1)) T . (4)<br />
2.2 Quellenlokalisation mit zwei Mikrofonen<br />
Während die Mikrofone im allgemeinen Fall beliebig im Raum verteilt sein dürfen, betrachten<br />
wir im folgenden den Fall eines linearen Arrays bestehend aus M = 2 Mikrofonen, welche<br />
zusammen mit der Quelle in der durch die Einheitsvektoren ex <strong>und</strong> ey aufgespannten Ebene<br />
(Bild 1) liegen.<br />
Reflektionsarme Umgebung<br />
Reflektionsarme Umgebungen, wie sie z.B. auf einem schneebedeckten weiten Feld auftreten,<br />
werden häufig vereinfachend als reflektionsfrei angenommen. Es tritt daher nur Direktschall<br />
auf. In diesem Fall beschreibt die Raumimpulsantwort am eine Verzögerung, τm, <strong>und</strong> eine<br />
Dämpfung, bm, die aufgr<strong>und</strong> des Abstandes des Mikrofons von der Quelle zustande kommt:<br />
ym(k) = bmδ(τm) ∗ s0(k) (5)<br />
= bms0(k − τm). (6)<br />
Insbesondere tritt hier keine Filterwirkung aufgr<strong>und</strong> von Reflektionen auf. Ist die Dimension<br />
des Mikrofonarrays wesentlich kleiner als sein Abstand zur Schallquelle, so kann die am<br />
Array ankommende Wellenfront näherungsweise als ebene Wellenfront betrachtet werden<br />
IT-V3 - 3<br />
ey
s<br />
y2(k)<br />
d<br />
ò<br />
c · T<br />
y1(k)<br />
Bild 2: “Time Delay Of Arrival” (TDOA), T, unter Fernfeldannahme. c bezeichnet die Schallgeschwindigkeit<br />
in Luft <strong>und</strong> d den Abstand der Mikrofone.<br />
s0(k)<br />
00 11 00 110<br />
1<br />
01<br />
01<br />
00 11 00 11 00 11 00 11<br />
00 11 00 11010<br />
1<br />
01<br />
01<br />
01 01<br />
00 11 01<br />
00 110101 00 11 00 11 00 11 00 11010 1<br />
y1(k)<br />
y2(k)<br />
Bild 3: Quellenlokalisation in reflektionsarmer Umgebung. Der Block “T” stellt ein einstellbares<br />
Verzögerungselement dar.<br />
(Fernfeldannahme, Bild 2). Außerdem wird vereinfachend angenommen, dass die Dämpfungsterme<br />
<strong>für</strong> beide Mikrofonsignale gleich groß sind (b1 = b2). Die Information über die<br />
Raumrichtung θ, aus der eine Schallquelle auf das Mikrofonarray strahlt (“Direction Of Arrival”,<br />
DOA), ist implizit im Laufzeitunterschied (“Time Delay Of Arrival”, TDOA) zwischen<br />
den Signalen an Mikrofon 1 <strong>und</strong> 2 enthalten. Sie kann bei bekanntem TDOA <strong>und</strong> bekanntem<br />
Mikrofonabstand d berechnet werden (s. vorbereitende <strong>Aufgabe</strong>n). Im reflektionsfreien Fall<br />
könnte also mit einem variablen Verzögerungsglied T die Verzögerung ermittelt werden, bei<br />
der die Leistung des Differenzsignals beider Mikrofone minimal wird, also die tatsächlich<br />
zwischen den Signalen vorliegende Verzögerung vollständig kompensiert wird (Bild 3). Aus<br />
der so ermittelten TDOA wird dann die DOA, θ, errechnet.<br />
IT-V3 - 4<br />
T<br />
e(k)<br />
−
s0(k)<br />
00 11 00 11<br />
01<br />
01<br />
00 11 00 11 00 11 00 11<br />
00 11 00 11 00 11 00 11 010101<br />
01<br />
01<br />
01<br />
01<br />
00 11 01<br />
00 110101 00 11 00 11 00 11 00 11010<br />
1<br />
y1(k)<br />
y2(k)<br />
Bild 4: Quellenlokalisation in reflektionsbehafteter Umgebung. Anstelle eines Verzögerungselementes<br />
erscheint hier hinter dem oberen Mikrofon ein Filter w, dessen Koeffizienten adaptiv<br />
so eingestellt werden, dass der mittlere Fehler zwischen oberen <strong>und</strong> unterem Pfad minimal<br />
wird.<br />
Reflektionsbehaftete Umgebung<br />
In den meisten Fällen ist es realistischer, eine reflektionsbehaftete Umgebung anzunehmen.<br />
In diesem Fall enthält die Raumimpulsantwort außer dem dominierenden Direktschall<br />
(verzögert <strong>und</strong> skaliert wie im reflektionsarmen Fall) nun auch die Raumreflektionen. Daher<br />
liefert ein einfaches Verzögerungsglied hier keine optimalen Ergebnisse. Stattdessen wird wie<br />
in Bild 4 dargestellt ein Filter so adaptiert, dass die mittlere Abweichung zwischen beiden<br />
Mikrofonsignalen möglichst klein wird. Die Position des Maximums in der geschätzten<br />
Impulsantwort des Filters bestimmt nun den TDOA <strong>und</strong> wird wie zuvor in den gesuchten<br />
Winkel θ umgerechnet. Im Falle einer reflektionsfreien Umgebung würde ein solches<br />
adaptives Filter wieder zu einem verzögerten <strong>und</strong> skalierten Einheitsimpuls konvergieren.<br />
Die optimale Adaption der Filterkoeffizienten w erfolgt z.B. mit dem Least Mean Square<br />
(LMS) Verfahren, welches in den folgenden Abschnitten eingeführt wird.<br />
2.3 Wiener Filter <strong>und</strong> NLMS-Algorithmus<br />
Die Algorithmen der Störsignal- <strong>und</strong> Nachhallreduktion <strong>und</strong> der akustischen Echokompensation<br />
beinhalten in ihrem Kern adaptive Optimalfilter. Das adaptive Optimalfilter hat die<br />
<strong>Aufgabe</strong>, das Eingangssignal des Filters so zu verändern, dass unter fortlaufender Anpassung<br />
an die Signalstatistik der Fehler zwischen dem Ausgangssignal <strong>und</strong> einem Referenzsignal<br />
minimiert wird. Das hinsichtlich des mittleren quadratischen Fehlers optimale Filter ist<br />
<strong>für</strong> stationäre Signale in der Literatur als Wiener Filter bekannt, z.B. [?]. Da sich einige<br />
gr<strong>und</strong>sätzliche Eigenschaften optimaler Filter besonders elegant mit Hilfe des Wiener Filters<br />
darstellen lassen, wird als Ausgangspunkt dieses Kapitels zunächst das FIR Wiener<br />
Filter betrachtet. Daran anschließend folgt eine Diskussion des LMS-Algorithmus (Least<br />
Mean Square Algorithmus) <strong>und</strong> des NLMS-Algorithmus (Normalized Least Mean Square<br />
Algorithmus).<br />
Prinzip des Optimalfilters<br />
In Bild 5 ist der Signalfluss des Optimalfilters skizziert. Das Eingangssignal x(k), von dem<br />
IT-V3 - 5<br />
w<br />
e(k)<br />
−
x(k) Optimalfilter w<br />
e(k)<br />
01<br />
01<br />
01<br />
01<br />
01<br />
01<br />
01<br />
01<br />
01<br />
01<br />
01<br />
01<br />
01<br />
d(k)<br />
Bild 5: Prinzipskizze des Optimalfilters.<br />
angenommen wird, dass es einen stationären <strong>und</strong> mittelwertfreien Zufallsprozess realisiert,<br />
soll so gefiltert werden, dass das gefilterte Signal ˆ d(k) dem Referenzsignal d(k) im Sinne des<br />
mittleren quadratischen Fehlers<br />
möglichst ähnlich wird.<br />
Berechnung der Koeffizienten<br />
E e 2 (k) = E<br />
d(k) − ˆ <br />
2<br />
d(k)<br />
Betrachtet wird ein FIR-Filter der Ordnung N. Das Ausgangssignal des Filters ist nun durch<br />
die endliche Summe<br />
gegeben, wobei<br />
<strong>und</strong><br />
d (k) =<br />
ˆd(k)<br />
(7)<br />
N<br />
w(i)x (k − i) = w T x (k) (8)<br />
i=0<br />
w = (w(0),w(1),...,w(N)) T<br />
x(k)= (x (k),x (k − 1), ... ,x (k − N )) T<br />
die Vektoren der Filterkoeffizienten bzw. der Abtastwerte des Eingangssignals bezeichnen.<br />
Die Koeffizienten des Wiener Filters erhält man, indem man den mittleren quadratischen<br />
Fehler in Gleichung 7 nach den Filterkoeffizienten differenziert <strong>und</strong> die Ableitung gleich Null<br />
setzt:<br />
∂<br />
∂w(i) E{(d(k) − ˆ d(k)) 2 } = 0<br />
⇒ E{(d(k) − ˆ d(k))x(k − i)} = 0<br />
⇒ <br />
w(j)E{x(k − j)x(k − i)} = E{d(k)x(k − i)}<br />
j<br />
IT-V3 - 6<br />
(9)<br />
(10)
Dies ergibt ein Gleichungssystem mit N + 1 Gleichungen<br />
N<br />
w(i)rxx (j − i) = rdx (j), j = 0,...,N ,<br />
i=0<br />
welches in vektorieller Schreibweise in Form der Matrizengleichung<br />
Rxx wo=p (11)<br />
dargestellt werden kann. Rxx bezeichnet die Autokorrelationsmatrix des Signalvektors x(k)<br />
Rxx= E x (k)x T (k) =<br />
⎛<br />
⎜<br />
⎝<br />
rxx(0) rxx(1) · · · rxx(N)<br />
rxx(1) rxx(0) · · · rxx(N − 1)<br />
· · · · · · · · · · · ·<br />
rxx(N) · · · · · · rxx(0)<br />
<strong>und</strong> p den Kreuzkorrelationsvektor zwischen dem Referenzsignal d(k) <strong>und</strong> dem Signalvektor<br />
x(k)<br />
⎞<br />
⎟<br />
⎠<br />
(12)<br />
p= E {d (k)x(k)} = (rdx (0),rdx (1), ... ,rdx (N)) T . (13)<br />
Die optimalen Filterkoeffizienten wo erhält man somit durch Inversion der Korrelationsmatrix<br />
Rxx<br />
2.4 Adaptives FIR Wiener Filter<br />
wo = R −1<br />
xx p. (14)<br />
Die Berechnung des optimalen FIR Filters nach Gleichung 14 setzt die Kenntnis der Signalstatistik<br />
in Form der Korrelationsmatrix Rxx <strong>und</strong> des Kreuzkorrelationsvektors p voraus.<br />
Diese sind in der Regel jedoch nicht a priori bekannt <strong>und</strong> müssen bei veränderlicher Signalstatistik<br />
fortlaufend geschätzt werden. Wenn die Signale kurzzeitig stationär <strong>und</strong> ergodisch<br />
sind, kann die Signalstatistik aus Zeitmittelwerten über quasi-stationäre Signalabschnitte<br />
bestimmt werden. Ein besonders attraktives Verfahren zur Bestimmung der Filterkoeffizienten<br />
ist durch den LMS-Algorithmus gegeben. Der LMS-Algorithmus nähert sich iterativ<br />
ohne explizite Bestimmung der Korrelationsmatrix Rxx <strong>und</strong> des Kreuzkorrelationsvektors<br />
p dem Wiener Filter an. Wegen seines geringen Rechenaufwandes <strong>und</strong> seiner Robustheit<br />
gegenüber Störungen ist er von besonderer Bedeutung <strong>für</strong> uns.<br />
2.5 LMS- <strong>und</strong> NLMS-Algorithmen<br />
Die optimalen Koeffizienten zur Minimierung des mittleren quadratischen Fehlers nach<br />
Gleichung 7 können effizient mit einem iterativen Gradientenalgorithmus bestimmt werden.<br />
Der Least Mean Square Algorithmus (LMS-Algorithmus) approximiert den Gradienten<br />
des mittleren quadratischen Fehlers durch den Gradienten des aktuellen quadratischen<br />
Fehlers e 2 (k) <strong>und</strong> adaptiert die Filterkoeffizienten in Richtung des negativen geschätzten<br />
IT-V3 - 7
Gradienten. Für ein FIR Filter der Ordnung N erhält man mit dem aktuellen geschätzten<br />
Fehlergradienten<br />
die Koeffizientenrekursion des LMS-Algorithmus<br />
grad e 2 (k) = −2e (k)x(k) (15)<br />
w (k + 1) = w (k) + αe (k)x(k), (16)<br />
wobei α die Schrittweite bezeichnet. Die Konvergenz des Erwartungswertes der Filterkoeffizienten<br />
gegen den optimalen Koeffizientenvektor ist nur dann von Nutzen, wenn auch<br />
der mittlere quadratische Fehler einem endlichen, möglichst kleinen Wert zustrebt. Für<br />
gaußverteilte <strong>und</strong> mittelwertfreie Datenvektoren x(k) wird der Konvergenzbereich in [?] mit<br />
dem kleinsten Wert α angegeben, der die Gleichung<br />
α =<br />
N<br />
2<br />
λi (1 − αλi)<br />
i=0<br />
−1<br />
erfüllt, woraus sich als untere Schranke der maximale Wert der Schrittweite <strong>für</strong> Stabilität<br />
zu<br />
α =<br />
2<br />
3 · spur (Rxx)<br />
ergibt. Die λi bezeichnen die Eigenwerte der Korrelationsmatrix Rxx. Es zeigt sich allerdings,<br />
dass auch diese Schranke zu groß angesetzt ist. Im praktischen Einsatz muss der LMS-<br />
Algorithmus daher mit relativ kleiner Schrittweite betrieben werden.<br />
NLMS-Algorithmus<br />
Der Konvergenzbereich des LMS-Algorithmus ist nach Gleichung 18 von der Leistung des Signals<br />
x (k) abhängig. Der Normalized Least Mean Square Algorithmus (NLMS-Algorithmus)<br />
w (k + 1) = w (k) +<br />
(17)<br />
(18)<br />
α<br />
xT e (k)x(k) (19)<br />
(k)x(k)<br />
kann als ein LMS-Algorithmus mit auf die Energie des Signalvektors x T (k)x(k) normierter<br />
Schrittweite aufgefasst werden. Der Erwartungswert der Filterkoeffizienten konvergiert <strong>für</strong><br />
0 ≤ α ≤ 2 <strong>und</strong> gaußverteilte, mittelwertfreie Datenvektoren x(k) gegen das optimale Wiener<br />
Filter. Der Konvergenzbereich ist unabhängig von der Leistung des Signals x (k). Da die<br />
Schrittweite in den Grenzen 0 ≤ α ≤ 2 relativ groß gewählt werden kann, konvergiert der<br />
NLMS-Algorithmus unter Umständen schneller als der LMS-Algorithmus.<br />
3 Vom Algorithmus zur Echtzeit-Anwendung<br />
Bild 6 zeigt den Entwurfsprozess, an dem sich der vorliegende Versuch orientiert. Nachdem<br />
eine algorithmische Idee gef<strong>und</strong>en ist, wird diese zunächst auf ihr Verhalten unter den zu<br />
IT-V3 - 8
Algorithmus<br />
Simulation<br />
C-Code<br />
Objekt-Code,<br />
ausführbarer Code<br />
DSP-Board<br />
Hilfsmittel:<br />
Papier, Stift, Kopf<br />
Simulink, MATLAB<br />
Compiler <strong>und</strong> Linker,<br />
z.B. Code Composer Studio<br />
Professional Audio Development<br />
Kit, Lyrtech<br />
Bild 6: Entwurfsprozess vom Algorithmus zum echtzeitfähigen Programm.<br />
erwartenden Rahmenbedingungen (variirende Signaleigenschaften, Variation der Algorithmenparameter)<br />
hin untersucht. Dieser Schritt wird in einer geeigneten Simulationsumgebung<br />
vollzogen, wie z.B. Simulink (MATLAB ). Falls nötig, wird der Algorithmus verfeinert oder<br />
verändert <strong>und</strong> erneut simuliert. Hat der Algorithmus in der Simulation das gewünschte<br />
Verhalten bewiesen, kann von Simulink auf Knopfdruck automatisch der entsprechende C-<br />
Code generiert werden. Mit einem Compiler wird dieser übersetzt <strong>und</strong> mit einem Linker<br />
die Objekt-Dateien zu einem ausführbaren Programm verb<strong>und</strong>en. Dieses wird dann auf die<br />
Zielplattform heruntergeladen, auf der sich (u.a.) der digitale Signalprozessor (DSP), sowie<br />
AD- <strong>und</strong> DA-Wandler befinden. Nach Test des Echtzeitverhaltens des Algorithmus’ ist es<br />
unter Umständen notwendig, erneut Veränderungen im Simulink-Modell vorzunehmen, um<br />
so den Algorithmus in einer weiteren Iteration zu verfeinern.<br />
Die ersten Schritte, d.h. die Entwicklung einer Algorithmen-Idee <strong>und</strong> deren Umsetzung in<br />
ein Simulink-Modell ist <strong>für</strong> den vorliegenden Versuch weitestgehend <strong>für</strong> Sie vorbereitet bzw.<br />
abgeschlossen. Ihre <strong>Aufgabe</strong> ist es, das Simulink-Modell zu vervollständigen, zu untersuchen<br />
<strong>und</strong> schließlich in ein echtzeitfähiges Programm zu übersetzen, welches abschließend auf das<br />
DSP-Board heruntergeladen <strong>und</strong> getestet wird.<br />
Die folgenden Unterabschnitte führen in das DSP-Board ein, die notwendigen Schritte zur<br />
Generierung des C-Codes, das Übersetzung <strong>und</strong> Linken des C-Codes <strong>und</strong> das Herunterladen<br />
des ausführbaren Programmcodes auf das DSP-Board.<br />
IT-V3 - 9
3.1 Das DSP-Board<br />
Bei dem <strong>für</strong> diesen Versuch benutzten DSP-Board handelt es sich um das Professional<br />
Audio Development Kit (PADK) der Firma Lyrtech. Dieses Board verfügt über folgende<br />
Komponenten (s. Bild 7):<br />
Prozessoren:<br />
• DSP: Texas Instruments (C6000) TMS320C6727 300-MHz<br />
• FPGA: XC2S50E<br />
Speicher:<br />
• Flash: 16 MB<br />
• SDRAM: 128 MB<br />
Input/Output Interfaces:<br />
• 2 PCM4104, Vierkanal 24 Bit D/A-Umsetzer, 192 kHz<br />
• 2 PCM4104, Vierkanal 24 Bit A/D-Umsetzer, 192 kHz<br />
• SRC4192, 144 dB Dynamikumfang, 16:1/1:16 Abtastraten-Umsetzer<br />
• Koaxial <strong>und</strong> optisches S/PDIF, digitales I/O <strong>für</strong> Abtastraten bis zu 192 kHz<br />
• RS-232 UART<br />
• LED <strong>und</strong> DIP-Schalter<br />
• Word-Clock-Interface<br />
• Hi-speed USB-port<br />
• MIDI IN, OUT <strong>und</strong> THRU ports<br />
• Drei general-purpose analoge Eingänge<br />
3.2 Von Simulink zu C-Code<br />
Der Real-Time-Workshop unter Simulink erlaubt es, ausgehend von einem Simulink-Modell<br />
automatisch C-Code zu generieren, der die Funktionalität des Modells abbildet. Im Folgenden<br />
werden die Einstellungen erläutert, die hierzu notwendig sind.<br />
Zunächst muss ein Modell in Simulink erstellt werden. In diesem Modell müssen alle<br />
<strong>für</strong> den Versuchsaufbau wichtigen Simulink-Blöcke eingefügt <strong>und</strong> verschaltet werden (siehe<br />
Versuchsbeschreibung). Aus der Bibliothek "PADK Board Support", welche Sie im Library<br />
Browser von Simulink finden, müssen dann die A/D- <strong>und</strong> D/A-Wandler eingeb<strong>und</strong>en<br />
werden.<br />
IT-V3 - 10
Bild 7: Systemkomponenten des im Versuch verwendeten DSP-Boards.<br />
IT-V3 - 11
(a) Einstellungen des A/D-Wandlers (ADC) (b) Einstellungen des D/A-Wandlers (DAC)<br />
Bild 8: Parametereinstellungen der Blöcke ADC <strong>und</strong> DAC der PADK Support Library.<br />
Wenn alle Blöcke <strong>für</strong> die Echtzeit-Anwendung wie gewünscht verschaltet <strong>und</strong> alle Parameter<br />
korrekt eingestellt sind (s. Bild 8), kann mit dem Real-Time Workshop von MATLAB aus<br />
dem Simulink-Modell Quellcode zu erzeugen. Der Code wird in C generiert.<br />
IT-V3 - 12<br />
Um den Code fehlerfrei zu generieren,<br />
müssen einige Einstellungen im Model Explorer<br />
vorgenommen werden. Den Model<br />
Explorer finden Sie im Menü View, wie in<br />
der linken Abbildung gezeigt.<br />
Im Model Explorer öffnen Sie bitte das<br />
Menü mit dem Namen Ihres Modells<br />
<strong>und</strong> wählen den Unterpunkt Configuration<br />
(Active) aus.
Im mittleren Abschnitt des Fensters sollte<br />
dieses Menü erscheinen.<br />
Wenn Sie die einzelnen Menü-Punkte aktivieren, sehen Sie deren Inhalte im rechten Abschnitt<br />
des Fensters. Hier sind nun folgende Änderungen vorzunehmen:<br />
Solver: Data Import/Export:<br />
Optimization:<br />
Im Punkt Diagnostics muss keine Änderung vorgenommen werden.<br />
IT-V3 - 13<br />
Das Ansprechen des DSPs ist nur mit<br />
einem Fixed-step Solver ohne kontinuierliche<br />
Zustände möglich. Die Schrittweite<br />
des Solvers ist der Kehrwert der in<br />
den A/D- <strong>und</strong> D/A-Wandlern eingestellten<br />
Abtastrate.<br />
Da das Modell keine Daten aus dem<br />
Workspace von MATLAB laden oder dort<br />
abspeichern muss, werden in diesem Abschnitt<br />
alle Check-Boxen deaktiviert.<br />
Die linke Optimierungs-Einstellung bewirkt,<br />
dass die Berechnung von Zwischenergebnissen<br />
<strong>und</strong> die Nutzung von Puffern<br />
oder Variablen minimiert wird.
Hardware Implementation:<br />
Hier wird eingestellt, <strong>für</strong> welche Art von<br />
Prozessor der Code erzeugt wird.<br />
Im Punkt Model Referencing muss ebenfalls keine Änderung vorgenommen werden.<br />
Real-Time Workshop, Karteikarte General:<br />
Embedded IDE Link CC:<br />
IT-V3 - 14<br />
Hier wird unter Target selection als System<br />
target file die Datei "ccslink_grt.tlc"<br />
ausgewählt. Dies bewirkt, dass MATLAB<br />
<strong>und</strong> Simulink über Embedded IDE Link<br />
CCS miteinander verlinkt werden (siehe<br />
Abschnitt 3.3) <strong>und</strong> nach dieser Verlinkung<br />
der C-Code erzeugt wird.<br />
In diesem Fenster wird unter<br />
Runtime Options <strong>und</strong> Build action<br />
"Build_and_execute" ausgewählt.<br />
Es bewirkt, dass Embedded IDE<br />
Link CC automatisch ein Projekt<br />
im Code Composer Studio erzeugt<br />
(C-Entwicklungsumgebung), alle<br />
erforderlichen Dateien hinzufügt <strong>und</strong><br />
dieses Projekt direkt ausführt <strong>und</strong> nac<br />
h der Ausführung auf das Board lädt.<br />
Ein Klick auf ’Generate code’ genügt um<br />
den C-Code <strong>für</strong> das Simulink-Modell zu<br />
erstellen, das Code Composer Studio zu<br />
öffnen <strong>und</strong> das Projekt auszuführen.
3.3 Embedded IDE Link CC<br />
Die MATLAB -Erweiterung Embedded<br />
IDE Link CC verbindet MATLAB <strong>und</strong><br />
Simulink mit Code Composer Studio von<br />
Texas Instruments, einer Entwicklungsumgebung<br />
<strong>für</strong> C/C++.<br />
Mithilfe des Embedded IDE Link CC ist es möglich, aus Simulink heraus automatisch C-Code<br />
zu generieren, diesen in Code Composer Studio zu übersetzen, zu binden, den ausführbaren<br />
Code auf das Board herunterzuladen <strong>und</strong> schließlich auszuführen. Um Embedded IDE Link<br />
CC in einem Simulink-Modell zu benutzen, muss man in das gewünschte Modell ein Target<br />
Preferences Block einfügen. Solche Blöcke findet man im Simulink Library Browser in dem<br />
Menü Target Support Package TC6. Für das in diesem Versuch benutzte DSP Board ist hier<br />
der C6727PADK-Block zu benutzen. Wenn sich ein solcher Block in dem Simlink Modell<br />
befindet, wird Embedded IDE Link CC automatisch zur Code-Erzeugung genutzt.<br />
Um die Kette von automatisierten Arbeitsschritten (Simulink-Modell → C-Code →<br />
Object-Code → ausführbarer Code → Herunterladen auf das Board → Ausführen) zu<br />
ermöglichen, muss der PC mit dem DSP-Board über einen sogenannten JTAG-Emulator<br />
kommunizieren können. Das Wort JTAG steht <strong>für</strong> Joint Test Action Group. Es beschreibt<br />
Der JTAG-Emulator XDS510USB ist<br />
an dem JTAG Port des DSP’s auf dem<br />
Board auf der einen Seite <strong>und</strong> am PC via<br />
USB 2.0 auf der anderen Seite verb<strong>und</strong>en.<br />
einen Standard <strong>und</strong> ein häufig genutztes Verfahren zum Testen <strong>und</strong> zur Fehlersuche in<br />
einer Hardware. Zum Beispiel erlaubt es der JTAG-Emulator im laufenden Echtzeitbetrieb<br />
Registerwerte des DSP oder Programmvariablen auszulesen. Diese können dann mit ihren<br />
Sollwerten verglichen werden.<br />
4 <strong>Aufgabe</strong>n<br />
4.1 Vorbereitende <strong>Aufgabe</strong>n<br />
Quellenlokalisation in reflektionsarmer Umgebung<br />
0.1 Leiten Sie die Formel her, mit der aus dem Time Delay Of Arrival (TDOA), T,<br />
dem Mikrofonabstand d <strong>und</strong> der Schallgeschwindigkeit in Luft, c, der Einfallswinkel θ<br />
bestimmt werden kann (Direction Of Arrival, DOA), siehe Bild 2.<br />
IT-V3 - 15
0.2 Gehen Sie von einem zeitdiskreten System aus (Abtastfrequenz fA = 32 kHz), d.h.<br />
die Verzögerungszeiten T können nur ganzzahlige Vielfache des Abtastintervalls annehmen.<br />
Welche Winkel können lokalisiert werden (d = 0.24 m, c = 343 m/s)? In welchem<br />
Winkelbereich ist die Auflösung des linearen Arrays offensichtlich am höchsten?<br />
4.2 Messaufgaben<br />
Simulationen unter Simulink<br />
Im ersten <strong>Aufgabe</strong>nteil wird der Lokalisierungsalgorithmus unter Simulink untersucht. Die<br />
Mikrofonsignale werden <strong>für</strong> die Simulation künstlich generiert. Durch Aufruf der MATLAB-<br />
Funktion GenerateSignals() können zwei Mikrofonsignale generiert werden, die um die<br />
dem simulierten Einfallswinkel entsprechende Zeitspanne zueinander verzögert sind. Hilfe<br />
zu dieser Funktion erhalten Sie nach Aufruf von help GenerateSignals.<br />
1.1 Starten Sie Matlab <strong>und</strong> generieren Sie die zwei simulierten Mikrofonsignale <strong>für</strong> einen<br />
Einfallswinkel von 30 Grad. Führen Sie hierzu unter Matlab die folgenden Schritte<br />
durch:<br />
V3 % Script setzt einige Parameter<br />
[s fs] = wavread(’mann.wav’); % Signal von Platte lesen<br />
micPos.x = [0 0.24]; % [x,y]-Koordinaten Mikrofon 1 in m<br />
micPos.y = [0 0]; % [x,y]-Koordinaten Mikrofon 2 in m<br />
theta = 30; % simulierter Einfallswinkel in Grad<br />
y = GenerateSignals(s,micPos,theta,fs); % y: zweikanaliges Signal<br />
Erstellen Sie unter Matlab einen Graphen der beiden simulierten Mikrofonsignale<br />
(Matlab: figure, plot, grid). Lesen Sie an einem geeigneten Signalabschnitt den<br />
TDOA als Anzahl Abtastwerte ab. Welcher Zeit entspricht dies? Rechnen Sie mithilfe<br />
der Formel aus den vorbereitenden <strong>Aufgabe</strong>n den ermittelten TDOA in einen<br />
Winkel um. Erklären Sie, warum der berechnete Winkel nicht exakt den simulierten<br />
Einfallswinkel von θ = 30 Grad ergibt.<br />
1.2 Starten Sie nun Simulink <strong>und</strong> öffnen Sie das Modell des Lokalisierungsalgorithmus,<br />
VersuchV3_1.mdl. Schließen Sie an den Ausgang “TDOA (no interp.)” ein Anzeigenelement<br />
an, starten Sie die Simulation <strong>und</strong> überprüfen Sie, ob der Algorithmus den<br />
TDOA korrekt schätzt, der unter 1. (implizit) eingestellt wurde.<br />
Nach dem Starten der Simulation wird in zwei Fenstern der Betragsgang der Spektren<br />
beider Mikrofonsignale angezeigt. In einem weiteren Fenster wird der geschätzte<br />
Einfallswinkel mittels einer um den Winkel gekippten Geraden illustriert.<br />
1.3 Dem vorliegenden Simulink-Modell fehlt die Umrechnung vom geschätzten TDOA<br />
zum korrespondierenden Winkel (s. vorbereitende <strong>Aufgabe</strong>n). Realisieren Sie diesen<br />
Teil in Form von Simulink-Blöcken, die Sie an der gekennzeichneten Stelle im Modell<br />
einbauen. Überprüfen Sie anhand der Simulation, ob der Einfallswinkel von 30 Grad<br />
korrekt geschätzt wird.<br />
IT-V3 - 16
ohne Interpolation mit Interpolation<br />
simulierter Winkel, beobachteter TDOA, geschätzter Winkel, geschätzter Winkel,<br />
Grad Abtastwerte Grad Grad<br />
15<br />
20<br />
25<br />
30<br />
35<br />
40<br />
Tabelle 1: Tabelle zu den Messaufgaben 1.4 <strong>und</strong> 1.5.<br />
1.4 In der vorbereitenden <strong>Aufgabe</strong> 0.2 haben Sie die diskreten Winkel bestimmt, die von<br />
dem Algorithmus unter den gegebenen Parametern korrekt lokalisiert werden können.<br />
Überprüfen Sie Ihre Rechnung, indem Sie <strong>für</strong> jeden in der Tabelle 1 aufgeführten<br />
Winkel jeweils die Mikrofonsignale wie unter 1. generieren <strong>und</strong> anschließend den<br />
TDOA <strong>und</strong> den lokalisierten Winkel im Simulink-Modell ermitteln. Achten Sie darauf,<br />
dass das System eingeschwungen ist, wenn Sie die Werte ablesen. Tragen Sie die Simulationsergebnisse<br />
in die ersten beiden Spalten der Tabelle ein (“ohne Interpolation”).<br />
Um eine feinere Winkelauflösung realisieren zu können, muss offensichtlich die Quantelung<br />
der TDOA-Werte verringert werden. Dies ist bei gleichbleibender Geometrie des Arrays<br />
durch ein Erhöhen der Abtastrate möglich. Diese Maßnahme würde jedoch eine Änderung<br />
der Hardware erfordern (schnellere AD-Umsetzer). Stattdessen genügt es <strong>für</strong> eine verbesserte<br />
Winkelauflösung Zwischenwerte in der geschätzten Impulsantwort zu interpolieren. So kann<br />
der TDOA bezogen auf die ursprüngliche Abtastrate von fA = 32 kHz nicht nur ganzzahlige<br />
sondern auch gebrochen rationale Werte annehmen. Die zugehörigen vom Algorithmus<br />
ermittelten Einfallswinkel zeigen dann eine feinere Abstufung als ohne Interplolation. Dieses<br />
Verfahren ist im vorliegenden Simulink-Modell bereits implementiert: Die interpolierten<br />
TDOA-Werte stehen in der Simulation am Ausgang “TDOA (interp.)” zur Verfügung.<br />
1.5 Schalten Sie Ihren Block <strong>für</strong> die Berechnung des Einfallswinkels aus dem TDOA an den<br />
interpolierten TDOA-Ausgang. Generieren Sie erneut die Mikrofonsignale <strong>für</strong> die in<br />
Tabelle 1 angegebenen Einfallswinkel, führen Sie die Simulation aus <strong>und</strong> protokollieren<br />
Sie die nun mit Interpolation geschätzten Winkel (bei eingeschwungenem System) in<br />
Tabelle 1.<br />
1.6 Zeichnen Sie den absoluten Fehler der Winkelschätzung (in Grad) ohne, bzw. mit<br />
Interpolation der Impulsantwort. Vergleichen Sie die Ergebnisse, die Sie mit <strong>und</strong> ohne<br />
Interpolation erhalten haben.<br />
Erstellen <strong>und</strong> Test der Echtzeitanwendung<br />
Im zweiten <strong>Aufgabe</strong>nteil wird das Simulink-Modell der Lokalisierung in echtzeitfähigen Code<br />
umgewandelt, übersetzt <strong>und</strong> auf das Signalprozessor-Board heruntergeladen.<br />
IT-V3 - 17
2.1 Sehen Sie sich die beiden Mikrofonsignale auf dem Oszilloskop an. Stellen Sie den<br />
Mikrofonverstärker so ein, dass beide Signale die gleiche Verstärkung erfahren <strong>und</strong><br />
dabei bei normal lautem Besprechen Amplituden bis etwa 0.4 V erreichen. Schliessen<br />
Sie dann die beiden verstärkten Mikrofonsignale an die Anschlüsse 1 <strong>und</strong> 3 der “Analog<br />
Inputs” des DSP-Boards an.<br />
2.2 Laden Sie nun das Simulink-ModellVersuchV3_2.mdl, welches den TDOA ohne Interpolation<br />
schätzt. Ergänzen Sie das Modell wie zuvor in der Simulation unter Simulink<br />
um Ihre Umrechnung des TDOA in einen Winkel. Nehmen Sie die in Abschnitt<br />
3.2 beschriebenen Einstellungen vor. Durch Betätigen der Tastenkombination Strg-B<br />
wird dann der in Abschnitt 3 beschriebene Prozess ausgelöst, bei dem das Simulink-<br />
Modell in äquivalenten C-Code umgesetzt wird, dieser in Code Composer Studio<br />
übersetzt <strong>und</strong> geb<strong>und</strong>en wird <strong>und</strong> schließlich das ausführbare Programm auf das Board<br />
heruntergeladen <strong>und</strong> gestartet wird.<br />
Das Signalprozessor-Board verfügt über keine Anzeigemöglichkeit. Um dennoch in der Echtzeitumgebung<br />
die Information über den geschätzten Winkel zugänglich zu machen, wird vom<br />
Programm ein Sinus-Signal <strong>und</strong> ein Cosinus-Signal zur Verfügung gestellt, dessen Phasenlage<br />
der geschätzte Winkel θ ist. Sie stehen an den Anschlüssen 3 <strong>und</strong> 5 der “Analog Outputs” des<br />
DSP-Boards zu Verfügung. Werden diese beiden Signale an das Oszilloskop im xy-Betrieb<br />
gegeben, so zeigt sich auf dem Bildschirm eine um den Winkel θ gekippte Gerade, die somit<br />
wie zuvor in der Simulation auf anschauliche Art <strong>und</strong> Weise den geschätzten Einfallswinkel<br />
illustriert.<br />
2.3 Schließen Sie das Oszilloskop im xy-Betrieb an die beiden Ausgänge 5 <strong>und</strong> 7 des<br />
Signalprozessor-Boards an.<br />
Besprechen Sie das Mikrofonarray. Variieren Sie dabei den Einfallswinkel langsam von<br />
θ = 90 Grad bis 0 Grad. Zählen Sie die diskreten Winkelsprünge mit <strong>und</strong> vergleichen<br />
Sie das Ergebnis mit dem theoretischen Wert (vergleiche vorbereitende <strong>Aufgabe</strong> 0.2).<br />
2.4 Schließen Sie nun anstelle der nicht interpolierten die interpolierten TDOA-Werte<br />
an die Winkelberechnung an <strong>und</strong> testen Sie das Programm erneut. Sie sollten nun<br />
auf dem Oszilloskop eine Gerade beobachten können, die weitaus geringere Sprünge<br />
macht, wenn Sie das Array aus einem sich ändernden Winkel besprechen.<br />
IT-V3 - 18
Versuch IT-V4: Auditive virtuelle<br />
Umgebungen<br />
Inhaltsverzeichnis<br />
1 Eigenschaften einer auditiven virtuellen Umgebung 3<br />
1.1 Möglichkeiten zur Auralisierung . . . . . . . . . . . . . . . . . . . . . . . 6<br />
1.2 Authentische <strong>und</strong> plausible auditive virtuelle Umgebung . . . . . . . . . 7<br />
1.3 Berücksichtigung perzeptiver Parameter in vorhandenen Modellen . . . . 8<br />
1.4 Bedeutung früher Rückwürfe bei der Hörereignisbildung . . . . . . . . . . 9<br />
2 Künstlicher Nachhall 10<br />
2.1 Perzeptive Anforderungen an einen Hallgenerator . . . . . . . . . . . . . 10<br />
2.2 Perzeptiver Vergleich von Kamm- <strong>und</strong> Allpassfiltern . . . . . . . . . . . . 10<br />
2.3 Schroeders parallele Kammfilterstruktur . . . . . . . . . . . . . . . . . . 12<br />
2.4 Feedback Delay Networks (FDN) . . . . . . . . . . . . . . . . . . . . . . 12<br />
2.5 Statistische Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />
3 Winkelkontinuierliche Bestimmung Kopfbezogener Impulsantworten 15<br />
3.1 Definition der kopfbezogenen Impulsantworten . . . . . . . . . . . . . . . 15<br />
3.2 Iterative Berechnung mit dem LMS Algorithmus . . . . . . . . . . . . . . 16<br />
4 Die Echtzeit Anwendung 18<br />
4.1 Simulink . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />
4.1.1 Blockdiagramme . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />
4.1.2 Real-Time Workshop . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />
4.2 JACK Audio Connection Kit . . . . . . . . . . . . . . . . . . . . . . . . 19<br />
4.3 Von Simulink zum C-Code . . . . . . . . . . . . . . . . . . . . . . . . . . 19<br />
4.4 Vom C-Code zum echtzeitfähigen Programm . . . . . . . . . . . . . . . . 19<br />
5 Versuchsdurchführung 20<br />
5.1 Simulationsumgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />
5.2 Bestimmung der HRIRs . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />
5.3 Aufbau des Simulink-Modells <strong>für</strong> die HRIRs . . . . . . . . . . . . . . . . 21<br />
5.4 Festlegung der Simulationszeit . . . . . . . . . . . . . . . . . . . . . . . . 22<br />
5.5 Aufbau der Auditiven Virtuelle Umgebung . . . . . . . . . . . . . . . . . 24<br />
5.5.1 Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />
5.6 Untersuchungen mit der Auditiven Virtuellen Umgebung . . . . . . . . . 24<br />
IT-V4 1
5.6.1 Bestimmung der HRIRs <strong>für</strong> den Direktschall . . . . . . . . . . . . 24<br />
5.6.2 Frühe Rückwürfe <strong>und</strong> später Nachhall . . . . . . . . . . . . . . . 26<br />
5.7 Echtzeit-Anwendung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28<br />
5.7.1 Graphische Benutzeroberfläche . . . . . . . . . . . . . . . . . . . . 31<br />
5.8 <strong>Aufgabe</strong>n: Echtzeit-Anwendung . . . . . . . . . . . . . . . . . . . . . . . 31<br />
IT-V4 2
1 Eigenschaften einer auditiven virtuellen Umgebung<br />
1 Die <strong>Aufgabe</strong> auditiver virtueller Umgebungen besteht darin, Schallereignisse zu erzeugen,<br />
die zu Hörereignissen führen, die vom Hörer zumindest als plausibel akzeptiert<br />
werden. Hierzu ist es erforderlich, ein Modell der Umgebung zu erstellen, in die der Hörer<br />
versetzt werden soll; dieses Modell enthält auch die Gesetzmäßigkeiten, die die Herstellung<br />
des Schallfeldes bestimmen (z. B. Nachbildung der Naturgesetze der Schallausbreitung in<br />
realen Umgebungen). Für die zur Synthese des Schallfeldes notwendigen Berechnungen<br />
sind hierbei gr<strong>und</strong>sätzlich zwei Verfahren denkbar: der wellentheoretische Ansatz <strong>und</strong><br />
die geometrische Akustik. Vorteil der geometrischen Akustik ist der erheblich geringere<br />
Rechenzeitbedarf. Beim gegenwärtigen Stand der Technik ist allein mit diesem Ansatz<br />
die Implementierung eines realzeitfähigen <strong>und</strong> somit interaktiven Systems möglich.<br />
Hierbei werden der Wellencharakter bei der Schallausbreitung vernachlässigt <strong>und</strong><br />
Reflexionen mit Hilfe virtueller Schallquellen nachgebildet. Die geometrischen Orte dieser<br />
virtuellen Schallquellen werden mit Hilfe des Spiegelschallquellen- oder eines Strahlverfolgungsverfahrens<br />
aus dem Ort der primären Schallquelle <strong>und</strong> der geometrischen Beschreibung<br />
der reflektierenden Flächen berechnet. Der Ort des Empfängers muss berücksichtigt<br />
werden, um zu entscheiden, ob ein gültiger geometrischer Schallweg zwischen Quelle <strong>und</strong><br />
Empfänger existiert, d. h. ob diese virtuelle Schallquelle einen Beitrag zur Schallfeldsynthese<br />
liefert.<br />
Das Signal der virtuellen Schallquelle ergibt sich dabei aus dem Originalsignal unter<br />
Berücksichtigung der Eigenschaften der Übertragungsstrecke, die diesen Schallweg<br />
beschreibt. Dabei müssen folgende Elemente berücksichtigt werden:<br />
• Abstrahleigenschaften der Quelle (z. B. Richtcharakteristik)<br />
•<br />
•<br />
Übertragungseigenschaften des Mediums (z. B. in Abhängigkeit von der Luftfeuchtigkeit)<br />
Übertragungseigenschaften der reflektierenden Flächen (in Abhängigkeit von Einfallswinkel<br />
<strong>und</strong> Frequenz, z. B. geometrische <strong>und</strong> diffuse Reflexionen)<br />
• Empfangseigenschaften des Empfängers (z. B. Außenohrübertragungsfunktionen)<br />
Zur Berechnung des Signals werden diese Elemente als kausale lineare zeitinvariante<br />
Systeme angenommen, die sich durch FIR-Filter beliebig gut approximieren lassen; die<br />
Übertragungsfunktionen dieser Teilsysteme werden entweder berechnet oder durch Messung<br />
bestimmt <strong>und</strong> in entsprechenden Datenbanken im Simulationssystem abgelegt. Die<br />
Auswahl der Filter erfolgt anhand der Parameter des gerade betrachteten Schallweges<br />
(z. B. Abstrahlrichtung, Länge des Schallweges, Reflexionswinkel, Einfallsrichtung). Der<br />
Übergang zum interaktiven Realzeitsystem erfolgt durch die Betrachtung diskreter Zeitabschnitte,<br />
<strong>für</strong> die das Gesamtsystem wiederum als linear <strong>und</strong> zeitinvariant angenommen<br />
wird. Der Übergang zwischen einzelnen Zeitabschnitte stellt eine eigene Problemstellung<br />
dar, <strong>für</strong> die unterschiedliche Lösungen vorgeschlagen wurden (z. B. Output crossfading<br />
oder Parameter Tracking; [2]).<br />
1 Der Abschnitt 1 ist [1] entnommen<br />
IT-V4 3
Die Synthese des Gesamtschallfeldes erfolgt durch Superposition der Signale sämtlicher<br />
aktiver virtueller Schallquellen. Abhängig von der Genauigkeit des geometrischen<br />
Modells des Raumes (soweit unter den Annahmen der geometrischen Akustik sinnvoll)<br />
sowie der Genauigkeit der Nachbildung der Übertragungseigenschaften der beteiligten<br />
Teilsysteme lässt sich das Schallfeld mit theoretisch beliebig hoher Exaktheit synthetisieren.<br />
Abbildung 1 zeigt im Überblick die Struktur eines Systems zur Erzeugung<br />
einer auditiven virtuellen Umgebung: Auf der statischen Ebene befinden sich Datenbanken<br />
(z. B. Außenohrübertragungsfunktionen) <strong>und</strong> während der Simulation gleich blei-<br />
bende Eingangsdaten (z. B. Zuordnung von<br />
Übertragungsfunktionen zu reflektierenden<br />
Flächen). Auf der dynamischen Ebene befinden sich die veränderlichen Eingangsdaten<br />
(Quelle- <strong>und</strong> Empfängerposition), aus denen unter Berücksichtigung des geometrischen<br />
Modells die räumliche Verteilung der virtuellen Schallquellen berechnet wird. Aus den<br />
Ergebnissen dieser Berechnung ergeben sich die Signalverarbeitungsparameter: Für jede<br />
virtuelle Schallquelle wird ein individueller Signalverarbeitungspfad, benötigt. Aus der<br />
Entfernung zwischen virtueller Schallquelle VSQi <strong>und</strong> Empfänger ergeben sich die Laufzeitverzögerung<br />
Ti, die Ausbreitungsdämpfung gi <strong>und</strong> die frequenzabhängige Dämpfung<br />
Mi des Mediums (ein Verfahren zur Berechnung solcher Übertragungsfunktionen des<br />
Mediums wird in [3] beschrieben). Der Abstrahlwinkel von VSQi bestimmt die jeweilige<br />
Abstrahlrichtcharakteristik Di. Die Liste der reflektierenden Wände <strong>für</strong> diesen Schallweg<br />
ergibt die Kettenschaltung Hi der entsprechenden Wandübertragungsfunktionen: Hierzu<br />
wird auf die im akustischen Modell getroffene Zuordnung von Übertragungsfunktionen<br />
zu reflektierenden Flächen zurückgegriffen. Anhand des Einfallwinkels kann die jeweilige<br />
Außenohrübertragungsfunktion HRTF(ϕi,δi) <strong>für</strong> die Ohrsignalsynthese ausgewählt<br />
werden.<br />
Unter der Bedingung einer möglichst hohen Übereinstimmung des synthetisierten<br />
Schallfeldes mit dem realen Schallfeld ist somit die Voraussetzung <strong>für</strong> perzeptiv äquivalente<br />
Hörereignisse gegeben. Hierbei bleibt jedoch unberücksichtigt, inwieweit die durch<br />
Ausbreitung <strong>und</strong> Reflexionen entstehenden Änderungen des Signals durch das menschliche<br />
Gehör ausgewertet bzw. wahrgenommen werden. Wie man in Abbildung 1 erkennt,<br />
benötigt jeder Schallweg in etwa gleich viel Signalverarbeitungsresourcen: Diese konventionelle<br />
Methode der Auralisation hat daher gr<strong>und</strong>sätzlich brute-force Charakter.<br />
Voraussetzung <strong>für</strong> eine effizienter implementierte auditive virtuelle Umgebung wäre<br />
jedoch die Kenntnis von Regeln oder Gesetzmäßigkeiten: Diese müssen die Zulässigkeit<br />
möglicher Vereinfachungen qualitativ oder deren Auswirkung auf die Attribute des Hörereignisses<br />
quantitativ beschreiben. Ausgangspunkt <strong>für</strong> die Implementierung einer auditiven<br />
virtuellen Umgebung ist dann die Einhaltung vorgegebener Qualitätskriterien. Diese<br />
können folglich mit weniger Signalverarbeitungsressourcen als bei der konventionellen<br />
Methode realisiert werden, bzw. mit den vorhandenen Ressourcen kann eine höhere Qualität<br />
erreicht werden. Gleichzeitig können diese Regeln aber auch zur aktiven Gestaltung<br />
auditiver virtueller Umgebungen eingesetzt werden, bei denen das Ziel nicht Authentizität,<br />
sondern Plausibilität (s. Abschnitt 1.2) ist (z. B. innerhalb einer Mensch-Maschine-<br />
Schnittstelle): Bestimmte Attribute des Hörereignisses (z. B. Ausdehnung) können dann<br />
gezielt beeinflusst werden.<br />
Diese Regeln lassen sich nur mit Hilfe psychoakustischer Untersuchungen bestimmen.<br />
Als einfache Methode bieten sich hierzu z. B. AB-Vergleiche an, wobei die Referenzstimuli<br />
mit Hilfe der konventionellen Methode erzeugt werden <strong>und</strong> die Versuchspersonen Gleich-<br />
IT-V4 4
Bild 1: System zur Erzeugung einer auditiven virtuellen Umgebung [1]<br />
IT-V4 5
oder Ungleichheit bestimmter Attribute der Hörereignisse beurteilen müssen. Eine andere<br />
Möglichkeit bieten Herstellungsmethoden, bei der die Versuchsperson aufgefordert wird,<br />
Parameter der virtuellen Umgebung so zu verändern, dass sich ein bestimmtes Hörereignis<br />
(bzw. -attribut) einstellt (z. B. Entfernungseindruck).<br />
Es ist offensichtlich, dass die so gewonnenen Ergebnisse nicht nur zur Optimierung<br />
auditiver virtueller Umgebungen eingesetzt werden können, sondern auch Schlussfolgerungen<br />
über Phänomene des Hörens ermöglichen (z. B. Präzedenzeffekt, s. Abschnitt 1.4). Es<br />
ergeben sich somit drei Anwendungsgebiete <strong>für</strong> die Ergebnisse solcher psychoakustischen<br />
Untersuchungen:<br />
• optimierte Nutzung von Signalverarbeitungsressourcen<br />
• neue Gestaltungsmöglichkeiten <strong>für</strong> plausible auditive virtuelle Umgebungen<br />
• Erweiterung von Modellen des räumlichen Hörens in reflexionsbehafteter Umgebung<br />
Beim Entwurf eines Auditory Displays sind natürlich die Möglichkeiten zur optimalen<br />
Nutzung der Signalverarbeitungsressourcen sowie zur Gestaltung des Hörereignisses von<br />
vorrangigem Interesse.<br />
1.1 Möglichkeiten zur Auralisierung<br />
Neben den Schallfeldmodellen sind auch die unterschiedlichen Möglichkeiten zur Auralisierung<br />
von gr<strong>und</strong>legender Bedeutung. Ziel der Auralisierung ist die Anregung des Gehörs<br />
entsprechend dem gewählten Schallfeldmodell. Letztendlich muss also ein kontrollierter<br />
Schalldruckverlauf am Trommelfell des Hörers hergestellt werden. Dieses Ziel kann sowohl<br />
mit Kopfhörer- (Ohrsignalsynthese) als auch Lautsprecherbeschallung (Schallfeldsynthese)<br />
erreicht werden.<br />
Zur Kopfhörerbeschallung wird das Signal jeder virtuellen Quelle mit einem Paar<br />
kopfbezogener Impulsantworten gefaltet, die das<br />
Übertragungsverhalten der Außenoh-<br />
ren nachbilden (HRIR: head-related impulse response bzw. HRTF: head-related transfer<br />
function; [4]). Für jede gewünschte Schalleinfallsrichtung wird eine eigene Außenohrübertragungsfunktion<br />
sowohl <strong>für</strong> das linke als auch das rechte Ohr benötigt. Außenohrübertragungsfunktionen<br />
können entweder gemessen [5] oder modelliert werden [6, 7]. Um (sowohl<br />
unwillkürliche als auch willkürliche) Kopfbewegungen des Hörers zu berücksichtigen, ist<br />
es erforderlich, bei der Auralisierung die Position <strong>und</strong> Ausrichtung des Kopfes fortlaufend<br />
zu messen <strong>und</strong> in die Schallfeldberechnung miteinzubeziehen. Hierdurch wird das<br />
Lokalisationsvermögen des Hörers in der virtuellen Umgebung verbessert [8].<br />
Zur Lautsprecherbeschallung sind unterschiedliche Verfahren entwickelt worden. Schroeder<br />
<strong>und</strong> Atal [9] entwickelten ein transaurales System, das mit zwei Lautsprechern<br />
realisiert wird. [10] beschreibt das Ambisonics-Verfahren, das <strong>für</strong> unterschiedliche Lautsprecherkonfigurationen<br />
geeignet ist. Gleiches gilt <strong>für</strong> das Vector Base Amplitude Panning<br />
(VBAP) Verfahren von Pulkki [11]. Die Wave Field Synthesis von Berkhout u.<br />
a. [12] benötigt eine Vielzahl von Lautsprechern zur Realisierung. Ein gr<strong>und</strong>sätzliches<br />
Problem bei Lautsprecherverfahren ist die Abhängigkeit der Qualität der Darbietung<br />
(z. B. Genauigkeit der Lokalisation von Schallquellen) vom Hörerort. Ein Vergleich der<br />
Lokalisationsgenauigkeit bei Verwendung des Ambisonics- sowie des VBAP-Verfahrens<br />
wurde von Strauss <strong>und</strong> Buchholz [13] vorgenommen.<br />
IT-V4 6
1.2 Authentische <strong>und</strong> plausible auditive virtuelle Umgebung<br />
Die Unterscheidung zwischen authentischer <strong>und</strong> plausibler auditiver virtueller Umgebung<br />
ergibt sich aus den unterschiedlichen Zielsetzungen (auch wenn beide mit demselben<br />
Simulationsverfahren erzeugt werden können). Vereinfacht kann die authentische auditive<br />
virtuelle Umgebung auch als Spezialfall der plausiblen auditiven virtuellen Umgebung<br />
betrachtet werden.<br />
Das Ziel einer authentischen auditiven virtuellen Umgebung ist, Schallereignisse zu<br />
erzeugen, die zu Hörereignissen führen, die denen einer spezifischen, als Computermodell<br />
nachgebildeten realen Umgebung äquivalent sind. Hierbei kann es sich um eine bestehende<br />
bekannte oder um eine geplante reale Umgebung handeln. Entscheidend ist, dass ein<br />
möglichst hohes Maß an Übereinstimmung zwischen den jeweiligen Hörereignissen erreicht<br />
wird. Dies hängt natürlich nicht nur von dem Simulationsverfahren als solches ab (z. B.<br />
Berücksichtigung diffuser Reflexionen), sondern auch von der Qualität der Daten, die<br />
als Eingangsparameter dienen (z. B. Detailtreue des geometrischen Modells, Modellierung<br />
der Wandmaterialien) <strong>und</strong> die durch physikalische Messungen gewonnen werden.<br />
Ein typisches Einsatzgebiet <strong>für</strong> eine authentische auditive virtuelle Umgebung ist die<br />
raumakustische Planung; die auditive virtuelle Umgebung dient hierbei als Werkzeug zur<br />
Auralisation <strong>und</strong> zur Berechnung gewünschter Kennzahlen (z. B. Nachhallzeit).<br />
Das Ziel einer plausiblen auditiven virtuellen Umgebung ist es, Schallereignisse zu<br />
erzeugen, die zu Hörereignissen führen, von denen der Hörer annimmt, dass sie in einer<br />
ihm bekannten oder unbekannten realen Umgebung entstehen könnten, d.h. sie werden<br />
von ihm nicht als Artefakte empf<strong>und</strong>en. Aus der Art der Anwendung können sich weitere<br />
Rahmenbedingungen ergeben: Typische Einsatzgebiete <strong>für</strong> plausible auditive virtuelle<br />
Umgebungen sind Mensch-Maschine-Schnittstellen <strong>und</strong> Telekommunikationssysteme; die<br />
auditive virtuelle Umgebung dient hier zur Auralisation der Kommunikationskanäle in einer<br />
räumlichen Anordnung, um bei der Kommunikation von den Vorteilen des räumlichen<br />
Hörens zu profitieren (z. B. Cocktail-Party-Effekt).<br />
Prinzipiell besteht selbstverständlich die Möglichkeit, einen realen Raum (von dem<br />
bekannt ist, dass er <strong>für</strong> eine spezifische Anwendung gut geeignet ist, z. B. Besprechungszimmer<br />
<strong>für</strong> Teleconferencing) durch eine authentische auditive virtuelle Umgebung zu<br />
simulieren <strong>und</strong> damit ein System zu realisieren, dessen Anforderungen sich auch mit<br />
einer plausiblen auditiven virtuellen Umgebung erfüllen lassen. Davon abgesehen, dass<br />
dieser Ansatz i. a. zu einem überdimensionierten System führen wird, beraubt man sich<br />
damit auch der zusätzlichen Gestaltungsmöglichkeiten, die die virtuelle Umgebung bietet.<br />
Dies betrifft zum Einen die Anordnung der virtuellen Schallquellen (z. B. räumliche<br />
Verteilungen, die sich nicht mittels des Spiegelschallquellenverfahrens aus einer realen<br />
Raumgeometrie konstruieren lassen), zum anderen die Modellierung der durch eine virtuelle<br />
Schallquelle repräsentierten Filterwirkung (im authentischen System enthält dieser<br />
Filter die<br />
Übertragungsfunktionen der Teilsysteme, die an diesem Schallweg beteiligt<br />
sind). Hier sind ebenfalls Eigenschaften denkbar, die sich durch reale akustische Systeme<br />
nicht verwirklichen lassen, aber z. B. <strong>für</strong> ein Kommunikationssystem von Vorteil sein<br />
könnten.<br />
IT-V4 7
1.3 Berücksichtigung perzeptiver Parameter in vorhandenen Modellen<br />
Vorhandene Raumsimulationssysteme verstehen sich i. a. als authentische auditive virtuelle<br />
Umgebung. In der Praxis ist jedoch ein fließender Übergang zwischen plausibler <strong>und</strong><br />
authentischer auditiver virtueller Umgebung zu beobachten. Raumsimulationssysteme<br />
erheben zwar den Anspruch, die physikalische Realität möglichst genau nachzubilden:<br />
Dennoch gibt es auch aus diesem Bereich einige perzeptiv motivierte Ansätze zu Vereinfachungen<br />
bei der Schallfeldberechnung, um die immensen Rechenzeiten zu reduzieren.<br />
• Die Auswirkungen von Vereinfachungen der akustischen Eigenschaften der reflektierenden<br />
Flächen sowie geometrischer Vereinfachungen wurden von Pompetzki [14]<br />
untersucht. Aufgr<strong>und</strong> systematischer Fehler des verwendeten Strahlverfolgungsverfahrens<br />
werden nicht alle Rückwürfe detektiert: Pompetzki beschreibt ein statistisches<br />
Verfahren zur Energiekorrektur von Rückwürfen im späten Nachhallbereich,<br />
um diese Fehler auditiv zu kompensieren.<br />
• Lehnert <strong>und</strong> Richter [15] untersuchten die Zulässigkeit der Verwendung von Außenohrübertragungsfunktionen<br />
mit einer verringerten Anzahl von Filterkoeffizienten.<br />
Kriterium <strong>für</strong> die Zulässigkeit war die Ununterscheidbarkeit von Stimuli im<br />
A-B-Vergleich: Zur Herstellung der Stimuli wurden Rückwürfe mit unterschiedlich<br />
langen Außenohrimpulsantworten auralisiert.<br />
• Sahrhage <strong>und</strong> Hunold [16] implementierten ein psychoakustisch motiviertes Modell<br />
zur Eliminierung nicht wahrnehmbarer Rückwürfe. Die Auswahl von Rückwürfen<br />
<strong>für</strong> die Auralisierung stützt sich auf psychoakustische Untersuchungen zur Wahnehmbarkeit<br />
von Rückwürfen. Sahrhage <strong>und</strong> Hunold implementieren einen Algorithmus,<br />
der auf Gr<strong>und</strong>lage dieser Daten entscheidet, ob ein Rückwurf durch den Direktschall<br />
oder einen anderen Rückwurf maskiert wird: In diesem Fall wird der Rückwurf nicht<br />
auralisiert. Die dadurch freiwerdenden Signalverarbeitungsressourcen werden <strong>für</strong> die<br />
Auralisierung von Rückwürfen höherer Ordnung genutzt.<br />
• Heinz [17] beschreibt ein hybrides Raumsimulationssystem, bei dem mittlerer <strong>und</strong><br />
später Nachhallbereich durch statistische Verfahren berechnet werden, während<br />
Direktschall <strong>und</strong> frühe Rückwürfe durch geometrische <strong>und</strong> diffuse Reflexionen modelliert<br />
werden. Die unterschiedliche Behandlung wird durch die unterschiedliche<br />
Auswertung dieser Bereiche im menschlichen Gehör motiviert <strong>und</strong> gerechtfertigt.<br />
Aufgr<strong>und</strong> der Zielsetzung der authentischen auditiven virtuellen Umgebung wurde zumeist<br />
jedoch nur die Übereinstimmung bzw. Identität der Hörereignisse der Auralisation<br />
mit <strong>und</strong> ohne Anwendung der oben beschriebenen Vereinfachungen untersucht. Von den<br />
zuvor beschriebenen drei Fragestellungen einer solchen psychoakustischen Untersuchung<br />
ist somit allenfalls eine beantwortet, nämlich die der (Rechenzeit-) Optimierung einer<br />
authentischen auditiven virtuellen Umgebung. Eine weitergehende Klassifizierung der<br />
beobachteten Unterschiede in den Hörereignissen, aus der sich Gestaltungsregeln <strong>für</strong><br />
plausible auditive virtuelle Umgebungen ableiten ließen oder eine Interpretation dieser<br />
Unterschiede in Hinblick auf das binaurale Hören in reflexionsbehafteter Umgebung steht<br />
noch aus.<br />
IT-V4 8
1.4 Bedeutung früher Rückwürfe bei der Hörereignisbildung<br />
Die Wahrnehmung mehrerer korrelierter Schallereignisse führt häufig nur zu einem Hörereignis:<br />
Die beiden wichtigsten Ursachen <strong>für</strong> dieses Phänomen sind die Summenlokalisation<br />
<strong>und</strong> der Präzedenzeffekt. Die Summenlokalisation ist u. a. Gr<strong>und</strong>lage stereofonischer<br />
Systeme; die Bedingungen, unter denen Summenlokalisation zustande kommt, werden<br />
von Blauert [4] beschrieben. Der Präzedenzeffekt ist insbesondere beim Hören in reflexionsbehafteter<br />
Umgebung von Bedeutung. Hierbei führt die Überlagerung von Direktschall<br />
<strong>und</strong> Rückwürfen zu einem Hörereignis, dessen Ort von der Position der Quelle des<br />
Direktschalls bestimmt wird 2 . Ein ausführlicher Überblick über zahlreiche gr<strong>und</strong>legende<br />
Untersuchungen zum Präzedenzeffekt wird von Blauert [4] gegeben. Für die Gestaltung eines<br />
Auditory Display ist es wichtig, dass beim Präzedenzeffekt die Rückwürfe nicht einfach<br />
unterdrückt werden: Stattdessen ist es so, dass bestimmte Merkmale des Hörereignisses<br />
(z. B. Entfernung <strong>und</strong> Ausdehnung) durch die Rückwürfe entscheidend mitbestimmt<br />
werden. Diese Merkmale können aber als Informationsträger genutzt werden (z. B. kann<br />
der Hörereignisort eines Warnsignals genutzt werden, um den Ort der Gefahrenquelle zu<br />
konnotieren). Auf die Auralisierung von Rückwürfen kann also nicht verzichtet werden.<br />
Hartmann [18] beschreibt Lokalisationsexperimente in einem realen Raum, bei dem<br />
sowohl die Raumgeometrie als auch die akustischen Eigenschaften der Wände verändert<br />
wurden; zusätzlich wurden diese Experimente mit unterschiedlichen Arten von Stimuli<br />
durchgeführt. Hartmann beobachtete eine Beeinflussung der Lokalisation durch die<br />
zeitliche Reihenfolge früher Rückwürfe, die er durch<br />
Änderungen der Raumgeometrie<br />
beeinflusste. Er beschreibt außerdem eine größere Unbestimmtheit der Lokalisation bei<br />
frühen seitlichen Rückwürfen, was im Prinzip mit dem bereits erwähnten Begriff der<br />
Räumlichkeit aus der Konzertsaalakustik übereinstimmt.<br />
Dieser Einfluss der frühen seitlichen Rückwürfe wird von Blauert <strong>und</strong> Lindemann<br />
[19] bestätigt, die ihre Versuche mit realen Quellen in einem reflexionsarmen Raum<br />
durchführten. Der Direktschall wurde über einen frontalen Lautsprecher wiedergegeben.<br />
Die Rückwürfe wurden mit seitlich aufgestellten Lautsprechern simuliert, über die das<br />
Signal zeitverzögert <strong>und</strong> z. T. spektral modifiziert wiedergegeben wurde; als Tonmaterial<br />
diente reflexionsarm aufgenommene Orchestermusik. Diese Darbietungen wurden mit<br />
einem Kunstkopf binaural aufgezeichnet <strong>und</strong> den Versuchspersonen im Paarvergleich<br />
dargeboten.<br />
Guski [20] führte Lokalisationsexperimente ebenfalls in einem reflexionsarmen Raum<br />
durch, in den zusätzlich eine reflektierende Fläche eingebracht wurde. Die Position dieser<br />
Fläche wurde zwischen den einzelnen Versuchsdurchläufen verändert. Hierdurch wurde<br />
entweder eine seitliche, eine Boden-, oder eine Deckenreflexion erzeugt. Als Schlussfolgerung<br />
aus den Ergebnissen schreibt Guski der Bodenreflexion eine besondere Bedeutung<br />
zu: Bei dieser Anordnung wurde die Elevation der Schallquelle von den Versuchspersonen<br />
präziser geschätzt.<br />
2 Der Präzedenzeffekt wird deswegen häufig auch als ,,Gesetz der ersten Wellenfront” bezeichnet.<br />
IT-V4 9
2 Künstlicher Nachhall<br />
3 Die ersten analogen Geräte zur Erzeugung künstlichen Nachhalls nutzten mechanische<br />
Prinzipien <strong>und</strong> bestanden aus Federn oder Hallplatten. Heute verwendet man digitale<br />
Geräte, die digitalisierte Audiosignale in Echtzeit verarbeiten. Seit der Pionierarbeit von<br />
Schroeder in den 60’er Jahren wurde in der Literatur eine Vielzahl von Algorithmen vorgeschlagen,<br />
die auf rekursiven digitalen Verzögerungsnetzwerken beruhen, [21] - [25]. Selbst<br />
mit einer großen Anzahl von Filterabgriffen oder gar mit variablen Verzögerungslängen<br />
ist es bei diesen Algorithmen schwierig, unnatürliche Resonanzen zu verhindern, die einen<br />
charakteristischen Klang verursachen, der gemeinhin als “metallisch” bezeichnet wird.<br />
2.1 Perzeptive Anforderungen an einen Hallgenerator<br />
Unter der Annahme, dass alle relevanten physikalischen Phänomene linear sind, läßt sich<br />
der gesamte Verhallungsprozeß durch eine binaurale Impulsantwort angeben. Eine Raumsimulation<br />
durch Faltung eines Eingangssignals mit einer gemessenen oder berechneten<br />
Impulsantwort erfordert jedoch viel Rechenleistung 4 . Auch wenn eine extrem genaue<br />
Simulation <strong>für</strong> einige Anwendungen wie z. B. Echounterdrückung erforderlich ist, ist eine<br />
solche Genauigkeit <strong>für</strong> einen überzeugenden künstlichen Nachhalleffekt nicht notwendig.<br />
Für die Erzeugung künstlichen Nachhals genügt, dass er perzeptiv nicht unterscheidbar<br />
ist von natürlichem Nachhall.<br />
Beginnend mit Sabines Formel zur Nachhallzeit wurde eine ganze Reihe von psychoakustischen<br />
Untersuchungen durchgeführt, um Kriterien zur Beschreibung der akustischen<br />
Qualität von Räumen zu finden. Seit der Arbeit von Barron ist es üblich, zwei<br />
Teile des Verhallungsprozesses zu unterscheiden: Die frühen Reflektionen (näherungsweise<br />
die ersten 80ms der Impulsantwort) <strong>und</strong> der späte Nachhall (der verbleibende Teil der<br />
Impulsantwort) [26]. Die frühe Impulsantwort besteht aus diskreten Rückwürfen, deren<br />
Zeit- <strong>und</strong> Amplitudenverteilung stark von der Form des Raumes <strong>und</strong> der Position der<br />
Quelle <strong>und</strong> des Empfängers abhängt. Diese Rückwürfe sind von zentraler Bedeutung <strong>für</strong><br />
den subjektiven räumlichen Eindruck. Im Gegensatz dazu eignet sich der späte Nachhall<br />
<strong>für</strong> eine eher statistische Beschreibung. Er kann als Charakteristik der Außenwände<br />
betrachtet werden <strong>und</strong> ist unabhängig von der Position der Quelle <strong>und</strong> des Empfängers.<br />
Diese Beobachtungen rechtfertigen ein Konstruktionsverfahren, das sich hauptsächlich<br />
auf den Entwurf eines “Hallfilters” zur Simulation späten monauralen Nachhhalls konzentriert.<br />
2.2 Perzeptiver Vergleich von Kamm- <strong>und</strong> Allpassfiltern<br />
Kamm- <strong>und</strong> Allpassfilter sind IIR Filter mit einem Verzögerungselement, die sich nur<br />
durch den zusätzlichen Direktpfad beim Allpassfilter unterscheiden, wie in Abbildung 2<br />
dargestellt [21, 22]. Schroeder fand heraus, dass mit einer einfachen Modifikation der<br />
Amplitude des ersten Impulses der Impulsantwort ein Allpassfilters <strong>und</strong> somit ein Filter<br />
mit konstantem Amplitudengang erzielt werden kann [21]. Für ein stationäres Eingangssignal<br />
reduziert das Allpassfilter die starke Klangfarbenänderung, die von den Kammfiltern<br />
3 Der Abschnitt 2 ist [27] <strong>und</strong> [28] entnommen<br />
4 Auf einem modernen PC ist die benötigte Rechenleistung vernachlässigbar klein<br />
IT-V4 10
verursacht werden. Die Antwort des Filters auf Eingangssignale mit kurzen Transienten<br />
offenbart aber zwei Schwächen des Filters:<br />
a) Die “Rückwurfdichte” der zeitlichen Impulsantwort ist nicht hoch genug (verursacht<br />
“Flatterechos”)<br />
b) Die Klangfärbung des Kammfilters wird nicht beseitigt.<br />
Hört man sich direkt die Impulsantwort an, wird dies recht deutlich. Der Effekt hängt<br />
stark von dem Rückkopplungsfaktor g ab. Dabei ist zu beachten, dass die Impulsantwort<br />
des Allpassfilters auf einen einzigen Impuls reduziert wird (die Amplitude des ersten<br />
Impulses wird (−g), die Amplitude des zweiten wird (1 − g 2 ), siehe Abbildung 2(b)),<br />
wenn g sich dem Wert 1 annähert (Stabilitätsgrenze). In diesem Fall hat das Allpassfilter<br />
gar keinen Einfluss auf das Eingangssignal! Für kleinere Werte <strong>für</strong> g ist die Klangfarbe<br />
des Kammfilters im letzten Teil der Impulsantwort des Allpassfilters hörbar. Für |g| = 1 √ 2<br />
ist kaum ein Unterschied zwischen den Impulsantworten beider Filtern zu hören. Dieses<br />
Ergebnis ist nicht weiter verw<strong>und</strong>erlich, da die Impulsantworten bis auf den ersten Impuls<br />
identisch sind (siehe Abbildung 2). Diese Beobachtungen verdeutlichen den Einfluss des<br />
Eingangssignals auf Hörversuche <strong>und</strong> weisen darauf hin, dass allein schon die Impulsantwort<br />
nützliche Informationen zur Beurteilung der Qualität von Hallgeneratoren liefert.<br />
Ein Vergleichstest kann mit Hilfe einer Kurzzeitfouriertransformation (Sonogram) <strong>und</strong><br />
den Impulsantworten durchgeführt werden, wie in [25] vorgeschlagen.<br />
x( t)<br />
y(t)<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
−0.2<br />
−0.4<br />
−0.6<br />
+<br />
z -m g<br />
(a) Kammfilter<br />
−0.8<br />
0 5 10 15<br />
t / mT<br />
(c) Impulsantwort des Kammfilters<br />
y( t)<br />
x( t)<br />
y(t)<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
−0.2<br />
−0.4<br />
−0.6<br />
g<br />
z -m<br />
+ +<br />
(b) Allpassfilter<br />
-g<br />
−0.8<br />
0 5 10 15<br />
t / mT<br />
(d) Impulsantwort des Allpassfilters<br />
Bild 2: Vergleich von Kamm- <strong>und</strong> Allpassfilter <strong>für</strong> g = −1<br />
√ 2<br />
IT-V4 11<br />
y( t)
x( t)<br />
g 1<br />
z -m1<br />
z -m1 z -m2 z -m3 + + +<br />
+ +<br />
+<br />
-g 1<br />
g 2<br />
-g 2<br />
Bild 3: Serienschaltung von Allpassfiltern<br />
2.3 Schroeders parallele Kammfilterstruktur<br />
Um die “Rückwurfdichte” (Anzahl der Rückwürfe pro Sek<strong>und</strong>e in der Impulsantwort)<br />
unter Vermeidung von Klangfarbenänderungen zu verbessern, schlug Schroeder im Wesentlichen<br />
eine Kombinationen der beiden o. g. Filterkomponenten vor: Eine Serienschaltung<br />
von Allpassfiltern (Abbildung 3) <strong>und</strong> eine Parallelschaltung von Kammfiltern<br />
(Abbildung 4). Eine Serie von Allpassfiltern ergibt ein neues Allpassfilter mit konstantem<br />
Amplitudengang. Es erzeugt auch einen Anstieg der Rückwurfdichte ähnlich dem, der<br />
in einem echten Raum auftritt. Die unnatürlichen Klangverfärbungen bei kurzen Transienten<br />
sind dabei aber leider immer noch vorhanden, wie von Moorer berichtet [22]. Mit<br />
den parallelen Kammfiltern kann ein konstanter Amplitudengang nicht erreicht werden.<br />
Wenn der Frequenzgang auf Gr<strong>und</strong> von vielen Überlagerungen von Kammfilterresonanzen<br />
eine genügend große Anzahl an Resonanzüberhöhungen pro Hz aufweist, ähnelt er mehr<br />
dem eines echten Raums. Interessanterweise verschwinden die Klangverfärbungen der<br />
einzelnen Kammfilter sogar <strong>für</strong> impulsartige Eingangssignale, wenn die resultierenden<br />
Nachhallzeiten der einzelnen Filter gleich gewählt werden.<br />
x( t)<br />
+<br />
z -m 1<br />
g 1<br />
z<br />
g2 -m2 + +<br />
+<br />
z -m 3<br />
Bild 4: Parallelschaltung von Kammfiltern<br />
2.4 Feedback Delay Networks (FDN)<br />
Ein Netzwerk mit N Verzögerungselementen der Länge τi = miT <strong>und</strong> einem Ein- <strong>und</strong><br />
Ausgang läßt sich ganz allgemein als Linearkombination von verzögerten Rückkopplungs-<br />
g 3<br />
IT-V4 12<br />
+<br />
g 3<br />
y( t)<br />
-g 3<br />
y( t)
x( t)<br />
b 1<br />
b 2<br />
b 3<br />
+<br />
+<br />
+<br />
z -m 1<br />
z -m 2<br />
- 3<br />
z m<br />
q1( t)<br />
q2( t)<br />
q3( t)<br />
a 11<br />
a 13<br />
a 21<br />
a 31<br />
a 12 a 22 a 32<br />
a 23<br />
a 33<br />
Bild 5: Feedback Delay Network<br />
signalen qi(t) <strong>und</strong> dem Eingangssignal x(t) angeben:<br />
y(t) =<br />
c 1<br />
c 2<br />
c 3<br />
d<br />
+<br />
+<br />
+<br />
y( t)<br />
N<br />
ciqi(t) + dx(t) (1)<br />
i=1<br />
qi(t + mj) = aijqi(t) + bjx(t) (2)<br />
Das resultierende Netzwerk ist in Abbildung 5 dargestellt. Die Rückkopplungsmatrix<br />
A enthält dabei die Rückkopplungsfaktoren aij von Verzögerungselement i zu Verzögerungselement<br />
j. Diese von Stautner <strong>und</strong> Puckette vorgeschlagenen feedback delay networks<br />
(FDN) können, wie in Abbildung 6 dargestellt, durch Tiefpaßfilter erweitert werden, um<br />
frequenzabhängige Nachhallzeiten realisieren zu können [23].<br />
x( t)<br />
b 1<br />
b 2<br />
b 3<br />
+<br />
z -m 1<br />
a 11<br />
a 13<br />
a 21<br />
a 31<br />
a 12 a 22 a 32<br />
z -m2 + c2 +<br />
+<br />
z -m 3<br />
h1( z)<br />
h2( z)<br />
a 23<br />
a 33<br />
z c3 + t( z)<br />
h 3( )<br />
Bild 6: Modifiziertes Feedback Delay Network<br />
IT-V4 13<br />
c 1<br />
d<br />
+<br />
y( t)
2.5 Statistische Modelle<br />
Moorer bemerkte, dass es eine gewisse Ähnlichkeit zwischen der Raumimpulsantwort<br />
eines Konzertsaales <strong>und</strong> weißem Rauschen multipliziert mit einer exponentiell abklingenden<br />
Einhüllenden gibt <strong>und</strong> dass die Faltung eines trockenen Audiosignal mit dieser<br />
synthetischen Impulsantwort einen natürlich klingenden Halleffekt bewirkt [22]. Nach<br />
Polack kann die synthetische Raumimpulsantwort als Realisierung eines nicht stationären<br />
stochastischen Prozesses betrachtet werden:<br />
h(t) = b(t)e −δt<br />
for t ≥ 0 (3)<br />
b(t) sei hier mittelwertfreies, stationäres, Gaußsches Rauschen <strong>und</strong> δ die Konstante zur<br />
Einstellung der Nachhallzeit. Um eine frequenzabhängige Nachhallzeit zu erhalten, schlug<br />
Moorer vor, eine Filterbank zu verwenden <strong>und</strong> die Ausgänge zu addieren, nachdem sie<br />
mit exponentiell abklingenden Einhüllenden multipliziert wurden (Abbildung 7).<br />
H(f)<br />
125 250 500 1k 2k 4k<br />
e d1t<br />
b( t)<br />
stationäres weißes Rauschen<br />
e d2t<br />
Filterbank<br />
e d3t<br />
e d4t<br />
h( t)<br />
synthetische Impulsantwort<br />
e d5t<br />
x x x x x x<br />
n<br />
e d6t<br />
d i =<br />
d( t)<br />
Direktschall<br />
Bild 7: Synthese einer Raumimpulsantwort nach Moorer<br />
IT-V4 14<br />
f<br />
-3 ln10<br />
Tr i
3 Winkelkontinuierliche Bestimmung Kopfbezogener<br />
Impulsantworten<br />
3.1 Definition der kopfbezogenen Impulsantworten<br />
Kopfbezogene Impulsantworten (engl. head related impulse responses: HRIRs) sind das<br />
entscheidende Werkzeug zur Erzeugung virtueller akustischer Realitäten <strong>für</strong> kopfhörerbasierte<br />
Auralisierung. HRIRs beschreiben das richtungsabhängige Übertragungsverhalten<br />
des Schalls von einer Schallquelle im Raum zu einem Bezugspunkt im linken/rechten Außenohr.<br />
Da sich der Schall im Gehörgang unabhängig von der Einfallsrichtung ausbreiten,<br />
wird als Bezugspunkt oft Ohreneingang gewählt. Der Versuch einer präziseren Definition<br />
dieses Bezugspunktes ist noch immer Gr<strong>und</strong>lage aktueller Forschung.<br />
Die Defintion der HRIRs begrenzt sich eindeutig auf die Beschreibung der akustischen<br />
Empfängereigenschaften (im wesentlichen Außenohr, Kopf <strong>und</strong> Oberkörper des<br />
Hörers) <strong>und</strong> soll keinerlei Charakteristik der akustischen Umgebung (also eines Raumes)<br />
aufweisen. HRIRs sind also unter sogenannten Freifeldbedingungen definiert. Praktisch<br />
werden Freifeldbedingungen näherungsweise in speziell ausgekleideten, reflexionsarmen<br />
akustischen Meßräumen erreicht.<br />
Abbildung 8 verdeutlicht schematisch die Anordnung von akustischer Signalquelle<br />
(Lautsprecher) <strong>und</strong> Empfänger (Kopf). Die Signalquelle ist dabei durch das elektrische<br />
Signal x(k) zum Abtastzeitpunkt k beschrieben, während die resultierenden Größen am<br />
Ort des Empfängers durch die beiden elektrischen Signale y1(k) <strong>und</strong> y2(k) gegeben sind.<br />
Diese elektrischen Größen am Empfänger können über geeignete Meßmikrofone erzeugt<br />
werden. Ein experimenteller Aufbau dieser Art kann zur Bestimmung der HRIRs genutzt<br />
werden.<br />
x(k)<br />
ϕk<br />
y1(k)<br />
y2(k)<br />
play and<br />
record<br />
Bild 8: Zur Definition <strong>und</strong> Messung kopfbezogener Impulsantworten.<br />
Zu den bereits erwähnten Empfängereigenschaften zählen vor allen Dingen die Phänomene<br />
der akustischen Beugung <strong>und</strong> Reflexion sowie die interauralen Laufzeit- <strong>und</strong> Dämpfungunterschiede<br />
der eintreffenden Wellenfront. All diese Eigenschaften können in der<br />
IT-V4 15
linearen Systemtheorie durch die Impulsantworten von der Signalquelle zum Eingang des<br />
Gehörgangs erfasst werden. Mit dem Meßsignal x(k) <strong>und</strong> den beiden Empfangssignalen<br />
y1(k) <strong>und</strong> y2(k) erfolgt also die mathematische Definition der HRIRs hi(κ,ϕk) im Sinne<br />
der linearen Faltung:<br />
yi(k) =<br />
N<br />
x(k − κ)hi(κ,ϕk) . (4)<br />
κ=0<br />
Die azimuthale Winkelabhängigkeit der zeitdiskreten Impulsantworten hi(κ,ϕk) wird<br />
durch das Winkelargument ϕk beider HRIRs berücksichtigt. Beide Impulsantworten,<br />
welche durch i ∈ {1,2} indiziert sind, seien außerdem durch die endliche Zahl von N Koeffizienten<br />
modelliert. N muß dabei so gewählt werden, dass die gr<strong>und</strong>sätzlich unendlich<br />
langen akustischen Impulsantworten mit hinreichender Genauigkeit beschrieben werden.<br />
An dieser Stelle wird praktisch immer ein Kompromiß von Genauigkeit <strong>und</strong> Komplexität<br />
der mathematischen Beschreibung eingegangen. Bei einer Abtastfrequenz von 44.1<br />
kHz wird üblicherweise mit N = 128 oder N = 256 Koeffizienten der Impulsantwort<br />
gearbeitet.<br />
Das Konzept der azimuthalen Winkelabhängigkeit (horizontale Ebene) kann gr<strong>und</strong>sätzlich<br />
auf eine dreidimensionale Abhängigkeit erweitert werden, soll aber an dieser Stelle<br />
nicht weiter thematisiert werden. Die Versuchdurchführung ermöglicht jedoch auch ein<br />
eingeschränktes Experimentieren mit dreidimensionaler virtueller akustischer Realität.<br />
Unter Laborbedingungen kann, bei gleichzeitiger Wiedergabe des Meßsignales x(k), eine<br />
Aufnahme der Signale y1(k) <strong>und</strong> y2(k) entweder personalisiert oder unter Zuhilfenahme<br />
der Kunstkopftechnik erfolgen. Mit Kenntnis dieser Signale können dann mit Hilfe von<br />
Kreuzkorrelationstechniken der digitalen Signalverarbeitung die interessierenden kopfbezogenen<br />
Impulsantworten errechnet werden. Die so gef<strong>und</strong>enen HRIRs dienen dann<br />
als Werkzeug innerhalb eines Systemes zur Erzeugung virtueller akustischer Realität.<br />
Personalisierte Messungen liefern mehr akustische Transparenz <strong>und</strong> ermöglichen eine<br />
genauere akustische Lokalisierung virtueller Tonquellen, müssen aber <strong>für</strong> den entsprechenden<br />
Benutzer individuell <strong>und</strong> mit geeignetem Gerät durchgeführt werden.<br />
3.2 Iterative Berechnung mit dem LMS Algorithmus<br />
Traditionell erfolgt die Messung der HRIRs <strong>für</strong> eine begrenzte Anzahl ausgewählter<br />
Winkel ϕ. Die Justierung des Meßequipments <strong>und</strong> die eigentliche Messung im Abstand<br />
von üblicherweise ∆ϕ = 5..10 Grad ist in diesem Falle sehr zeitintensiv. Die gef<strong>und</strong>enen<br />
HRIRs werden dann in Tabellenform den Systemen zur Erzeugung virtueller Realitäten<br />
zur Verfügung gestellt <strong>und</strong> die Erzeugung von HRIRs an den Zwischenwinkeln muß vom<br />
System zusätzlich geleistet werden. Hierzu benutzen die Systeme der virtuellen Realität<br />
im allgemeinen Techniken der Interpolation, wobei die Wahl einer geeigneten räumlichen<br />
Interpolationsmethode <strong>für</strong> Impulsantworten ebenfalls Gegenstand der Forschung ist.<br />
In diesem Versuch wird ein neuartiges, am Institut <strong>für</strong> Kommunikationsakustik entwickeltes<br />
Verfahren [29] zur unmittelbar winkelkontinuierlichen Bestimmung der Impulsantworten<br />
eingesetzt. Das Verfahren beruht auf der Erkenntnis, dass eine messtechnische<br />
Bestimmung der HRIRs <strong>für</strong> alle Winkel ϕ mit endlichem Zeitaufwand zwangsläufig dynamisch<br />
erfolgen muss. Praktisch wird das Messobjekt (also z. B. ein mit zweikanaliger<br />
IT-V4 16
Aufnahmetechnik ausgestatter Kunstkopf) während der Messsignalwiedergabe einmal<br />
um 360 ◦ um seine Achse gedreht. Zu jedem Zeitpunkt k gilt dann im Rahmen der<br />
Aufnahme ein anderes Winkelargument ϕk. Die resultierenden Aufnahmesignale y1/2(k)<br />
repräsentieren dann die winkelkontinuierliche Gesamtheit aller HRIRs. Nach derzeitigem<br />
Stand der Forschung kann die erforderliche Aufnahmedauer unter einer Minute liegen.<br />
Die Extraktion der benötigten HRIRs aus dem Aufnahmesignal geschieht in diesem<br />
Verfahren mit Hilfe einer iterativen Technik aus der digitalen Signalverarbeitung, dem<br />
s.g. Least-Mean-Square (LMS) Algorithmus. Der Algorithmus beruht auf vektorwertigen<br />
Berechnungsvorschriften, die im Folgenden noch kurz beschrieben werden:<br />
Zum Aufnahmezeitpunkt k <strong>und</strong> dem dazugehörigen Winkel ϕk beschreibe der Vektor<br />
x(k) = (x(k), x(k − 1), . . .,x(k − N + 1)) T<br />
die endliche Anzahl N der zuletzt abgespielten Abtastwerte des Meßsignals. Weiterhin<br />
enthalten die Vektoren<br />
hi(ϕk) = (hi(0,ϕk), hi(1,ϕk), . . .hi(N − 1,ϕk)) T<br />
die N Koeffizieten der bereits oben definierten kopfbezogenen Impulsantworten hi(κ,ϕk).<br />
Es handelt sich also um eine kompakte vektorielle Darstellung der HRIRs.<br />
Der iterative LMS Algorithmus bestimmt nun die HRIRs zum beliebigen Zeitpunkt<br />
k + 1 aus den bereits gef<strong>und</strong>en HRIRs zum Zeitpunkt k,<br />
ei(k)x(k)<br />
hi(ϕk+1) = hi(ϕk) + µ0<br />
||x(k)|| 2 2<br />
(5)<br />
(6)<br />
(7)<br />
ei(k) = yi(k) − h T i (ϕk)x(k) , (8)<br />
<strong>und</strong> nutzt hierzu die Differenzsignale ei(k), deren mittlere Leistungen bei gelungener<br />
Identifikation der HRIRs minimiert werden. Die Größe ||x(k)|| 2 2 bezeichnet in diesem<br />
Algorithmus die 2-Norm des Vektors x(k), während der skalare Faktor 0 ≤ µ0 ≤ 1 zur<br />
Anpassung des Algorithmus an die Umdrehungsgeschwindigkeit bei der Signalaufnahme<br />
dient.<br />
Mit der Verfügbarkeit der Signale x(k) <strong>und</strong> y1/2(k) kann das iterative Verfahren<br />
an einer beliebigen Stelle k gestartet werden, wobei üblicherweise eine Initialisierung<br />
der HRIRs mit Null erfolgt. Wenn die HRIRs zum gewünschten Winkel ϕ gef<strong>und</strong>en<br />
sind, wird das Verfahren abgebrochen. Werden neue HRIRs <strong>für</strong> einen neuen Winkel ϕ<br />
benötigt, so kann die Iteration direkt an der Abbruchstelle fortgesetzt werden (ohne neue<br />
Initialisierung).<br />
Für eine Erzeugung virtueller, kontinuierlich bewegter Tonquellen kann das neue<br />
Verfahren kontinuierlich angepasste HRIRs liefern. Das iterative Berechnungsverfahren<br />
(LMS Algorithmus) muß in diesem Falle ohne Unterbrechung ausgeführt werden. Anstatt<br />
der traditionellen HRIR-Tabellen werden im Zusammenhang mit dem neuen Verfahren<br />
die vorab gemessenen Signale x(k) <strong>und</strong> y1/2(k) als Informationsquelle im System zur<br />
Erzeugung virtueller Realität gespeichert.<br />
IT-V4 17
4 Die Echtzeit Anwendung<br />
In diesem Versuchsteil geht es darum eine Auditive Virtuelle Umgebung (engl. Auditory<br />
Virtual Environment - AVE) auf dem Rechner zu modellieren, um daraus eine Echtzeit-<br />
Anwendung zu erstellen. Um diese beiden <strong>Aufgabe</strong>n zu erfüllen, werden im Folgenden<br />
einige komplexe Werkzeuge benutzt, die hier einmal genauer vorgestellt werden. Einen<br />
Überblick über den Ablauf der Entstehung der Echtzeit-Anwendung gibt Bild 9.<br />
AVE Real−Time<br />
Simulink<br />
Model<br />
Workshop<br />
Parameter<br />
4.1 Simulink<br />
4.1.1 Blockdiagramme<br />
Bild 9: Ablauf der <strong>Aufgabe</strong>n<br />
Software<br />
Environment:<br />
(JACK Application)<br />
Die Plattform Simulink ist eine Erweiterung zu dem bereits bekannten Programm Matlab<br />
von The MathWorks. Sie dient der Simulation <strong>und</strong> dem modellbasierten Entwurf<br />
dynamischer Systeme. Es werden eine interaktive, grafische Entwicklungsumgebung mit<br />
individuell anpassbaren Blockbibliotheken geboten, <strong>für</strong> die eine Reihe von Erweiterungen<br />
<strong>für</strong> spezielle Anwendungsgebiete zur Verfügung stehen. Simulink ermöglicht die hierarchische<br />
Modellierung mit Hilfe grafischer Blöcke. Dabei stellt Simulink eine Gr<strong>und</strong>menge<br />
an kontinuierlichen <strong>und</strong> diskreten Schaltblöcken zur Verfügung. Der Datenfluss zwischen<br />
den Blöcken wird grafisch über Verbindungslinien realisiert (sog. gerichteter Graph).<br />
4.1.2 Real-Time Workshop<br />
Mit Hilfe der Toolbox Real-Time Workshop kann aus einem Simulink-Modell Programmcode<br />
erzeugt werden, der mit Konfigurationsdateien <strong>für</strong> verschiedene Zielsprachen anpassbar<br />
ist. In diesem Praktikum wird C-Code aus dem Simulink-Modell erzeugt. Der<br />
erzeugte Code lässt sich <strong>für</strong> vielfältige Echtzeit- <strong>und</strong> Nicht-Echtzeit-Anwendungen nutzen,<br />
etwa zur Simulationsbeschleunigung, <strong>für</strong> das Rapid Prototyping <strong>und</strong> <strong>für</strong> Hardwarein-the-Loop-Tests.<br />
Der generierte Code kann mit Simulink-Blöcken sowie integrierten<br />
Analysefunktionen optimiert <strong>und</strong> kontrolliert oder außerhalb der Matlab- <strong>und</strong> Simulink-<br />
Umgebung ausgeführt <strong>und</strong> beeinflusst werden.<br />
IT-V4 18
4.2 JACK Audio Connection Kit<br />
Für die Anwendung in Echtzeit wird nun das JACK Audio Connection Kit benutzt.<br />
Dabei handelt es sich um eine Softwareschnittstelle <strong>für</strong> Audio-Computerprogramme (Clients)<br />
unter Unix-ähnlichen Systemen. Dieser sog. JACK-Server verwaltet die Ein- <strong>und</strong><br />
Ausgänge von Audioprogrammen <strong>und</strong> Audio-Hardware (z. B. Mikrofoneingang <strong>und</strong> Audioausgang<br />
der So<strong>und</strong>karte) <strong>und</strong> routet die Audiosignale zwischen ihnen. Der JACK-<br />
Server synchronisiert die Clients, indem er zu festen Zeiten Callback-Funktionen aufruft,<br />
die einen Block von Audiodaten am Eingang der So<strong>und</strong>karte einlesen oder an den Ausgang<br />
weitergeben. In diesem Praktikum benutzen Sie die Oberfläche mit dem Kommando<br />
qjackctl. In Bild 10 sehen Sie einen JACK-Server direkt nach dem Aufruf von ”qjackctl”.<br />
Bild 10: JACK-Server<br />
4.3 Von Simulink zum C-Code<br />
Um mit Hilfe des JACK-Servers eine Echtzeit-Anwendung zu realisieren, muss C-Code,<br />
in dem die Callback-Funktionen <strong>für</strong> die JACK-Anwendung eingeb<strong>und</strong>en sind, erzeugt <strong>und</strong><br />
kompiliert werden. Um aus einem Simulink-Modell C-Code zu erzeugen, wird in diesem<br />
Fall der Generic Real-Time Workshop von Matlab benutzt, welcher aus den einzelnen<br />
Blöcken <strong>und</strong> Algorithmen eines Simulink-Modells automatisch C-Code generiert.<br />
4.4 Vom C-Code zum echtzeitfähigen Programm<br />
Ist der C-Code generiert, geht es darum ihn mit dem JACK-Server zu verbinden <strong>und</strong><br />
dann zu kompilieren, um das Echtzeit-Programm ausführen zu können. Zu diesem Zweck<br />
muss der Code in ein bereits vorhandenes C-Projekt eingefügt werden, in welchem die Einstellungen<br />
<strong>für</strong> die JACK-Anwendung vorgenommen werden. Dort werden Verbindungen<br />
vom C-Projekt zum JACK-Server <strong>und</strong> von dort aus zur So<strong>und</strong>karte eingestellt. Die Ein<strong>und</strong><br />
Ausgänge werden mit Hilfe einer globalen Speicherumgebung (global memory area)<br />
realisiert. Dadurch lassen sich die Signale, welche an den Ein- <strong>und</strong> Ausgängen anliegen,<br />
direkt vom C-Code ansprechen, auslesen oder an andere Speicheradressen kopieren. Somit<br />
kann eine Signalverarbeitung des Eingangssignals realisiert werden, indem der Eingang<br />
eingelesen, mit dem aus Simulink erzeugten Code verarbeitet, <strong>und</strong> an den Ausgang<br />
zurückgegeben wird. Die bearbeiteten Signale am Ausgang werden ausgelesen <strong>und</strong> vom<br />
C-Projekt an den JACK-Server weitergegeben. Das C-Projekt <strong>für</strong> JACK zusammen<br />
mit dem generierten Code aus Simulink, dem Input/Output-Interface <strong>und</strong> dem JACK-<br />
Server bilden den Software-Teil der Echtzeit-Anwendung. Dieser kommuniziert mit der<br />
IT-V4 19
So<strong>und</strong>karte <strong>und</strong> stellt sicher, dass alle Signale an den Eingängen eingelesen, bearbeitet<br />
<strong>und</strong> dann an die Ausgänge der So<strong>und</strong>karte zurückgegeben werden. Die Bearbeitung der<br />
Signale an den Ein- <strong>und</strong> Ausgängen der So<strong>und</strong>karte erfolgt mit einer Abtastrate (Sampling<br />
Frequency) von 44,1 kHz. Eine Übersicht über die Interaktionen zwischen den einzelnen<br />
Programmteilen <strong>und</strong> der Hardware wird in Bild 11 gezeigt.<br />
Simulink<br />
Inputs<br />
Code<br />
Outputs<br />
Funktionsaufruf<br />
C − Projekt<br />
JACK Server<br />
Software−Environment (SW)<br />
CD−Player<br />
(Audio−In)<br />
Fs = 44.1kHz<br />
So<strong>und</strong>karte<br />
Kopfhörer<br />
(Audio−Out)<br />
Bild 11: Schema der Soft- <strong>und</strong> Hardwareinteraktion<br />
5 Versuchsdurchführung<br />
Dieser Versuch ist in zwei Abschnitte unterteilt:<br />
• Winkelkontinuierliche Bestimmung kopfbezogener Impulsantworten (HRIRs)<br />
• Aufbau einer Raumsimulation (Auditive Virtuelle Umgebung) durch Faltung eines<br />
Eingangsignals (mono Signal) mit synthetisierten Raumimpulsantworten<br />
IT-V4 20
Beide Experimente werden in Simulink durchgeführt. Im Hintergr<strong>und</strong> wird zur Erzeugung<br />
der Impulsantworten, die die frühen Rückwürfe <strong>und</strong> den späten Nachhall enthalten,<br />
zusätzlicher Matlab-Code genutzt. Eine weitere Analyse des Matlab-Codes ist nicht Gegenstand<br />
der Versuchsdurchführung.<br />
5.1 Simulationsumgebung<br />
Sämtliche in diesem Versuch gebrauchten Dateien befinden sich auf dem Desktop im<br />
Ordner “V4”. Hier befinden sich alle Daten, die eingelesen werden müssen sowie bereits<br />
angelegte leere Simulink-Modelle (*.mdl), in denen die während des Praktikums angefertigten<br />
Blockdiagramme gespeichert werden sollen. Aus diesem Gr<strong>und</strong> ist es wichtig,<br />
dass Matlab <strong>und</strong> Simulink von diesem Ordner aus gestartet wird. Um in den gewünschten<br />
Ordner zu gelangen öffnet man eine Konsole <strong>und</strong> tippt “cd Desktop/V4” ein. Um Matlab<br />
zu starten gibt man “matlab” ein. Um nun Simulink zu öffnen gibt man im Matlab-<br />
Hauptfenster “simulink” ein.<br />
5.2 Bestimmung der HRIRs<br />
Mit den vorab gemessenen Signalen x(k) <strong>und</strong> y1/2(k) können die kopfbezogenen Impulsantworten<br />
wie in Bild 8 bestimmt werden. Diese Signale sind in den Dateien xk 20s.wav<br />
(mono) yk 20s.wav (Stereo) bei einer Abtastfrequenz von 44.1 kHz gespeichert. Die<br />
Umdrehungsdauer des Meßobjektes (z.B. Kunstkopf) beträgt 19.5 Sek<strong>und</strong>en. Das Stereosignal<br />
y1/2(k) ermöglicht die Bestimmung der kopfbezogenen Impulsantworten sowohl<br />
<strong>für</strong> das linke als auch <strong>für</strong> das rechte Ohr.<br />
5.3 Aufbau des Simulink-Modells <strong>für</strong> die HRIRs<br />
Öffnen Sie nun die Datei “HRIR.mdl”. Erstellen Sie in diesem leeren Modell ein wie in<br />
Bild 23 dargestelltes Blockdiagramm zur Berechnung der kopfbezogenen Impulsantworten.<br />
Sollten Sie einen der benötigten Blöcke nicht unmittelbar finden, können die Blöcke<br />
in der Symbolzeile des “Simulink Library Browser” namentlich gesucht werden (“Enter<br />
search term”). Wo Sie die Blöcke der “ikaLib” finden ist im Bild 12 gezeigt.<br />
• Kopieren Sie die Blöcke “Reference Input” <strong>und</strong> “Microphone Signal” von der IKA<br />
Audio Library (ikaLib) in ein leeres Simulink-Modell, um die Signale x(k) <strong>und</strong><br />
y1/2(k) einzulesen.<br />
• Kopieren Sie dann zwei “LMS Filter” Blöcke aus der “Simulink-Library” in das<br />
Modell <strong>und</strong> nehmen Sie die Einstellungen wie in Bild 13 gezeigt vor.<br />
• Verwenden Sie einen “Constant-Block” aus der Simulink-Library um die Schrittweiteneingang<br />
(Step-size) des NLMS-Algorithmus zu beschalten.<br />
• Da in diesem Versuch zunächst nur die Impulsantwort der Filter (Ausgang Wts -<br />
weights) untersucht wird, verbinden Sie die anderen beiden Ausgänge der Filter mit<br />
einem ”Terminator“.<br />
IT-V4 21
Bild 12: ikaLib in Simulink<br />
• Die Impulsantworten stellen Sie mit einem ”Vector Scope“ dar <strong>und</strong> speichern Sie<br />
als ”left“ <strong>und</strong> ”right“ im Matlab Workspace über die Blöcke ”ToWorkspace“.<br />
• Verbinden Sie alle Blöcke wie in Bild 23 gezeigt.<br />
• Für die Initialisierung des Modells laden Sie die Datei configLMS.mat in den<br />
Matlab-Workspace. Führen Sie hierzu unter Matlab den folgenden Schritt durch:<br />
load(’configLMS.mat’);<br />
5.4 Festlegung der Simulationszeit<br />
In den Signalen x(k) <strong>und</strong> y1/2(k) korrespondiert jeder Aufnahmezeitpunkt mit einer<br />
bestimmten Winkelposition des Meßobjektes (z.B. Kunstkopf). Um die kopfbezogenen<br />
Impulsantworten <strong>für</strong> einen gewünschten Winkel ϕ zu berechnen, müssen also die Daten<br />
x(k) <strong>und</strong> y1/2(k) mit dem Simulink-Aufbau vom Anfang bis zum jeweiligen Aufnahmezeitpunkt<br />
prozessiert werden. Hierzu muss unter “Simulink → Configuration Parameters”<br />
die Simulationszeit entsprechend eingestellt werden, wie in Bild 14 gezeigt. Bei einer<br />
Umdrehungsdauer von T360 Sek<strong>und</strong>en können Sie die “Stop time” <strong>und</strong> die “Start time”<br />
der Simulation mit folgenden Formeln berechnen:<br />
Start time = ϕ<br />
360 × T360 − 0.5<br />
Stop time = ϕ<br />
360 × T360 . (9)<br />
IT-V4 22
Bild 13: Einstellungen des LMS Filter-Blocks.<br />
Bild 14: Einstellung der Simulationszeit <strong>für</strong> die Bestimmung der HRIRs.<br />
IT-V4 23
5.5 Aufbau der Auditiven Virtuelle Umgebung<br />
5.5.1 Simulation<br />
Eine auditive virtuelle Umgebung besteht aus einer Simulation des richtungsabhängigen<br />
Direktschalles sowie der Simulation früher <strong>und</strong> später Reflexionen. Öffnen Sie nun das<br />
ebenfalls leere Modell ”AVE.mdl“ <strong>und</strong> bauen Sie das Blockschaltbild einer auditiven<br />
virtuellen Umgebung nach dem Vorbild von Bild 24 auf:<br />
• Kopieren Sie die Simulink-Blöcke “Direct So<strong>und</strong>”, “Early Reflections” <strong>und</strong> “Late<br />
Reverberations”(jeweils left <strong>und</strong> right) von der IKA Audio Library (ikaLib) in das<br />
Simulink-Modell <strong>und</strong> speisen Sie die Module durch ein Audiosignal (WavFromFile).<br />
• Fügen Sie digitale Schalter zum Aktivieren bzw. Deaktivieren der drei Module<br />
hinzu, indem Sie Konstanten (Constant) hinzufügen, welche auf 1 oder 0 eingestellt<br />
werden können, mit denen die Signale multipliziert werden. In diese Blöcke tragen<br />
Sie die Variablennamen ”dsEn (Direct So<strong>und</strong> Enable)“, ”erEn (Early Reflections<br />
Enable)” <strong>und</strong> “lrEn (Late Reverberations Enable)” ein, welche sich schon im<br />
Workspace befinden, <strong>und</strong> über welche die Effekte ein- <strong>und</strong> ausgeschaltet werden<br />
können.<br />
• Addieren Sie die Ausgangssignale der drei Module <strong>und</strong> führen Sie das Ergebnis<br />
einem Audiowiedergabe-Block (Play Stereo) zu.<br />
• Stellen Sie die Simulationszeit ein, wie in Bild 15 gezeigt.<br />
• Die Blöcke, welche in dem Bild 24 die Signale von der Quelle zur Verarbeitung <strong>und</strong><br />
später zur Addition verbinden, heißen ”GoTo“ <strong>und</strong> ”From“. Sie werden über die<br />
sog. Tags gesteuert, d.h. alle GoTo <strong>und</strong> From-Blöcke, in denen Sie die gleichen Tags<br />
einsetzen, werden miteinander verb<strong>und</strong>en. In Bild 16 sehen Sie zum Beispiel die<br />
”Sink Block Parameters“ eines ”GoTo-Blocks“.<br />
Nun speichern Sie das Modell neu (über ”Speichern unter...“) unter dem Namen<br />
”AVEsim.mdl” im Ordner ”V4“ auf dem Desktop ab. In diesem Ordner sollten sich jetzt<br />
drei Simulink-Modelle befinden - ”HRIR.mdl“,”AVEsim.mdl“ <strong>und</strong> ”AVE.mdl“.<br />
5.6 Untersuchungen mit der Auditiven Virtuellen Umgebung<br />
5.6.1 Bestimmung der HRIRs <strong>für</strong> den Direktschall<br />
Hinweis: In dieser <strong>Aufgabe</strong> werden wir uns nur mit dem Direktschall beschäftigten.<br />
Frühe Rückwürfe <strong>und</strong> später Nachhall sind deaktiviert.<br />
1. Bestimmen Sie die HRIRs <strong>für</strong> die Winkel 90 ◦ <strong>und</strong> 270 ◦ <strong>und</strong> speichern Sie dann die<br />
Ergebnisse als Datei ab. Führen Sie hierzu unter Matlab die folgenden Befehle aus:<br />
save(’hrir90.mat’,’left’,’right’);<br />
save(’hrir270.mat’,’left’,’right’);<br />
IT-V4 24
Bild 15: Einstellung der Simulationszeit der AVE.<br />
Bild 16: Einstellungen eines GoTo-Blocks<br />
IT-V4 25
Die Winkel können über die entsprechende Variable ϕ im Workspace angepasst<br />
werden.<br />
2. Plotten Sie die HRIRs in Matlab <strong>und</strong> vergleichen Sie die Amplituden <strong>und</strong> die<br />
Verzögerung zwischen linker <strong>und</strong> rechter HRIR <strong>für</strong> die genannten Winkel. Beschreiben<br />
Sie grob den zu erwartenden Höreindruck eines damit prozessierten Audiosignals.<br />
Mit den folgenden Befehlen unter Matlab können Sie die HRIRs <strong>für</strong> die jeweiligen<br />
Winkel in den Workspace laden:<br />
load hrir90.mat;<br />
load hrir270.mat;<br />
3. Simulieren Sie nun das Modell aus Bild 24 zunächst nur <strong>für</strong> den Direktschall (frühe<br />
Rückwürfe <strong>und</strong> später Nachhall sind zu deaktivieren). Hören Sie sich das binaurale<br />
Signal an <strong>und</strong> beschreiben Sie den auditiven Eindruck <strong>für</strong> beide Winkel.<br />
5.6.2 Frühe Rückwürfe <strong>und</strong> später Nachhall<br />
1. Erzeugen Sie nun die Signale einschließlich der frühen Rückwürfe <strong>und</strong> des späten<br />
Nachhalls <strong>für</strong> einen Winkel von 90 ◦ .<br />
2. Verändern Sie die Parameter der Nachhallblöcke, wie z.B. die Größe des Raums <strong>und</strong><br />
die Nachhallzeit <strong>und</strong> versuchen Sie eine Einstellung zu finden, die dem Höreindruck<br />
einer realen Umgebung entspricht. Dokumentieren Sie die Parametereinstellung <strong>und</strong><br />
beschreiben Sie Ihren Höreindruck. Anhaltswerte <strong>für</strong> typische Umgebungen finden<br />
Sie in Tabelle 1. In den Bildern 17 <strong>und</strong> 18 sehen Sie die Parameter-Dialoge der<br />
Blöcke ”Direct So<strong>und</strong>“, ”Early Reflections“ <strong>und</strong> ”Late Reverberations“.<br />
3. Deaktivieren Sie nun den späten Nachhall. Welchen Höreindruck haben Sie jetzt im<br />
Vergleich zur vorherigen <strong>Aufgabe</strong>.<br />
120 Hz 380 Hz 1200 Hz 3908 Hz 12095 Hz Größe (m 3 )<br />
Initialisierung 1 1 1 1 1 320<br />
Moderne Konzertsäle 0.7 0.7 0.7 0.55 0.2 320<br />
Historische Säle 1.65 2.6 2.6 1.5 0.01 3200<br />
Große Kirchen 2.8 2.1 1.4 0.7 0.01 3200<br />
Tabelle 1: Frequenzabhängiger Nachhall verschiedener Umgebung.<br />
Die Nachhallzeiten, welche in der Tabelle gegeben sind, lassen sich in den Blöcken <strong>für</strong><br />
”Early Reflections“ <strong>und</strong> ”Late Reverberations“ einstellen. Dazu muss die Parameter-<br />
Maske der Blöcke durch Doppelklick geöffnet werden <strong>und</strong> die Werte aus der Tabelle<br />
übertragen werden. Bild 17 <strong>und</strong> Bild 18 zeigen die Parameter-Masken der Blöcke ”Direct<br />
So<strong>und</strong>“, ”Early Reflections“ <strong>und</strong> ”Late Reverberation“ in der Gr<strong>und</strong>einstellung.<br />
IT-V4 26
Bild 17: Parametermaske des Direct So<strong>und</strong> Blocks<br />
(a) Early Reflections (b) Late Reverberations<br />
Bild 18: Parametermasken <strong>für</strong> frühen <strong>und</strong> späten Nachhall<br />
IT-V4 27
5.7 Echtzeit-Anwendung<br />
Um von der Simulation zu einer Echtzeit-Version der auditiven virtuellen Umgebung zu<br />
kommen müssen einige Änderungen am Modell vorgenommen werden. Hierzu öffnen Sie<br />
nun das Modell ”AVE.mdl“ <strong>und</strong> nehmen die Anpassungen gemäß dem Bild 25 vor. Damit<br />
der Code, welcher aus dem Modell mit Hilfe des Real-Time Workshop generiert wird, in<br />
die hier benutzte Echtzeit-Umgebung integriert werden kann sind insbesondere folgende<br />
Vorgaben einzuhalten:<br />
• Signale werden nicht mehr aus dem Matlab-Workspace eingelesen <strong>und</strong> nach der<br />
Verarbeitung dort gespeichert, sondern die Ein- <strong>und</strong> Ausgabe der Signale geschieht<br />
über Ein- <strong>und</strong> Ausgänge (”In“ <strong>und</strong> ”Out“).<br />
• Die Steuerung der Effekte (z.B. frühe Reflektionen etc.) wird später über eine<br />
graphische Benutzeroberfläche von der Echtzeit-Anwendung direkt übernommen.<br />
Deswegen müssen auch hier die Eingänge benutzt werden, welche die Echtzeit-<br />
Anwendung später bedienen kann.<br />
• Auch die Simulationszeit muss angepasst werden. Da im kontinuierlichen Echtzeitbetrieb<br />
nicht mehr über eine bestimme Zeit simuliert, sondern durchgehend<br />
verarbeitet wird, muss hier inf (unendlich) eingestellt werden.<br />
• Desweitern müssen Änderungen unter ”Simulation → Configuration Parameters...“<br />
vorgenommen werden. Der ”Solver“ muss den Anforderungen entsprechend eingestellt<br />
werden. Hierbei ist darauf zu achten, dass es sich um einen ”Discrete (no continous<br />
states)“ Solver handelt, welcher vom Typ ”Fixed-Step“ ist. Die ”Fixed-step size“<br />
muss auf ”1/Fs“ eingestellt werden, was dem Abtastintervall der Analog/Digital-<br />
Umsetzung entspricht. Desweiteren müssen unter ”Hardware Implementation“ die<br />
benutzte Hardware angegeben <strong>und</strong> unter ”Real-Time Workshop“ die richtige Programmiersprache<br />
<strong>für</strong> den Real-Time Workshop eingestellt werden. Eine Übersicht<br />
über diese Einstellungen geben Bild 19 <strong>und</strong> Bild 20.<br />
IT-V4 28
Bild 19: Hardware Implementation<br />
Bild 20: Real-Time Workshop<br />
IT-V4 29
Wenn alle Blöcke wie gewünscht verschaltet <strong>und</strong> alle Attribute korrekt eingestellt sind<br />
kann der Code erzeugt werden. Dies geschieht - bei geöffnetem Modell - mit der Tastenkombination<br />
”Strg+B“ oder im Menü unter ”Simulation → Configuration Parameters...“<br />
<strong>und</strong> dann unter ”Real-Time Workshop“ durch drücken des Buttons ”Generate code“.<br />
Während der Erzeugung des C-Codes wird der aktuelle Fortschritt im Hauptfenster von<br />
Matlab angezeigt. Nach dem Abschluss des Vorganges werden alle benötigten Dateien<br />
automatisch in einem neuen Ordner in Ihrem aktuellen Matlab-Verzeichnis gespeichert.<br />
Der Ordner hat den Namen ”AVE grt“. Das Kürzel ”grt“ steht <strong>für</strong> ’Generic Real-Time<br />
Workshop’. Ist der Code erzeugt, geht es darum, ihn - wie im vorhergehenden Abschnitt<br />
beschrieben - in die JACK-Anwendung <strong>und</strong> die Hardware-Kette einzubinden. Da das<br />
Kopieren der einzelnen Dateien <strong>und</strong> die Einstellung der einzelnen Komponenten relativ<br />
viel Zeit in Anspruch nimmt, wird diese <strong>Aufgabe</strong> im Praktikum von einem vorgefertigten<br />
Skript übernommen. Dieses Skript finden Sie im Praktikumsordner (”V4“) auf dem<br />
Desktop. Zum Ausführen des Skriptes, führen Sie den folgenden Befehl im Ordner ”V4“<br />
über die Konsole aus:<br />
./scriptV4<br />
Das Skript erledigt nun folgende <strong>Aufgabe</strong>n:<br />
• Starten der Oberfläche qjackctl → der JACK-Server muss dann jedoch von Ihnen<br />
noch gestartet werden (grüner Knopf)<br />
• Kompilierung des C-Codes <strong>für</strong> die JACK-Anwendung zusammen mit dem generierten<br />
Code aus Simulink<br />
• Ausführung des kompilierten Programms → angeschlossene graphische Benutzeroberfläche<br />
öffnet sich<br />
• Erstellung der Verbindungen der Ein- <strong>und</strong> Ausgänge der So<strong>und</strong>karte über JACK,<br />
siehe Bild 21<br />
• Start der kompilierten Echtzeit-Anwendung (JACK-Client)<br />
Bild 21: Verbindungen der Ein- <strong>und</strong> Ausgänge der So<strong>und</strong>karte über JACK<br />
IT-V4 30
5.7.1 Graphische Benutzeroberfläche<br />
Um die Effekte der auditiven virtuellen Umgebung in Echtzeit zu steuern, wurde hier<strong>für</strong><br />
eine kleine graphische Benutzeroberfläche (engl. Graphical User Interface - GUI) eingebaut.<br />
Über diese Benutzeroberfläche kann man den Direktschall, die frühen Reflektionen<br />
<strong>und</strong> den späten Nachhall ein- <strong>und</strong> ausschalten. Mit Hilfe dieser Funktionen ist es möglich<br />
sich einen akustischen Eindruck der einzelnen Effekte zu verschaffen. In Bild 22 sehen Sie<br />
die GUI, welche nach dem Ausführen des Skriptes erscheint.<br />
Bild 22: Graphische Benutzeroberfläche<br />
Wenn die Option ”All Processing Bypass“ aktiviert ist, sind automatisch alle anderen<br />
Optionen deaktiviert - erst sobald man diese Option deaktiviert kann man die anderen<br />
Effekte wirklich untersuchen.<br />
5.8 <strong>Aufgabe</strong>n: Echtzeit-Anwendung<br />
In diesem <strong>Aufgabe</strong>nteil verwenden Sie als Signaleingang einen CD-Player, welcher mit der<br />
So<strong>und</strong>karte verb<strong>und</strong>en ist. Die im Rechner verarbeiteten Signale hören Sie sich mit den<br />
Kopfhörern an, welche über einen Kopfhörerverstärker an die So<strong>und</strong>karte angeschlossen<br />
sind.<br />
1. Legen Sie die CD ”Versuch V4 - CD 1“ ein <strong>und</strong> stellen Sie ein Hörereignis aus der<br />
Tabelle 1 ein. Erzeugen Sie <strong>für</strong> diese Einstellung die Echtzeit-Anwendung <strong>und</strong> vergleichen<br />
Sie das Hörereignis mit der Simulation. Beschreiben Sie außerdem welche<br />
Veränderungen sich durch Ein- <strong>und</strong> Ausschalten der einzelnen Effekte ergeben.<br />
2. Wechseln Sie nun die CD im CD-Player <strong>und</strong> legen Sie die CD ”Versuch V4 - CD<br />
2“ ein. Auf dieser CD befindet sich ein ”trockenes“-Audiosignal einer Oper (ohne<br />
Hall- oder sonstige Effektanteile). Erstellen Sie nun durch Variation der Parameter<br />
<strong>für</strong> frühe Reflektionen <strong>und</strong> späten Nachhall ein Hörereignis, welches Ihrer Meinung<br />
nach dem eines Opernsaales am nächsten kommt. Tragen Sie die Parameterwerte<br />
(als Antwort 5.8.2) in die Versuchsauswertung ein.<br />
IT-V4 31
IT-V4 32<br />
Bild 23: Schätzung der HRIR unter Verwendung des NLMS-Algorithmus.<br />
White Noise Reference Input<br />
Microphone Signals<br />
Left<br />
Right<br />
HRIR Estimation<br />
Input<br />
Desired<br />
Step−size<br />
Input<br />
Desired<br />
Step−size<br />
stepSize<br />
Step−size<br />
Normalized<br />
LMS<br />
LMS Filter<br />
Normalized<br />
LMS<br />
LMS Filter1<br />
Output<br />
Error<br />
Wts<br />
Output<br />
Error<br />
Wts<br />
left<br />
Left Ear<br />
right<br />
Time<br />
Left<br />
Time<br />
Right<br />
Right Ear
Bild 24: Modell einer auditiven virtuellen Umgebung<br />
IT-V4 33
Bild 25: Echtzeit-Modell einer auditiven virtuellen Umgebung<br />
IT-V4 34
Literatur<br />
[1] Bernd Dürrer. Untersuchung zum Entwurf von Auditory Displays. PhD thesis, Ruhr-<br />
Universität Bochum, May 2001.<br />
[2] E. M. Wenzel, J. D. Miller, and J. S. Abel. So<strong>und</strong> lab: A real-time, software-based<br />
system for the study of spatial hearing. Proceedings of the 108th Convention of the<br />
Audio Engineering Society, February 2000.<br />
[3] H. Lehnert. Binaurale Raumsimulation. Shaker, Aachen, 1992.<br />
[4] J. Blauert. Spatial Hearing. MIT Press, Cambridge, MA, 1997.<br />
[5] K. Hartung. Modellalgorithmen zum Richtungshören, basierend auf den Ergebnissen<br />
psychoakustischer <strong>und</strong> neurophysiologischer Experimente mit virtuellen Schallquellen.<br />
Shaker, Aachen, 1999.<br />
[6] K. Genuit. Ein Modell zur Beschreibung von Außenohrübertragungsfunktionen. PhD<br />
thesis, RWTH Aachen, 1984.<br />
[7] R. Sottek. Modellierung kopfbezogener Impulsantworten. DAGA, 1998.<br />
[8] K. Sorkin and Elvers. An exploratory study of the use of movement-correlated cues<br />
in an auditory head-up display. Hum. Factors, 31(2):161–166, 1989.<br />
[9] M. R. Schroeder and B. S. Atal. Apparent so<strong>und</strong> source translator. US Patent<br />
3236949, 1966.<br />
[10] M. A. Gerzon. Ambisonics in multichannel braodcasting and video. J. Audio. Eng.<br />
Soc., 33(11):859–871, 1985.<br />
[11] V. Pulkki. Virtual so<strong>und</strong> source positioning using vector based amplitude panning.<br />
J. Audio. Eng. Soc., 45(6):456–466, 1997.<br />
[12] A. J. Berkhout, D. de Vries, and P. Vogel. Acoustic control by wave field synthesis.<br />
J. Acoust. Soc. Am., 93(5):2764–2778, 1993.<br />
[13] H. Strauss and J. Buchholz. Comparison of virtual so<strong>und</strong> source positioning with<br />
amplitude panning and ambisonic reproduction. Coll Papers 137th Meeting Ac. Soc.<br />
Am and 2nd Conv. EAA, 1999.<br />
[14] W. Pompetzki. Psychoakustische Verifikation von Computermodellen zur binauralen<br />
Raumsimulation. Shaker, Aachen, 1993.<br />
[15] H. Lehnert and M. Richter. Vereinfachung von binauralen impulsantworten zur<br />
auralisierung von rückwürfen. Fortschritte der Akustik – DAGA, pages 303–306,<br />
1995.<br />
[16] J. Sahrhage and M. Hunold. Optimierte realzeit-verfahren zur auditiven raumsimulation.<br />
Fortschritte der Akustik – DAGA, pages 544–545, 1998.<br />
IT-V4 35
[17] R. Heinz. Entwicklung <strong>und</strong> Beurteilung von computergestützten Methoden zur<br />
binauralen Raumsimulation. Shaker, Aachen.<br />
[18] W. M. Hartmann. Localization of so<strong>und</strong> in rooms. J. Acoust. Soc. Am., 74(5):1380–<br />
1391, 1983.<br />
[19] J. Blauert and W. Lindemann. Auditory spaciousness: Some further psychoacoustic<br />
analyses. J. Acoust. Soc. Am., 80(2):533–542, 1986.<br />
[20] R. Guski. Auditory localization: effects of reflecting surfaces. Perception, 19(6):819–<br />
830, 1990.<br />
[21] M. R. Schroeder. Natural So<strong>und</strong>ing Artificial Reverberation. Journal of the Audio<br />
Engineering Society, 10(3):219–223, 1962.<br />
[22] J. Moorer. About this Reverberation Business. Computer Music Journal, 3(2):13–18,<br />
1979.<br />
[23] J. Stautner and M. Puckette. Designing Multi-Channel Reverberators. Computer<br />
Music J., 6(1):52–65, 1982.<br />
[24] J. Sikorav. Implementation of Reverberators on Digital Signal Processors. In 80th<br />
AES Convention, Montreux, Swiss, Mar. 1986.<br />
[25] D. Griesinger. Practical Processors and Programs for Digital Reverberation. In 7th<br />
int. AES Convention, Toronto, Canada, May. 1989.<br />
[26] M. Barron. The subjective effects of first reflections in concert halls - the need for<br />
lateral reflections. J. of So<strong>und</strong> and Vibration, 15(4):475–494, 1971.<br />
[27] J.-M. Jot. Digital delay networks for designing artificial reverberators. In 90th AES<br />
Convention, Paris, France, 1991.<br />
[28] J.-M. Jot and L. Cerveau and O. Warusfel. Analysis and Synthesis of Room Reverberation<br />
Based on a Statistical Time-Frequency Model. In 103rd AES Convention,<br />
New York, NY, USA, 1997.<br />
[29] G. Enzner. Analysis and Optimal Control of LMS-type Adaptive Filtering for<br />
Continuous-Azimuth Acquisition of Head Related Impulse Responses. In Proc. IEEE<br />
International Conference on Acoustics, Speech, and Signal Processing (ICASSP), Las<br />
Vegas, USA, 2008.<br />
IT-V4 36
Versuch IT-V5: Ultraschallbildgebung -<br />
praktische Aspekte<br />
Inhaltsverzeichnis<br />
1 Einleitung 2<br />
2 Physikalische Gr<strong>und</strong>lagen 2<br />
2.1 Erzeugung von Schallwellen: Piezoelektrischer Effekt . . . . . . . . . . . . . 2<br />
2.2 Aufbau eines Schallwandlers . . . . . . . . . . . . . . . . . . . . . . . . . . . 2<br />
2.3 Reflexion <strong>und</strong> Brechung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4<br />
2.4 Ortsabbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5<br />
3 Vorbereitungsfragen 5<br />
4 Praktikumsaufgaben 6<br />
Literaturverzeichnis 8<br />
IT-V5 - 1
1 Einleitung<br />
Das menschliche Gehör kann Schall bis zu einer Frequenz von etwa 20 kHz wahrnehmen.<br />
Die Bezeichnung ’Ultraschall’ steht <strong>für</strong> Schallwellen oberhalb dieser Hörschwelle. Aus der<br />
Natur sind einige Lebewesen wie Fledermäuse oder Delphine bekannt, die Schallwellen mit<br />
Frequenzen weit oberhalb dieser Schwelle zur Orientierung einsetzen. Der Mensch hat eine<br />
Fülle von technischen Anwendungen des Ultraschalls entwickelt, wie die zerstörungsfreie<br />
Materialprüfung, das Echolot bei Schiffen oder Einparkhilfen an Fahrzeugen. Die wohl<br />
bekannteste Anwendung ist der medizinische Ultraschall, besonders in der Geburtshilfe.<br />
Alle diese Verfahren basieren auf dem Puls-Echo Prinzip: Ein Puls wird ausgesendet <strong>und</strong> die<br />
Laufzeit bis zum Eintreffen des Echos ausgewertet. Diese gibt Aufschluss über die Entfernung<br />
des reflektierenden Objekts. Doppler-Verfahren, also die Auswertung der Frequenzverschiebung<br />
des Echosignals, können zusätzlich Aufschluss über die Bewegungsgeschwindigkeit des<br />
Objektes geben.<br />
In den beiden Versuchen zur Ultraschalltechnik soll Ihnen ein praktischer Einblick in die<br />
gr<strong>und</strong>legenden Prinzipien der Abbildung mit Ultraschall gegeben werden. In diesem ersten<br />
Teil sollen zunächst die physikalischen Aspekte der Ultraschallerzeugung <strong>und</strong> -ausbreitung<br />
behandelt werden.<br />
2 Physikalische Gr<strong>und</strong>lagen<br />
2.1 Erzeugung von Schallwellen: Piezoelektrischer Effekt<br />
In der medizinischen Diagnostik liegen die Schallfrequenzen in der Regel im Bereich von<br />
1-10 MHz. Zum Senden <strong>und</strong> Empfangen dieser Wellen wird der direkte <strong>und</strong> inverse Piezoelektrische<br />
Effekt genutzt. Ultraschallwandler bestehen aus Materialien die bei Belastung<br />
durch Druck oder Zug eine elektrische Spannung erzeugen. Durch die mechanische Kraft<br />
verschieben sich im Material die Ladungsschwerpunkte, so dass ein Potentialunterschied<br />
entsteht. So können die Schallwellen empfangen <strong>und</strong> in ein elektrisches Signal umgewandelt<br />
werden. Zum Senden wird der inverse piezoelektrische Effekt genutzt: Durch Anlegen einer<br />
elektrischen Spannung verformt sich das Material mechanisch <strong>und</strong> erzeugt so eine Druckwelle.<br />
Die industriell eingesetzten Ultraschall-Piezoelemente bestehen zumeist aus Keramiken.<br />
Das am häufigsten eingesetzte Material ist Blei-Zirkonat-Titanat (PZT). Mit Hilfe dieser<br />
Materialien können also sowohl Pulse gesendet als auch empfangen werden. Piezoelektrische<br />
Materialien können zu mechanischen Schwingungen angeregt werden. Die Resonanzfrequenz<br />
ergibt sich aus den Materialkonstanten des Piezos <strong>und</strong> seinen geometrischen Abmessungen.<br />
2.2 Aufbau eines Schallwandlers<br />
Der vereinfachte Aufbau eines Einzelelement-Wandlers ist in Abbildung 1 dargestellt. Die<br />
rückwärtige Schicht, das sogenannte ’Backing’, dämpft die Schwingung, um einen möglichst<br />
kurzen Puls zu erzeugen. Die Anpassungsschicht vor dem Piezo-Element dient der Anpassung<br />
an weiches Gewebe oder Wasser, so dass der Übergang möglichst reflexionsfrei erfolgt.<br />
IT-V5 - 2
Elektroden<br />
Backing<br />
Piezo<br />
U<br />
Bild 1: Aufbau eines Schallwandlers<br />
Anpassungsschicht<br />
Wasser<br />
Das Schallfeld des Wandlers wird durch seine geometrischen Abmessungen definiert, wie in<br />
Abbildung 2 dargestellt. Die gestrichelten Linien stellen Punkte gleichen Drucks dar. Um<br />
die Ausdehnung des Schallfeldes zu kennzeichnen, wird in der Regel die Halbwertsbreite<br />
angegeben. Die Ausdehnung des Schallfeldes bestimmt die Auflösung des Abbildungssystems<br />
in lateraler Richtung. Die Auflösung ist gekennzeichnet durch den minimalen Abstand, den<br />
zwei Punkte haben müssen, um getrennt dargestellt werden zu können. Je geringer die<br />
Ausdehnung des Schallfeldes, um so kleiner wird dieser Abstand - also um so besser die<br />
Auflösung.<br />
lateral<br />
elevational<br />
Wandler<br />
axial<br />
Bild 2: Unfokussierter Schallwandler<br />
Eine geeignete Krümmung der Wandleroberfläche bewirkt eine Einschnürung des Feldes in<br />
einer bestimmten Tiefe. Die größte Schallintensität entsteht so an der Fokus-Position. Ein<br />
solcher Wandler wird daher als ’fokussiert’ bezeichnet. Abbildung 3 zeigt das entsprechende<br />
Schallfeld. Das Bild verdeutlicht, dass die Ausdehnung des Schallfeldes sehr stark über der<br />
Tiefe variiert. Somit ändert sich auch das Auflösungsvermögen der Ultraschallaufnahme mit<br />
der Tiefe.<br />
IT-V5 - 3
Wandler<br />
rf<br />
dlat<br />
2.3 Reflexion <strong>und</strong> Brechung<br />
Bild 3: Fokussierter Schallwandler<br />
Echos entstehen u. a. durch Reflexion an Grenzflächen zwischen Medien unterschiedlicher<br />
akustischer Impedanz. Die akustische Impedanz ist das Produkt aus Schallgeschwindigkeit<br />
<strong>und</strong> Dichte des jeweiligen Materials.<br />
Z = c · ρ (1)<br />
Die Grenzflächen können in medizinischen Anwendungen verschiedene Gewebetypen oder<br />
Einschlüsse bei der Materialprüfung sein.<br />
Der Reflexionskoeffizient der Druckamplitude berechnet sich aus<br />
Γp = Z2 − Z1<br />
Z2 + Z1<br />
Die Amplitude des Echos ändert sich somit in Abhängigkeit des Impedanzsprungs zwischen<br />
den beiden Medien. Der nicht reflektierte Teil dringt weiter ins Material ein. Dieser Anteil<br />
kann nun weitere Echos in größerer Tiefe verursachen, sodass auch in tiefer liegenden<br />
Schichten noch Aufnahmen gemacht werden können. Insbesondere bei menschlichem Gewebe<br />
sind die Impedanzsprünge klein genug, dass auch tieferliegendes Gewebe noch zu sehen ist.<br />
Medium 1 Medium 2<br />
Z 1 , c 1<br />
Bild 4: Reflexion<br />
IT-V5 - 4<br />
Z 2 , c 2<br />
(2)
Ähnlich wie in optischen Systemen ist die Reflexion abhängig vom Einfallswinkel. Ähnlich<br />
wie bei den Gesetzen <strong>für</strong> die optische Brechung gilt:<br />
Γ = Z2 cos(Θ1) − Z1 cos(Θ2)<br />
Z2 cos(Θ1) + Z1 cos(Θ2)<br />
sin(Θ1)<br />
sin(Θ2)<br />
Abbildung 5 veranschaulicht die Geometrie.<br />
2.4 Ortsabbildung<br />
ϑ<br />
= c1<br />
c2<br />
Medium 1 Medium 2<br />
1<br />
ϑ1 2<br />
Z 1 , c 1<br />
ϑ<br />
Z 2 , c 2<br />
Bild 5: Winkelabhängige Reflexion<br />
Um Gewebe abzubilden oder die Position eines Einschlusses zu bestimmen, muss jedem<br />
Echo eine Position zugeordnet werden. Wenn die Schallgeschwindigkeit bekannt ist, so kann<br />
diese aus der Laufzeit des Pulses berechnet werden:<br />
x = 1<br />
c · t (5)<br />
2<br />
Umgekehrt kann so auch die Schallgeschwindigkeit bestimmt werden, wenn der räumliche<br />
Abstand zwischen zwei Reflektoren bekannt ist.<br />
Das mit Hilfe des Piezoelements in elektrische Spannung gewandelte Signal muss zur weiteren<br />
Verarbeitung digitalisiert werden. Dies geschieht mit Hilfe eines Analog/Digitalwandlers,<br />
der das analoge Signal mit einer Abtastrate fs aufnimmt <strong>und</strong> in eine Binärzahl umwandelt.<br />
Die Aufnahme kann nun digital weiterverarbeitet werden, was Teil des nächsten Versuchs<br />
sein wird.<br />
3 Vorbereitungsfragen<br />
Die folgenden Fragen sollen von Ihnen vor dem Praktikumstermin bearbeitet werden. Sie<br />
werden während des Kolloquiums danach gefragt. Die schriftliche Beantwortung ist zudem<br />
Teil der Ausarbeitung.<br />
IT-V5 - 5<br />
(3)<br />
(4)
1. Reflexionskoeffizient: Wie groß ist der Reflexionskoeffizient eines idealen Reflektors?<br />
Wie können Sie mit Hilfe der Messung an einem idealen Reflektor die Reflexionskoeffizienten<br />
anderer Medien berechnen, auch wenn die Amplitude der einfallenden Welle<br />
unbekannt ist?<br />
2. Schallgeschwindigkeit: Woher resultiert der Faktor 1 in der Formel zur Positionsbe-<br />
2<br />
stimmung? Wie bestimmen Sie die Schallgeschwindigkeit in einem Medium aus dem<br />
Ultraschallecho?<br />
3. Fokussierung: Sie betrachten das Echo desselben Reflektors in verschiedenen Tiefen<br />
relativ zum Ultraschallwandler. Wie wird sich die Fokussierung auf die Amplitude des<br />
Echosignals auswirken?<br />
4. Abtastung: Sie haben ein näherungsweise bandbegrenztes Messsignal. Wie muss die<br />
Abtastrate <strong>für</strong> die Diskretisierung gewählt werden, damit alle Informationen erhalten<br />
bleiben?<br />
4 Praktikumsaufgaben<br />
Einrichten des Setups<br />
Befestigen Sie den Ultraschallwandler in der Halterung im Wasserbecken. Verbinden Sie den<br />
Wandler mit dem ’E’-Anschluss der US-Box <strong>und</strong> die US-Box mit dem PC. Öffnen Sie das<br />
Matlab Skript ’start_v1.m’ <strong>und</strong> starten Sie es. Sie haben nun eine graphische Oberfläche,<br />
mit deren Hilfe Sie Daten aufnehmen können. Zuvor müssen Sie die US-Box initialisieren<br />
<strong>und</strong> die Abtastrate korrekt einstellen.<br />
In der graphischen Oberfläche haben Sie mehrere Abtastraten (’Samplerate’) <strong>für</strong> die Aufnahme<br />
des Signals zur Auswahl. Zusätzlich haben Sie das Datenblatt des Ultraschallwandlers<br />
erhalten. Betrachten Sie das Spektrum des Wandlers. Welche Abtastrate müssten Sie wählen,<br />
damit keine Informationen verlorengehen? Wählen Sie die maximal mögliche Abtastrate <strong>für</strong><br />
die weiteren Aufnahmen.<br />
Nehmen Sie ein Testsignal auf, indem Sie auf ’Aufnahme’ klicken. Zunächst wird das Signal<br />
über die Sample-Zahl dargestellt. Für einige <strong>Aufgabe</strong>n benötigen Sie jedoch die Darstellung<br />
über der Zeit. Berechnen Sie den korrekten Zeitabstand zwischen zwei Abtastwerten <strong>und</strong><br />
tragen Sie ihn im Textfeld ein.<br />
Wenn Sie das Ultraschallsignal vergrößert darstellen wollen, besteht die Möglichkeit des<br />
’Zoom’. Darüber hinaus ist es möglich, die Grenzen des vergrößerten Bereichs mit Hilfe des<br />
’Freeze’-Buttons zu speichern. Im Normalfall werden lediglich die Begrenzungen der x-Achse<br />
gespeichert. Wenn allerdings die Checkbox vor der Betätigung des ’Freeze’-Button aktiviert<br />
wird, werden zudem auch die Werte der y-Achse gespeichert. Eine erneute Betätigung des<br />
’Freeze’-Buttons setzt die Begrenzungen wieder auf ihren Ursprungswert zurück. Es ist zu<br />
beachten, dass vor einer erneuten Speicherung der Begrenzungen eine neue ’Zoom’-Auswahl<br />
zu treffen ist. Außerdem ist es nicht möglich, den Zeitabstand zu ändern, während der<br />
IT-V5 - 6
’Freeze’-Button aktiviert ist.<br />
<strong>Aufgabe</strong>n<br />
1. Reflexionskoeffizient<br />
Legen Sie nacheinander die drei Materialien unter den Schallwandler. Achten Sie<br />
darauf, dass sich die Oberfläche immer parallel zur Schallwandleroberfläche befindet.<br />
Warum muss dies gewährleistest sein? Machen Sie <strong>für</strong> jeden Gegenstand eine<br />
Aufnahme <strong>und</strong> speichern Sie das vergrößerte Ultraschallsignal ab.<br />
Nehmen Sie an, das Metallstück sei ein idealer Reflektor. Berechnen Sie nun die<br />
Reflexionskoeffizienten der beiden anderen Materialien.<br />
2. Schallgeschwindigkeitsmessung<br />
Legen Sie den Plexiglas-Block unter den Schallwandler. Bestimmen Sie aus dem aufgenommenen<br />
Echo-Signal die Schallgeschwindigkeit in Plexiglas.<br />
3. Fokussierung<br />
Im einleitenden Text wurde über die Fokussierung des Schallwandlers gesprochen.<br />
Diese soll nun anhand von Messungen betrachtet werden. Hierzu setzen Sie das Drahtphantom<br />
unter den Schallwandler. Machen Sie 8 Aufnahmen des Drahtes bei denen<br />
Sie den Abstand vom Schallwandler variieren. Beginnen Sie im Abstand von ca. einem<br />
Zentimeter <strong>und</strong> enden Sie bei etwa 8 cm.<br />
Bestimmen Sie die Maxima bei jeder Tiefe <strong>und</strong> deren Position [in mm]. Tragen Sie diese<br />
mit Matlab in einer Graphik gegeneinander auf. Bestimmen Sie hieraus die ungefähre<br />
Fokustiefe des Schallwandlers.<br />
4. Laterale Änderung<br />
Positionieren Sie das Drahtphantom, so dass es in etwa im Fokus liegt. Stellen Sie es<br />
so, dass sich der Draht senkrecht zur Bewegungsrichtung der Achse befindet. Bewegen<br />
Sie den Wandler in Millimeterschritten über den Draht <strong>und</strong> nehmen Sie das Signal<br />
auf. Speichern Sie alle Aufnahmen. Wiederholen Sie diese Aufnahme etwa 5mm oberhalb<br />
<strong>und</strong> 5mm unterhalb des Fokus. Diese Daten werden Sie im zweiten Versuchsteil<br />
auswerten.<br />
IT-V5 - 7
Literatur<br />
[1] B. Angelsen. Ultraso<strong>und</strong> Imaging: Waves, Signals, and Signal Processing, volume 1.<br />
John Wiley & Sons, 2000.<br />
[2] B. A. Auld. Acoustic Fields and Waves in Solids. John Wiley and Sons, 1973.<br />
[3] H. Kuttruff. Physik <strong>und</strong> Technik des Ultraschalls. S. Hirzel Verlag, 1988.<br />
[4] R. Millner. Ultraschalltechnik. Physik Verlag, 1987.<br />
[5] Kino. G. S. Acoustic Waves. Prentice Hall, 1987.<br />
[6] G. Schmitz. Ultraschall in der Medizin. Vorlesungsskript, Lehrstuhl <strong>für</strong> Medizintechnik,<br />
Ruhr-Universität Bochum.<br />
IT-V5 - 8
Versuch IT-V6: Ultraschallbildgebung -<br />
Signalverarbeitung<br />
Inhaltsverzeichnis<br />
1 Einleitung 2<br />
2 Gr<strong>und</strong>lagen 2<br />
2.1 Einhüllende . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2<br />
2.2 B-Bild . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4<br />
3 Vorbereitungsfragen 5<br />
4 Praktikumsaufgaben 6<br />
4.1 Demodulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />
4.2 B-Bild . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />
Literaturverzeichnis 8<br />
IT-V6 - 1
1 Einleitung<br />
Sie haben im vorherigen Versuch die Gr<strong>und</strong>lagen der Ultraschallphysik kennengelernt <strong>und</strong><br />
Aufnahmen gemacht, die nun in digitaler Form vorliegen. In der zerstörungsfreien Prüfung<br />
reicht häufig die Betrachtung des hochfrequenten Echos <strong>für</strong> eine Beurteilung des Materials<br />
aus. Um jedoch aus diesen Echodaten vollständige Ultraschallbilder zu generieren, wie<br />
Sie Ihnen beispielsweise aus medizinischen Anwendungen bekannt sind, ist eine weitere<br />
Signalverarbeitung notwendig. In diesem Versuch werden Sie einige gr<strong>und</strong>legende Aspekte<br />
dieser Verarbeitung kennenlernen <strong>und</strong> diese auf die zuvor gemessenen Daten anwenden.<br />
2 Gr<strong>und</strong>lagen<br />
2.1 Einhüllende<br />
Wie Sie gesehen haben, zeigen die Aufnahmen mit dem Einzelelementwandler ein amplitudenmoduliertes<br />
sinusförmiges Signal. Das aufmodulierte Signal ist die sogenannte Einhüllende.<br />
Wenn man das Echo darstellt, ist jede Reflektion als Wellenpaket zu sehen.<br />
Zur Darstellung der Echointensität soll nun die Einhüllende des Signals gebildet werden.<br />
Eine solche Darstellung einer einzelnen Linie wird als A-Scan (Amplitude Scan) bezeichnet<br />
(vergleiche Abbildung 1).<br />
x(t)<br />
Echo<br />
Bild 1: Echo mit Hüllkurve<br />
Die Form des Ultraschallpulses ist durch die Übertragungsfunktion des Schallwandlers <strong>und</strong><br />
den elektrischen Eingangsimpuls bestimmt. Betrachtet man das Spektrum des Pulses, so ist<br />
zu erkennen, dass es eine gewisse Bandbreite um die Mittenfrequenz des Schallwandlers hat.<br />
Es kann daher näherungsweise als bandbegrenzt angenommen werden. Das Signal wird zur<br />
weiteren Verarbeitung abgetastet. Aus diesem Signal x[n] soll nun die Einhüllende berechnet<br />
werden. Abbildung 2 zeigt das Spektrum des reellen Eingangssignals.<br />
Die komplexe Einhüllende ist das ins Basisband verschobene analytische Signal zu dem<br />
gemessenen reellen Signal. Das analytische Signal enthält nur positive Frequenzanteile. Man<br />
erhält das analytische Signal im Frequenzbereich X(Ω), indem nur der positive Frequenzanteil<br />
von X(Ω) betrachtet wird. Die Amplitude wird mit 2 multipliziert um die Signalenergie<br />
zu erhalten.<br />
IT-V6 - 2<br />
t
−ω 0<br />
−ω 0<br />
|X(ω)|<br />
ω 0<br />
Bild 2: Spektrum des reellen Messsignals<br />
X + ⎧<br />
⎨ X(Ω) Ω = 0<br />
(Ω) = 2X(Ω)<br />
⎩<br />
0<br />
0 < Ω < π<br />
−π < Ω < 0<br />
|X + (ω)|<br />
ω 0<br />
Bild 3: rechtsseitiges Spektrum des analytischen Signals<br />
Das Spektrum Xe der komplexen Einhüllenden entspricht diesem Spektrum, wenn es um ω0<br />
in Richtung Nullpunkt verschoben wird. Im Zeitbereich entspricht dies einer Multiplikation<br />
mit e −jω0t . In einer Hardware-Implementierung würde das Signal zur Vereinfachung in einen<br />
Sinus- <strong>und</strong> Kosinusanteil zerlegt, welche separat transformiert würden. Da hier die Berechnung<br />
mit Matlab durchgeführt wird, beschränken wir uns auf die komplexe Schreibweise.<br />
Die Frequenzverschiebung im Zeitbereich lautet also<br />
−2ω 0<br />
x BB(t) = x(t) · e −jω0t<br />
|X(ω-ω 0 )|<br />
ω s −2ω 0<br />
Bild 4: Verschiebung der Mittenfrequenz<br />
IT-V6 - 3<br />
ω<br />
ω<br />
ω s<br />
(1)<br />
(2)
Dieses Signal enthält jedoch noch die negativen Spektral-Anteile. Für das abgetastete Signal<br />
ergeben sich zusätzlich die durch periodische Wiederholung entstandenen Anteile (siehe<br />
Abbildung 4). Durch Filterung mit einem geeigneten Tiefpassfilter wird nur der gewünschte<br />
Anteil berücksichtigt:<br />
xe(t) = (2x(t)e −jω0t ) ∗ hT P (t) (3)<br />
Das Spektrum der komplexen Einhüllenden ist in Abbildung 5 dargestellt.<br />
Bild 5: Spektrum der Einhüllenden<br />
|2X e (ω-ω 0 )|<br />
Für die digitale Berechnung sind diese Zeitverläufe diskret. Der Tiefpassfilter wird durch<br />
einen diskreten FIR (finite impulse response) Filter mit den Koeffizienten hn realisiert.<br />
Real <strong>und</strong> Imaginärteil des analytischen Signals sind über die Hilberttransformation verb<strong>und</strong>en.<br />
Eine andere Möglichkeit, die Einhüllende zu bestimmen, ist direkt die Hilbert-<br />
Transformierte des Signals zu betrachten. Wenn das Signal x(t) als kosinusförmiges Trägersignal<br />
mit der Frequenz ω0 angesehen werden kann, welches mit einer Einhüllenden moduliert<br />
ist, die sich im Vergleich zu ω0 langsam verändert, so ist die Hilberttransformierte gerade<br />
der entsprechende Sinus.<br />
x(t) = A(t) · cos(ω0t) (4)<br />
ˆx(t) = HT {x(t)} = A(t) · sin(ω0t) (5)<br />
Die Addition von jˆx(t) zu x(t) ergibt gerade das analytische Signal. Die Einhüllende ergibt<br />
sich dann einfach aus dem Betrag dieses Signals.<br />
2.2 B-Bild<br />
x + (t) = A(t) · (cos(ω0t) + j sin(ω0t)) (6)<br />
= A(t)e jω0t<br />
xe(t) = |x + (t)| (8)<br />
Aus den hochfrequenten Daten erhält man mit den oben beschriebenen Methoden den<br />
Amplitudenverlauf einer einzelnen Linie. Um ein vollständiges 2-dimensionales Ultraschallbild<br />
zu erhalten, müssen nun mehrere A-Scans nacheinander durchgeführt werden. Das<br />
IT-V6 - 4<br />
ω<br />
(7)
Schallbündel wird hierbei verschoben, so dass nebeneinander liegende Linien aufgenommen<br />
werden. Jede einzelne Linie wird wie oben beschrieben demoduliert. Anschließend werden die<br />
Linien zu einem Gesamtbild zusammengefügt. Ein solches Bild wird als B-Bild bezeichnet. B<br />
steht hier <strong>für</strong> ’Brightness’. Im vorangegangenen Versuch wurde eine solche Aufnahme durch<br />
das Verschieben des Einzelelementwandlers realisiert.<br />
Für bildgebende Anwendungen bestehen Ultraschallwandler in der Regel aus einem Array<br />
von einzelnen Elementen. Mit dieser Anordnung kann die mechanische Verschiebung durch<br />
eine elektronische Verschiebung ersetzt werden: Die Einzelelemente werden in Gruppen<br />
zeitversetzt angeregt <strong>und</strong> so mehrere Linien aufgenommen. Abbildung 6 veranschaulicht<br />
das Prinzip.<br />
Einzel-<br />
Element-<br />
Wandler<br />
US-Wandler<br />
Scanrichtung<br />
3 Vorbereitungsfragen<br />
Bild 6: Ultraschallarray<br />
B-Bild<br />
Die folgenden Fragen sollen von Ihnen vor dem Praktikumstermin bearbeitet werden. Sie<br />
werden während des Kolloquiums danach gefragt. Die schriftliche Beantwortung ist zudem<br />
Teil der Ausarbeitung. Sie werden in diesem Praktikum selbständig Matlab Skripte<br />
schreiben. Hierzu benötigen Sie gr<strong>und</strong>legendes Wissen im Umgang mit dem Matlab Editor<br />
<strong>und</strong> der graphischen Ausgabe. Die speziellen Befehle, die im Praktikum benötigt werden,<br />
werden angegeben. Falls Sie über keinerlei Erfahrung in der Programmierung mit Matlab<br />
verfügen, lesen Sie sich zur Vorbereitung den Einführungstext durch, den Sie am Ende des<br />
letzten Versuchs erhalten haben. Zudem wird erwartet, dass Sie in der Lage sind die obenn<br />
beschriebenen Gr<strong>und</strong>lagen mit eigenen Worten wiederzugeben.<br />
IT-V6 - 5
1. Sie regen den Ultraschallwandler mit einem kurzen, breitbandigen elektrischen Impuls<br />
an. Wodurch ergibt sich das Spektrum des Signals?<br />
2. Mit welcher Frequenz muss das Signal demoduliert werden?<br />
3. Welchen Unterschied erwarten Sie zwischen der Hüllkurvendetektion mittels Hilbert-<br />
Transformation <strong>und</strong> mit Tiefpassfilterung?<br />
4. Welche Auswirkung hat die Anzahl der Filterkoeffizienten?<br />
4 Praktikumsaufgaben<br />
Einrichten des Setups<br />
Öffnen Sie das Matlab Skript ’start_v2.m’. Sie haben nun eine graphische Oberfläche<br />
vor sich, mit der Sie die Daten aus dem vorherigen Versuch laden können <strong>und</strong> sie im<br />
Frequenzbereich analysieren. Laden Sie zunächst den Datensatz der Metallplatte.<br />
Sie müssen nun den Frequenzbereich <strong>und</strong> die Länge der FFT richtig einstellen. Welches<br />
ist die maximale Frequenz? Welches ∆f ergibt sich hieraus? Tragen Sie den Wert in das<br />
Textfeld ein <strong>und</strong> klicken Sie dann auf ’Spektrum’.<br />
4.1 Demodulation<br />
1. Wie im Einleitungstext beschrieben müssen die Signale demoduliert werden, um das<br />
Ultraschallbild darzustellen. In diesem <strong>Aufgabe</strong>nteil soll dies implementiert werden.<br />
Gehen Sie dazu wie oben beschrieben vor. Verwenden Sie zur Realisierung des Filters<br />
die Matlab Funktion ’fir1’.<br />
2. Berechnen Sie das Filter <strong>für</strong> die Koeffizienten-Anzahlen 32, 64 <strong>und</strong> 128.<br />
3. Stellen Sie die Filter im Frequenzbereich dar. Beschriften Sie alle Achsen korrekt.<br />
Worin unterscheiden sich die Filter?<br />
4. Führen Sie die Demodulation mit Hilfe der Hilbert-Transformierten durch. Verwenden<br />
Sie hierzu die Matlab Funktion ’hilbert’. Beachten Sie, dass diese Funktion direkt<br />
das analytische Signal ausgibt! Vergleichen Sie das Ergebnis mit dem der gefilterten<br />
Demodulation <strong>für</strong> die höchste Koeffizientenzahl.<br />
4.2 B-Bild<br />
1. Führen Sie die Demodulation <strong>für</strong> alle Signale aus <strong>Aufgabe</strong> 4.4 des vorherigen Versuchs<br />
durch. Wählen sie als Variablenbezeichnung <strong>für</strong> das demodulierte Signal ’demod’.<br />
Speichern Sie die Ergebnisse <strong>für</strong> alle Aufnahmen ab.<br />
IT-V6 - 6
2. Sie sollen drei Bilder generieren, die jeweils die lateral verschobenen Linien nebeneinander<br />
darstellen. Mit Hilfe des Skripts ’erstelle Matrix’ können sie die einzelnen Linien<br />
aus mehreren Dateien in einer Matrix zusammenfassen. Schreiben Sie in Matlab ein<br />
Skript, mit dessen Hilfe Sie sich die Ergebnisse anzeigen lassen können. Skalieren Sie<br />
die x- <strong>und</strong> y-Achsen korrekt <strong>und</strong> beschriften Sie die einzelnen Bilder. Wählen Sie einen<br />
geeigneten Bildausschnitt <strong>und</strong> speichern Sie alle Bilder <strong>für</strong> Ihren Bericht ab.<br />
3. Sie haben nun je ein B-Bild <strong>für</strong> die verschiedenen Tiefen des Drahtes. Worin unterscheiden<br />
sich die Abbildungen des Drahtes? Erklären Sie die Unterschiede.<br />
IT-V6 - 7
Literatur<br />
[1] B. Angelsen. Ultraso<strong>und</strong> Imaging: Waves, Signals, and Signal Processing, volume 2.<br />
John Wiley and Sons, 2000.<br />
[2] A. Fettweis. Elemente nachrichtentechnischer Systeme. J. Schlembach Verlag, 2004.<br />
[3] H. G. Göckler. Digitale Signalverarbeitung. Vorlesungsskript, AG Digitale Signalverarbeitung,<br />
Ruhr-Universität Bochum.<br />
[4] H. G. Göckler. Signale <strong>und</strong> Systeme. Vorlesungsskript, AG Digitale Signalverarbeitung,<br />
Ruhr-Universität Bochum.<br />
IT-V6 - 8
Literatur<br />
[1] B. Angelsen. Ultraso<strong>und</strong> Imaging: Waves, Signals, and Signal Processing, volume 2.<br />
John Wiley and Sons, 2000.<br />
[2] A. Fettweis. Elemente nachrichtentechnischer Systeme. J. Schlembach Verlag, 2004.<br />
[3] H. G. Göckler. Digitale Signalverarbeitung. Vorlesungsskript, AG Digitale Signalverarbeitung,<br />
Ruhr-Universität Bochum.<br />
[4] H. G. Göckler. Signale <strong>und</strong> Systeme. Vorlesungsskript, AG Digitale Signalverarbeitung,<br />
Ruhr-Universität Bochum.<br />
IT-V6 - 8
Literatur<br />
[1] B. Angelsen. Ultraso<strong>und</strong> Imaging: Waves, Signals, and Signal Processing, volume 2.<br />
John Wiley and Sons, 2000.<br />
[2] A. Fettweis. Elemente nachrichtentechnischer Systeme. J. Schlembach Verlag, 2004.<br />
[3] H. G. Göckler. Digitale Signalverarbeitung. Vorlesungsskript, AG Digitale Signalverarbeitung,<br />
Ruhr-Universität Bochum.<br />
[4] H. G. Göckler. Signale <strong>und</strong> Systeme. Vorlesungsskript, AG Digitale Signalverarbeitung,<br />
Ruhr-Universität Bochum.<br />
IT-V6 - 8
EP h f)<br />
λ <br />
<br />
EP h = h · f <br />
c = λ · f <br />
c h <br />
h = 6,626 · 10 −34
Bandlücke (E g )<br />
Leitungsband (LB)<br />
Valenzband (VB)
Optische Ausgangsleistung<br />
Vorwiegend spontane<br />
Emission<br />
Vorwiegend stimulierte<br />
Emission<br />
Diodenstrom
Schutzschicht<br />
Mantel (n 2 )<br />
Kern (n 1 )
α max<br />
θ c<br />
<br />
<br />
<br />
<br />
<br />
<br />
Θc <br />
<br />
<br />
<br />
<br />
n1 < n2<br />
Θc = arcsin( n2<br />
n1<br />
θ c<br />
n 2<br />
n 1<br />
<br />
) <br />
<br />
<br />
<br />
= n · sin(αmax) <br />
<br />
n ≈ 1 αmax <br />
nLuft ≈ 1
F<br />
α<br />
Linse Faser<br />
f<br />
<br />
<br />
1<br />
sin(αmax) = n1 · sin(90 − Θc) <br />
1<br />
· sin(αmax) = cos(Θc) <br />
n2 · sin<br />
1<br />
2 (αmax) = cos 2 (Θc) = 1 − sin 2 (Θc) = 1 − n22 n2 1<br />
n1<br />
sin 2 (αmax) =<br />
<br />
<br />
n2 1 − n2 2 = <br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
α
optimal Faser zu tief in Halterung Faserende verschmutzt<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
• <br />
• <br />
• <br />
•
Laserdiode<br />
Glasfaser<br />
<br />
Photodiode<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
V
n1 = 1,48 n2 = 1,46 <br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
Θc n1 sin(Θ1) =<br />
n2 sin(Θ2)
Versuch IT-V8: Amplitudenmodulation<br />
Inhaltsverzeichnis<br />
1 Einleitung 2<br />
2 Gr<strong>und</strong>lagen der Amplitudenmodulation 3<br />
3 Verschiedene Formen der Amplitudenmodulation 8<br />
3.1 Zweiseitenbandmodulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />
3.2 Zweiseitenbandmodulation mit unterdrücktem Träger . . . . . . . . . . . . . 9<br />
3.3 Einseitenbandmodulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />
4 Übertragungseigenschaften von Systemen 14<br />
5 Kurzwellenausbreitung 17<br />
6 <strong>Aufgabe</strong>n 18<br />
Literaturverzeichnis 28<br />
IT-V8 - 1
1 Einleitung<br />
Die möglichst verzerrungs- <strong>und</strong> störungsfreie Übermittlung verschiedenartiger Signale von<br />
einem Ort zum anderen ist eine der Hauptaufgaben, mit denen man sich in der Nachrichtentechnik<br />
beschäftigt. Dieser Übermittlung von Signalen begegnet man täglich, z.B. beim<br />
Telefonieren, Fernsehen oder Radiohören.<br />
Die Übermittlung der Signale geschieht durch Übertragungskanäle, die von sehr verschiedenartiger<br />
Beschaffenheit sein können. Kabel, Hohlleiter oder der freie Raum können solche<br />
Übertragungskanäle bilden.<br />
Häufig ist es so, dass sich das Signal in seiner ursprünglichen Form gar nicht <strong>für</strong> die<br />
direkte Übertragung eignet. Nimmt man z.B. ein Telefonsignal, dessen Frequenzspektrum<br />
zwischen 300 Hz <strong>und</strong> 3,4 kHz liegt, so lässt sich dieses Signal über eine Paralleldrahtleitung<br />
direkt übertragen; wollte man aber dieses Signal über eine Antenne abstrahlen, so müsste<br />
diese Antenne eine Länge von etwa 1000 km haben, wenn die niedrigste Frequenz noch mit<br />
einem vernünftigen Wirkungsgrad abgestrahlt werden sollte. Eine <strong>Aufgabe</strong> der Modulation<br />
ist es also, eine Nachricht durch Frequenzverschiebung übertragbar zu machen.<br />
Die Bandbreite der Übertragungskanäle ist im Allgemeinen viel größer als die <strong>für</strong> die<br />
Übertragung eines Signals notwendige Bandbreite. Es ist nämlich in den meisten Fällen<br />
möglich, Signale, die ein unendliches Frequenzspektrum haben, in ihrer Bandbreite zu<br />
begrenzen, ohne dass ein unangemessener Informationsverlust auftritt.<br />
Eine weitere <strong>Aufgabe</strong> der Modulation ist es also, das Frequenzspektrum unterschiedlicher<br />
Signale so zu verschieben, dass eine optimale Ausnutzung eines Übertragungskanals möglich<br />
ist. Die verschobenen Frequenzspektren dürfen sich dabei nicht überlappen, da die ursprünglichen<br />
Signale sonst nicht mehr zurückgewonnen werden können. Ein entsprechendes System<br />
nennt man Frequenzmultiplexsystem.<br />
Auf eine weitere Möglichkeit mehrere Signale in einem Kanal zu übertragen, das Zeitmultiplexsystem,<br />
wollen wir hier nicht näher eingehen.<br />
2 Gr<strong>und</strong>lagen der Amplitudenmodulation<br />
Um das Prinzip der Amplitudenmodulation zu verstehen, betrachten wir den Fall, dass wir<br />
ein Nachrichtensignal f(t), mit f(t) reell, übermitteln wollen. Die Funktion cos(Ωt) ist der<br />
Träger. Durch die Multiplikation des Trägers mit [A + f(t)], wobei A ein Gleichanteil ist,<br />
erhält man folgendes Signal:<br />
s(t) = [A + f(t)] cos(Ωt) . (1)<br />
Das Frequenzspektrum des Signals f(t) erhalten wir durch die Fourier-Transformation<br />
∞<br />
F(jω) = F{f(t)} = f(t)e −jωt dt . (2)<br />
Das Signal f(t) im Zeitbereich hat also im Frequenzbereich das Spektrum F(jω).<br />
Bild 1 zeigt beispielhaft das Frequenzspektrum F(jω), wenn angenommen wird, dass<br />
F(jω) derart bandbegrenzt ist, dass <strong>für</strong> alle Frequenzen größer als ωm keine Spektralanteile<br />
vorhanden sind. Da <strong>für</strong> die Fourier-Transformierte F(jω) eines reellen Signals f(t)<br />
−∞<br />
IT-V8 - 2
ekanntlich<br />
−ωm<br />
F(jω)<br />
ωm<br />
Bild 1: Spektrum eines tiefpassbegrenzten Signals<br />
ω<br />
F(jω) = F ∗ (−jω) (3)<br />
gilt, folgt <strong>für</strong> die Transformation in den Zeitbereich<br />
f(t) = 1<br />
∞<br />
F(jω)e<br />
2π<br />
jωt dω = 1<br />
∞<br />
Re{F(jω)e<br />
π<br />
jωt }dω . (4)<br />
−∞<br />
Das Signal f(t) lässt sich somit aus dem Halbspektrum <strong>für</strong> positive oder negative Frequenzen<br />
herleiten. Die vollständige Information ist also in jedem Halbspektrum enthalten.<br />
Bestimmen wir nun das Spektrum des amplitudenmodulierten Signals s(t)<br />
0<br />
S(jω) = F{[A + f(t)] cos(Ωt)} . (5)<br />
Berücksichtigt man die Fourier-Transformierte einer Konstanten,<br />
A ◦−−• A 2πδ(ω) , (6)<br />
die Darstellung der Kosinusfunktion als Summe zweier Exponentialfunktionen,<br />
sowie die Regel von der Frequenzverschiebung,<br />
cos(Ωt) = 1 <br />
jΩt −jΩt<br />
e + e<br />
2<br />
, (7)<br />
x(t) ◦−−•X(jω) ⇐⇒ x(t)e jΩt ◦−−• X(jω − jΩ) , (8)<br />
so erhält man die Fourier-Transformierte<br />
S(jω) = πA [δ(ω − Ω) + δ(ω + Ω)] + 1<br />
[F(jω − jΩ) + F(jω + jΩ)] . (9)<br />
2<br />
S(jω) enthält also u.a. das Frequenzspektrum von f(t), welches aber um +Ω bzw.<br />
−Ω verschoben ist. Das geforderte Ziel, das Frequenzspektrum zu verschieben, wird also<br />
durch eine Multiplikation von Signal <strong>und</strong> Träger erreicht. Den Bereich Ω − ωm ≤ ω < Ω<br />
bei positiven Frequenzen nennt man unteres Seitenband, <strong>und</strong> den Bereich Ω < ω ≤ Ω + ωm<br />
oberes Seitenband. Der δ-Impuls bei ω = Ω ist durch die Trägerschwingung verursacht. Das<br />
ursprüngliche Signalhalbspektrum bei positiven Frequenzen ist jetzt das obere Seitenband<br />
<strong>und</strong> das ursprüngliche Signalhalbspektrum bei negativen Frequenzen das untere Seitenband,<br />
IT-V8 - 3
S(jω)<br />
Kehrlage<br />
Träger<br />
Regellage<br />
unteres oberes<br />
Seitenband<br />
Seitenband<br />
−Ω Ω<br />
−Ω − ωm −Ω + ωm Ω − ωm Ω + ωm<br />
Bild 2: Spektrum eines AM-Signals<br />
welches sich in Kehrlage befindet. Wie dem Bild 2 zu entnehmen ist, gilt spiegelbildlich <strong>für</strong><br />
negative Frequenzen dasselbe.<br />
Um den Träger zu unterdrücken, kann man in der Gleichung (9) noch A = 0 setzen.<br />
Ferner ist die Information, welche f(t) beinhaltet, in jedem Seitenband enthalten. Um die<br />
gewünschte Nachricht zu übertragen, hat man also die Möglichkeit entweder zwei Seitenbänder<br />
oder nur ein Seitenband zu senden. Die drei wichtigsten Modulationsarten bezeichnen<br />
wir als<br />
• Zweiseitenbandmodulation mit Träger,<br />
• Zweiseitenbandmodulation mit unterdrücktem Träger <strong>und</strong><br />
• Einseitenbandmodulation mit unterdrücktem Träger.<br />
Erstere stellt den allgemeinsten Fall eines amplitudenmodulierten Signals dar. Die beiden<br />
anderen Arten entstehen aus ihm jeweils durch Weglassen von Spektralanteilen.<br />
Zur Erläuterung der gef<strong>und</strong>enen Eigenschaften, betrachten wir nun das spezielle Signal<br />
f(t) = a cos(ω0t) ◦−−•F(jω) = aπ [δ(ω − ω0) + δ(ω + ω0)] .<br />
Aus (1) erhält man <strong>für</strong> das amplitudenmodulierte Signal<br />
s(t) = [A + a cos(ω0t)] cos(Ωt) = A cos(Ωt) + a<br />
2 cos(Ω + ω0)t + a<br />
2 cos(Ω − ω0)t (10)<br />
bzw. dessen Fourier-Transformierte<br />
S(jω) = Aπ [δ(ω − Ω) + δ(ω + Ω)] + a<br />
2 π [δ(ω − [Ω + ω0]) + δ(ω + [Ω + ω0])]<br />
+ a<br />
2 π [δ(ω − [Ω − ω0]) + δ(ω + [Ω − ω0])] .<br />
Es wird deutlich, dass wir das Signal f(t) um die Frequenz +Ω bzw. −Ω verschoben<br />
haben. Der zeitliche Verlauf <strong>und</strong> der Frequenzverlauf des resultierenden Signals s(t) sind<br />
in den Bildern 3 <strong>und</strong> 4 dargestellt. Der Signalanteil cos([Ω + ω0]t) befindet sich im oberen<br />
Seitenband <strong>und</strong> cos([Ω −ω0]t) befindet sich im unteren Seitenband. Das Verhältnis m = a/A<br />
bezeichnet man als den Modulationsgrad.<br />
IT-V8 - 4<br />
ω<br />
(11)
A + a<br />
1<br />
A + a<br />
A<br />
s(t)<br />
A + a cos(ω0t)<br />
Bild 3: AM-Signal im Zeitbereich<br />
S(jω)<br />
Aπδ(ω + Ω) Aπδ(ω − Ω)<br />
−Ω<br />
−Ω − ω0 −Ω + ω0<br />
Ω − ω0<br />
Ω Ω + ω0<br />
Bild 4: AM-Signal im Frequenzbereich<br />
cos(Ωt)<br />
Zur Ergänzung sei an dieser Stelle Folgendes bemerkt: Bei den obigen Betrachtungen zur<br />
Amplitudenmodulation wurde stets von einem Nachrichtensignal f(t) gesprochen, mit dem<br />
ein Träger moduliert wird <strong>und</strong> das eine gewisse Information enthält. Vom nachrichtentechnischen<br />
Standpunkt aus gesehen ist also eine Modulation mit einem Signal f(t) = a cos(ω0t)<br />
IT-V8 - 5<br />
t<br />
t<br />
ω
völlig wertlos, da ein solches Signal, dessen gesamter zeitlicher Verlauf vorhersagbar ist,<br />
keine Information beinhaltet.<br />
Wir haben bisher als Träger die Funktion cos(Ωt) benutzt. Da sich jede periodische<br />
reelle Funktion als eine Linearkombination von Sinus- <strong>und</strong> Kosinusfunktionen darstellen<br />
lässt, können wir unsere Ergebnisse mit einem allgemeiner definierten, periodischen Träger<br />
erweitern. Wir stellen diesen Träger p(t) als eine Linearkombination von Exponentialfunktionen<br />
exp(jnΩt) – also als Fourier-Reihe – dar<br />
mit<br />
p(t) =<br />
pn = 1<br />
T<br />
T/2<br />
∞<br />
n=−∞<br />
−T/2<br />
pne jnΩt<br />
(12)<br />
p(t)e −jnΩt dt . (13)<br />
Betrachten wir nun ein allgemeines Signal f(t), das diesen Träger moduliert<br />
s(t) = [A + f(t)]p(t) = [A + f(t)]<br />
∞<br />
n=−∞<br />
pne jnΩt . (14)<br />
Aufgr<strong>und</strong> der Beziehung (8) besteht das Spektrum S(jω) dieses Signals s(t) aus den um nΩ<br />
mit n ∈ Z verschobenen Spektren von A + f(t)<br />
S(jω) =<br />
∞<br />
n=−∞<br />
2Aπpnδ(ω − nΩ) + pnF(jω − jnΩ) . (15)<br />
Wie in Gl.(15) zu erkennen ist, können wir jetzt durch die geeignete Wahl des Trägers p(t)<br />
das Spektrum S(jω) verändern. So geht <strong>für</strong><br />
<br />
1/2 <strong>für</strong> n = ±1<br />
pn =<br />
0 sonst<br />
die Gleichung (15) in (9) über, d.h., wir erhalten durch Herausfiltern aller unerwünschten<br />
Frequenzanteile ein normales amplitudenmoduliertes Signal, siehe Bild 2. Andererseits ist<br />
es durch die Wahl eines allgemeineren Trägers wie in Gleichung (12) möglich, die technische<br />
Realisierung von Modulatoren zu vereinfachen. Diesen Aspekt werden wir im nächsten<br />
Abschnitt noch etwas genauer kennenlernen.<br />
3 Verschiedene Formen der Amplitudenmodulation<br />
3.1 Zweiseitenbandmodulation<br />
Modulation<br />
Um ein Frequenzspektrum S(jω) gemäß der Gleichung (9) zu erhalten, muss die Multiplikation<br />
zwischen Träger <strong>und</strong> Signal verwirklicht werden. Eine Möglichkeit zeigt Bild 5. Das Signal<br />
IT-V8 - 6
e(t) <strong>und</strong> der Träger A cos(Ωt) werden zunächst addiert. Durch die nichtlineare Kennlinie der<br />
Diode enthält u0(t) unter anderem das gewünschte Produkt, wie wir im Folgenden zeigen<br />
werden.<br />
Für die Diode gilt<br />
<br />
i(t) = IS e uD(t)/UT<br />
<br />
<br />
uD(t)<br />
− 1 = IS +<br />
UT<br />
1<br />
<br />
2<br />
uD(t)<br />
+ . . . , (16)<br />
2 UT<br />
wobei UT die Temperaturspannung <strong>und</strong> IS der Sperrsättigungsstrom ist. Berücksichtigt man<br />
nur die ersten zwei Terme der Potenzreihe, so ergibt sich näherungsweise <strong>für</strong> u0(t)<br />
<br />
uD(t)<br />
u0(t) = Ri(t) ≈ RIS + 1<br />
<br />
2<br />
uD(t)<br />
. (17)<br />
2<br />
e(t)<br />
A cos(Ωt)<br />
i(t)<br />
UT<br />
uD(t)<br />
D<br />
R<br />
UT<br />
u0(t)<br />
Bild 5: Erzeugung von Modulationsprodukten mit einer Diode<br />
Ist der Widerstand R sehr klein, gilt also uD(t) ≈ A cos(Ωt) + e(t), so erhält man mit<br />
dieser Approximation <strong>für</strong> u0(t):<br />
u0(t) = RIS<br />
UT<br />
= RIS<br />
UT<br />
[A cos(Ωt) + e(t)] + RIS<br />
2U2 [A cos(Ωt) + e(t)]<br />
T<br />
2<br />
A cos(Ωt) + RIS<br />
e(t) +<br />
UT<br />
RISA 2<br />
4U 2 T<br />
[1 + cos(2Ωt)] + RIS<br />
2U 2 T<br />
e 2 (t) + RIS<br />
U2 Ae(t) cos(Ωt) .<br />
T<br />
In der Ausgangsspannung ist also, verursacht durch die Nichtlinearität der Diodenkennlinie,<br />
das gewünschte Produkt enthalten (unterstrichen), vgl. Gleichung (1).<br />
Wird in der Gleichung (16) die Potenzreihe weiter fortgesetzt, so erhält man noch<br />
weitere Anteile <strong>für</strong> u0(t). Um nur die Trägerschwingung Ω <strong>und</strong> die beiden Seitenbänder<br />
zu bekommen, wird dem Modulator ein Bandpass nachgeschaltet. Unter der Voraussetzung,<br />
dass Ω > 3ωm <strong>und</strong> ωm die Grenzfrequenz von e(t) ist, erhalten wir eine Ausgangsspannung<br />
u0(t) mit einem Spektrum U(jω), welches dem im Bild 2 gezeigten Spektrum entspricht.<br />
Allgemein sind folgende Schritte zur Modulation mit einer nichtlinearen Kennlinie notwendig:<br />
1. Überlagerung von Signalspannung (z.B. Sprache) <strong>und</strong> Trägerspannung.<br />
2. Aussteuerung einer nichtlinearen Kennlinie.<br />
3. Entfernen unerwünschter Modulationsprodukte durch Bandpassfilterung.<br />
Als nichtlineare Kennlinie kann außer der Strom-Spannungs-Kennlinie der Diode z. B. auch<br />
die Steuerkennlinie eines Transistors oder einer Röhre verwendet werden.<br />
IT-V8 - 7
Demodulation<br />
Die Demodulation eines amplitudenmodulierten Signals mit Träger erfolgt am einfachsten<br />
durch eine Hüllkurvendetektion. Dieses Verfahren nutzt aus, dass das AM-Signal die Trägerschwingung<br />
beinhaltet <strong>und</strong> ist in der R<strong>und</strong>funktechnik weit verbreitet (hier gilt Ω ≫ ωm).<br />
Die Gleichrichtung des AM-Signals an einer Diode entspricht der Multiplikation mit<br />
einem Rechtecksignal, das mit der Frequenz der Trägerschwingung die Werte 1 <strong>und</strong> 0<br />
annimmt. Das Produktsignal enthält dann wieder Spektralanteile im Bereich |ω| < ωm,<br />
also dort, wo das Spektrum des modulierenden Signals e(t) lag. Durch einen geeigneten<br />
Bandpass werden die höheren Frequenzen <strong>und</strong> die Gleichspannung (verschobener Träger)<br />
ausgefiltert, so dass nur noch das niederfrequente Nutzsignal übrig bleibt, siehe u2(t) im<br />
Bild 6. Damit das Signal nicht verzerrt wird, muss der Modulationsgrad m ≤ 1 sein.<br />
D<br />
u1(t)<br />
u2(t)<br />
Hochfrequenzunterdrückung<br />
u1(t) u2(t)<br />
C1<br />
R1<br />
C2<br />
Gleichspannungsunterdrückung<br />
T<br />
2<br />
T t<br />
Bild 6: Schaltung zur Demodulation durch Gleichrichtung (auch Spitzen- bzw. Hüllkurvengleichrichtung<br />
genannt)<br />
IT-V8 - 8<br />
R2<br />
t
3.2 Zweiseitenbandmodulation mit unterdrücktem Träger<br />
Im Abschnitt 3.1 haben wir den Fall behandelt, dass der Träger <strong>und</strong> die beiden Seitenbänder<br />
übertragen werden, obwohl der Träger keinen Informationsgehalt hat. Nachteilig dabei ist,<br />
dass der Träger den größten Teil der Sendeleistung verbraucht. Selbst bei einem Modulationsgrad<br />
von m = 1 muss 66 % der Gesamtleistung als Trägerleistung aufgebracht werden.<br />
Wenn der Träger unterdrückt wird 1 , muss er im Empfänger künstlich wiederhergestellt<br />
werden, wenn Hüllkurvendetektion verwendet werden soll.<br />
Modulation<br />
Um den Träger zu unterdrücken, ist es nicht zweckmäßig eine Bandsperre zu nehmen, die bei<br />
der Trägerfrequenz sperrt. Sie müsste sehr schmal sein, um keine benachbarten Frequenzen<br />
zu stören. Meistens verwendet man Modulatoren, welche den Träger bereits unmittelbar<br />
unterdrücken, d.h., die Größe A aus der Gleichung (15) tritt nicht auf.<br />
e(t)<br />
R<br />
S<br />
u0(t)<br />
Bild 7: Modulation mit einem Rechtecksignal<br />
Eine einfache Schaltung zeigt Bild 7. Der Träger wird hierbei durch eine Rechteckfunktion<br />
beschrieben, die sich dadurch ergibt, dass der Schalter S periodisch geschlossen <strong>und</strong><br />
geöffnet wird. Gemäß den Gleichungen (12) <strong>und</strong> (13) ergibt sich <strong>für</strong> den Träger<br />
∞<br />
p(t) = pne<br />
n=−∞<br />
jnΩt ⎧<br />
⎨ 1/2 <strong>für</strong> n = 0<br />
mit pn = 1/[jnπ] <strong>für</strong> n ungerade<br />
⎩<br />
0 <strong>für</strong> n gerade<br />
bzw.<br />
p(t) = 1<br />
<br />
2<br />
+ sin(Ωt) +<br />
2 π<br />
1<br />
<br />
1<br />
sin(3Ωt) + sin(5Ωt) + . . .<br />
3 5<br />
. (18)<br />
Um zu verdeutlichen, was der Modulator nach Bild 7 bewirkt, setzen wir e(t) = a cos(ω0t).<br />
Damit ergibt sich <strong>für</strong> die Ausgangsspannung<br />
u0(t) = p(t)e(t) = a<br />
2 cos(ω0t) + a<br />
π [sin(Ω + ω0)t + sin(Ω − ω0)t] + . . .<br />
1 In der angelsächsischen Literatur verwendet man <strong>für</strong> die Zweiseitenbandmodulation mit unterdrücktem<br />
Träger das Akronym "‘DSB"’ (Double Side Band).<br />
IT-V8 - 9
Die Ausgangsspannung enthält keine sinusförmigen Funktionen mit den Frequenzen nΩ,<br />
also Vielfache der Gr<strong>und</strong>schwingung Ω des Rechteckträgers. Durch ein geeignetes Filter<br />
lassen sich nun z.B. die Anteile a [sin(Ω + ω0)t + sin(Ω − ω0)t] /π herausfiltern. Wie man<br />
aus einem Vergleich dieses Ergebnisses mit Gleichung (10) sowie den Bildern 3 <strong>und</strong> 4<br />
feststellt, entspricht dies einer Übertragung der beiden Seitenbänder mit unterdrücktem<br />
Träger. Um zu verdeutlichen, dass der Modulator im Bild 7 den Träger p(t) <strong>und</strong> das Signal<br />
1<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
p(t)<br />
e(t)<br />
u0(t)<br />
T 2T 3T 4T 5T 6T<br />
Bild 8: Modulation eines Rechteckträgers mit einem beliebigen Signal e(t)<br />
e(t) multipliziert, betrachten wir ein allgemeines Signal im Bild 8. Man erkennt hier, dass<br />
u0(t) = p(t)e(t) ist.<br />
Das Frequenzspektrum eines mit einem bandbegrenzten Signal e(t) modulierten Rechteckträgers<br />
ergibt sich aus den Gleichungen (15) <strong>und</strong> (18).<br />
Wie im Bild 9 zu erkennen ist, enthält das Spektrum noch Anteile die nicht gebraucht<br />
werden. Die benötigten Spektralanteile, z. B. E(jω − jΩ) <strong>und</strong> E(jω + jΩ), können durch<br />
einen Bandpass ausgefiltert werden. Das auf diese Weise erhaltene amplitudenmodulierte<br />
Signal sei s2(t).<br />
IT-V8 - 10<br />
t<br />
t<br />
t
U0(jω)<br />
Spektrum <strong>für</strong> DSB<br />
−3Ω −Ω −ωm 0 ωm Ω 3Ω<br />
−Ω − ωm −Ω + ωm Ω − ωm Ω + ωm<br />
Demodulation<br />
Bild 9: Spektrum U0(jω) des Signals u0(t) = p(t)e(t)<br />
Enthält das AM-Signal keinen Träger, so ist eine Demodulation durch Hüllkurvendetektion<br />
nicht möglich. Wie im Bild 10 dargestellt, kann das ursprüngliche Signalspektrum aber<br />
dadurch zurückgewonnen werden, dass man das amplitudenmodulierte Signal s2(t) zunächst<br />
noch einmal mit<br />
p(t) =<br />
∞<br />
n=−∞<br />
pne jnΩt<br />
multipliziert <strong>und</strong> anschließend mit einem Tiefpass filtert. Der Träger muss also im Empfänger<br />
generiert werden. Man bezeichnet dieses Verfahren als synchrone Demodulation. Das<br />
erhaltene Signal s3(t) enthält wiederum die verschobenen Spektralanteile<br />
∞<br />
n=−∞<br />
pnS2(jω − jnΩ) =<br />
∞<br />
n=−∞<br />
qnE(jω − jnΩ).<br />
Der im Bild 10 eingefügte Tiefpass hat eine Grenzfrequenz ωm < ωg < Ω − ωm, so dass <strong>für</strong><br />
alle |ω| > ωg die Ausgangsspannung Null wird. Auf diese Weise wird erreicht, dass das<br />
ursprüngliche, nur in seiner Amplitude veränderte Signalspektrum wiedergewonnen wird.<br />
Die synchrone Demodulation ist nicht unkritisch, denn die Frequenz <strong>und</strong> die Phasenlage des<br />
Trägers muss im Empfänger sehr genau nachgebildet werden, sonst kommt es zu signalverfälschenden<br />
Effekten.<br />
s2(t)<br />
p(t)<br />
s3(t)<br />
Tiefpass<br />
Bild 10: Demodulation eines AM-Signals<br />
IT-V8 - 11<br />
e ′ (t)<br />
ω
3.3 Einseitenbandmodulation<br />
Je mehr Nachrichten übertragen werden, um so größer ist der Bedarf an Bandbreite. Die<br />
erforderliche Bandbreite <strong>für</strong> eine Information wird durch die höchste darin vorkommende<br />
Frequenz <strong>und</strong> durch die Modulationsart bestimmt. Erstere liegt jedoch meist fest, daher<br />
kann Bandbreite nur durch ein geeignetes Modulationsverfahren eingespart werden. Dies ist<br />
z. B. die Einseitenbandmodulation 2 . Hierbei wird nur ein Seitenband übertragen, wobei der<br />
Träger entweder vollständig, mit verringerter Amplitude oder überhaupt nicht mitgesendet<br />
wird. Es wird also auf red<strong>und</strong>ante Anteile des Frequenzspektrums verzichtet. Der Bedarf an<br />
Bandbreite ist gegenüber der Zweiseitenbandmodulation um die Hälfte gesunken. Um ein<br />
SSB-Signal zu erzeugen gibt es zwei Methoden:<br />
1. Filtermethode: Eines der beiden Seitenbänder wird herausgefiltert.<br />
2. Phasenmethode: Ein Seitenband wird durch eine Phasendrehung <strong>und</strong> Addition ausgelöscht.<br />
Allerdings wird in diesem Praktikum nicht auf das letztgenannte Verfahren eingegangen.<br />
Modulation <strong>und</strong> Demodulation sind identisch wie bei der Zweiseitenbandmodulation<br />
ohne Träger. Für beide Arten der Amplitudenmodulation lässt sich ein gemeinsames Signalflussbild,<br />
welches im Bild 11 dargestellt ist, <strong>für</strong> den gesamten Signalweg angeben. Lediglich<br />
der verwendete Bandpass bestimmt, welche Modulationsart vorliegt. Es wird im Übrigen<br />
von einer störungsfreien Übertragung über den Kanal ausgegangen.<br />
e(t) e ′ s1(t) s2(t)<br />
Übertra-<br />
s2(t) s3(t)<br />
Modulator Bandpass<br />
De-<br />
Tiefpass (t)<br />
Modulator<br />
gungskanal<br />
Bild 11: Modulation, Übertragung <strong>und</strong> Demodulation eines Signals<br />
4 Übertragungseigenschaften von Systemen<br />
Ein nachrichtentechnisches Übertragungssystem kann, egal ob es sich um eine Kabelverbindung<br />
oder eine Antennenübertragung handelt, durch seine Übertragungsfunktion H(jω)<br />
beschrieben werden, siehe Bild 12.<br />
x(t) H(jω) y(t)<br />
Bild 12: Übertragungssystem mit Eingangssignal x(t) <strong>und</strong> Ausgangssignal y(t)<br />
2 In der angelsächsischen Literatur wird als Akronym "‘SSB"’ (Single Side Band) verwendet.<br />
IT-V8 - 12
Von besonderer Bedeutung ist die Darstellung von H(jω) in der Form<br />
H(jω) = e −Γ(jω) = e −A(ω)−jB(ω) = |H(jω)|e −jB(ω) , (19)<br />
wobei man A als die Dämpfung <strong>und</strong> B als die Phase des Systems bezeichnet.<br />
Im Folgenden soll untersucht werden, welchen Einfluss der Phasenverlauf bei konstanter<br />
Dämpfung auf die Übertragungseigenschaften des Systems hat. Wir wollen da<strong>für</strong> als<br />
Eingangssignal x(t) ein amplitudenmoduliertes Signal mit Träger annehmen.<br />
Übertragungssysteme, die eine verzerrungsfreie Übertragung ermöglichen, haben u.a.<br />
einen linearen Phasenverlauf. Handelt es sich bei diesen Übertragungssystemen um Filter,<br />
die nur ein begrenztes Frequenzspektrum passieren lassen, so braucht die lineare Phase, wie<br />
es im Bild 13 veranschaulicht wird, nur im Durchlassbereich des Filters gefordert zu werden.<br />
−Ω − ωS −Ω −Ω + ωS<br />
B0<br />
B(ω)<br />
−B0<br />
Ω − ωS Ω Ω + ωS ω<br />
Bild 13: Phasenverlauf eines Übertragungssystems mit linearer Phase im relevanten Bereich<br />
Da wir nur reelle Systeme betrachten wollen <strong>und</strong> <strong>für</strong> diese Systeme<br />
H(jω) = H ∗ (−jω) (20)<br />
gilt, vgl. Gleichung (3), muss die Phase eine ungerade Funktion der Frequenz ω sein, d.h.,<br />
Ein linearer Phasenverlauf lässt sich also als<br />
<br />
B0 + ωt0 <strong>für</strong> ω > 0<br />
B(ω) =<br />
−B0 + ωt0 <strong>für</strong> ω < 0<br />
schreiben.<br />
Betrachten wir nun ein allgemeines AM–Signal x(t) mit<br />
B(ω) = −B(−ω) . (21)<br />
(22)<br />
x(t) = [A + f(t)] cos(Ωt) , (23)<br />
IT-V8 - 13
wobei f(t) gemäß Bild 1 tiefpassbegrenzt ist. Für die Fourier-Transformierte X(jω) dieses<br />
Signals erhält man gemäß der Gleichung (9)<br />
X(jω) = πA [δ(ω − Ω) + δ(ω + Ω)] + 1<br />
[F(jω − jΩ) + F(jω + jΩ)] (24)<br />
2<br />
<strong>und</strong> das Ausgangssignal des Übertragungssystems lautet<br />
y(t) = F −1 {X(jω)e −jB(ω) } , (25)<br />
wenn |H(jω)| = e−A(ω) = 1 gesetzt wird. Setzt man nun Gleichung (24) in Gleichung (25)<br />
ein <strong>und</strong> nimmt eine lineare Phase des Übertragungssystems gemäß Gleichung (22) an, so<br />
erhält man<br />
Y (jω) = 1<br />
2 F(jω − jΩ) e−jB0−jωt0 1<br />
+ F(jω + jΩ) e+jB0−jωt0<br />
2 (26)<br />
+ πA δ(ω − Ω) e −jB0−jΩt0 + πA δ(ω + Ω) e +jB0+jΩt0 ,<br />
wobei noch die Ausblendeigenschaft der δ-Funktion verwendet wurde. Wegen<br />
folgt daraus<br />
<strong>und</strong> schließlich<br />
f(t − t0) e jΩ[t−t0] ◦−−•F(jω − jΩ) e −jωt0 (27)<br />
y(t) = 1<br />
2 f(t − t0) e jΩ[t−t0]−jB0 + 1<br />
2 f(t − t0) e −jΩ[t−t0]+jB0<br />
+ A<br />
2 ejΩ[t−t0]−jB0 + A<br />
2 e−jΩ[t−t0]+jB0<br />
<br />
y(t) = [A + f(t − t0)] cos Ω t − t0 − B0<br />
<br />
Ω<br />
(28)<br />
. (29)<br />
Wie sich herausstellt, erscheint die Einhüllende des AM–Signal am Ausgang des Übertragungssystems<br />
um die Zeit t0 verzögert, während der Träger cos(Ωt) um die Zeit t0 + B0/Ω<br />
verzögert wird.<br />
Benutzt man die Definitionen <strong>für</strong> die Phasen- <strong>und</strong> die Gruppenlaufzeit eines Systems<br />
τph(ω) = B(ω)<br />
ω<br />
bzw. τgr(ω) = ∂B(ω)<br />
∂ω<br />
, (30)<br />
so ergibt sich <strong>für</strong> den Fall einer – nach Gleichung (22) definierten – linearen Phase<br />
τph(Ω) = t0 + B0<br />
Ω <strong>und</strong> τgr = t0 = konst. . (31)<br />
Somit erhalten wir also eine Zeitverschiebung des Trägers um die Phasenlaufzeit <strong>und</strong> des<br />
modulierenden Signals um die Gruppenlaufzeit, wie es im Bild 14 dargestellt ist:<br />
y(t) = [A + f(t − τgr)] cos(Ω[t − τph(Ω)]) . (32)<br />
IT-V8 - 14
2<br />
1<br />
−1<br />
−2<br />
2<br />
1<br />
−1<br />
−2<br />
x(t)<br />
y(t)<br />
τph<br />
Bild 14: Phasen– <strong>und</strong> Gruppenlaufzeit am Beispiel eines AM–Signals<br />
5 Kurzwellenausbreitung<br />
Man unterscheidet zwischen zwei Wegen zur drahtlosen Ausbreitung elektromagnetischer<br />
Energie. Sie werden mit Bodenwellenausbreitung <strong>und</strong> Raumwellenausbreitung bezeichnet.<br />
Bodenwellen werden von den Feldern gebildet, die sich an der Erdoberfläche fortsetzen.<br />
Sie sind <strong>für</strong> Kurzwellen <strong>und</strong> Signale höherer Frequenzen praktisch bedeutungslos, da deren<br />
hochfrequente Wechselströme kaum in die Erdoberfläche eindringen, <strong>und</strong> somit nach<br />
kurzem Übertragungsweg bereits stark gedämpft werden. Bei der Raumwellenausbreitung<br />
wird die elektromagnetische Energie unter verschiedenen Winkeln in die Atmosphäre, deren<br />
elektrische Beschaffenheit <strong>für</strong> die Energieausbreitung verantwortlich ist, abgestrahlt.<br />
Die Ausbreitung der Kurzwellen über große Entfernungen bei relativ kleiner Sendeleistung<br />
ist auf die Reflexionen an der Ionosphäre zurückzuführen. Die ultraviolette Strahlung<br />
der Sonne bewirkt eine Ionisierung der höheren Schichten der Atmosphäre, indem Elektronen<br />
aus den Gasatomen <strong>und</strong> -molekülen herausgeschlagen werden. Während die Luft gewöhnlich<br />
ein Nichtleiter ist, wird sie in der ionisierten Form zum Leiter, dessen Leitfähigkeit vom<br />
Ionisierungsgrad abhängt.<br />
Zur Überbrückung großer Entfernungen werden Kurzwellen von der Sendeantenne je<br />
nach Frequenz unter einem bestimmten Winkel abgestrahlt. An der Ionosphäre reflektiert,<br />
gelangen sie zurück zur Erde, so dass eine große Sprungstrecke überw<strong>und</strong>en wird. Ein solcher<br />
Reflexionssprung kann mehrere Male wiederholt werden, wobei die Wellen zwischen Erde<br />
<strong>und</strong> Ionosphäre hin <strong>und</strong> her reflektiert werden.<br />
τgr<br />
IT-V8 - 15<br />
t<br />
t
Die Feldstärke am Empfangsort ist nicht konstant, da sich die Ionisationsdichte <strong>und</strong> die<br />
Höhe der Ionosphäre ständig ändern. Beim Empfänger äußert sich dies als fortlaufendes<br />
Ansteigen <strong>und</strong> Abfallen der Eingangsspannung, das als Schw<strong>und</strong> oder Fading typisch <strong>für</strong><br />
den Kurzwellenempfang ist.<br />
Je nach Ursache unterscheidet man zwischen Absorptionsschw<strong>und</strong>, Interferenzschw<strong>und</strong><br />
<strong>und</strong> Polarisationsschw<strong>und</strong>.<br />
Beim Absorptionsschw<strong>und</strong> schwankt die Raumwellenausbreitung über sehr große Bandbreiten,<br />
wobei die Sendeenergie periodisch in den unteren Schichten der Ionosphäre absorbiert<br />
wird.<br />
Der Interferenz- oder Selektivschw<strong>und</strong> ist auf die unterschiedlichen Ausbreitungswege der<br />
Raumwellen zurückzuführen. Am Empfangsort haben die Teilkomponenten des reflektierten<br />
Feldes eine Phasendifferenz, die zur Anhebung oder auch zur Kompensation der Feldstärke<br />
führen kann. Im Gegensatz zum Absorptionsschw<strong>und</strong> wird beim Selektivschw<strong>und</strong> nur eine<br />
relativ schmale Bandbreite von 50 Hz bis einigen 100 Hz betroffen, wobei dieses ”Loch” über<br />
den Übertragungsbereich hinwegwandert.<br />
Bei der Amplitudenmodulation mit Träger kann es passieren, dass der Modulationsgrad<br />
durch die Dämpfung des Trägers aufgr<strong>und</strong> des Selektivschw<strong>und</strong>es größer als eins wird. Wird<br />
dann im Empfänger ein Hüllkurvendemodulator [Mäus76] verwendet, so kommt es zu starken<br />
Verzerrungen. Hier sind Übertragungssysteme mit unterdrücktem Träger überlegen.<br />
Beim Polarisationsschw<strong>und</strong> dreht sich die Polarisationsebene des elektromagnetischen<br />
Feldes, die von der Form der Sendeantenne abhängt, durch Unregelmäßigkeiten der Ionosphäre<br />
oder durch Hindernisse (hohe Gebäude, Hochspannungsleitungen o.ä.) in Antennennähe.<br />
Da die Polarisationsebene der Empfangsantenne konstant ist, schwankt die<br />
resultierende Empfangsspannung mit der Periodendauer der auftretenden Felddrehung am<br />
Empfangsort.<br />
6 <strong>Aufgabe</strong>n<br />
Im folgenden Versuch wird das Verhalten der Amplitudenmodulation mit einer Rechteckfunktion<br />
als Träger untersucht. Als Signale verwenden wir<br />
• ein Sinussignal (<strong>Aufgabe</strong>n 1 <strong>und</strong> 2)<br />
• ein Rechtecksignal (<strong>Aufgabe</strong> 3) <strong>und</strong><br />
• ein allgemeines Sprach- bzw. Musiksignal (<strong>Aufgabe</strong> 4).<br />
Realisierung der Modulatoren<br />
Um eine Rechteckfunktion als Träger zu erhalten, wird ein Modulator nach Bild 7 verwendet.<br />
Der Schalter S kann z.B. durch einen Feldeffekttransistor (FET) realisiert werden, siehe<br />
Bild 15.<br />
Für das Verständnis der Wirkungsweise eines Feldeffekttransistors als Schalter betrachten<br />
wir einen Feldeffekttransistor vom Typ 3N153 (MOSFET). Im Bild 16 ist der Widerstand<br />
RDS zwischen Drain (D) <strong>und</strong> Source (S) in Abhängigkeit von der zwischen Gate (G) <strong>und</strong><br />
Source liegenden Spannung UGS aufgetragen.<br />
IT-V8 - 16
PSfrag<br />
e(t)<br />
R<br />
uGS(t)<br />
G<br />
D<br />
S<br />
u0(t)<br />
Bild 15: Realisierung eines Ein/Aus-Schalters mit einem FET<br />
10 8<br />
10 6<br />
10 4<br />
RDS<br />
Ω<br />
10 2<br />
−10 −7,5 −5 −2,5 0 +2,5 +5<br />
Bild 16: Typische Kennlinie eines MOSFET<br />
UGS/V<br />
Es müssen folgende Bedingungen erfüllt sein, damit der Feldeffekttransistor als Schalter<br />
eingesetzt werden kann:<br />
1. Für den Aus- <strong>und</strong> Ein-Zustand müssen Punkte auf der Kennlinie gewählt werden, in<br />
denen dRDS/dUGS klein ist. Dort ist RDS dann bei Schwankungen von UGS nahezu<br />
konstant.<br />
2. Es muss gelten: e(t) ≪ UGS, damit e(t) keinen Einfluss auf UGS hat.<br />
3. Das Übergangsgebiet zwischen den Punkten der Kennlinie, an denen der Feldeffekttransistor<br />
hoch- bzw. niederohmig ist, muss in möglichst kurzer Zeit durchfahren<br />
werden.<br />
Das Prinzip des verwendeten Modulators zeigt Bild 17. Bei geöffnetem Schalter S2 arbeitet<br />
der Modulator im Gegentaktbetrieb, <strong>und</strong> bei geschlossenem Schalter S2 im Eintaktbetrieb.<br />
Der ideale Operationsverstärker hat einen unendlich großen Eingangswiderstand <strong>und</strong> es gilt<br />
ua(t) = ud(t).<br />
Vorbereitungsaufgabe 6.1:<br />
1. Zeichnen Sie den zeitlichen Verlauf von p(t) <strong>und</strong> ua(t) = p(t)ue(t) <strong>für</strong><br />
IT-V8 - 17
ue<br />
a) Eintaktbetrieb<br />
S2<br />
b) Gegentaktbetrieb<br />
1 kΩ<br />
1 kΩ<br />
ud<br />
−<br />
+<br />
1<br />
Ω = 2π<br />
T<br />
Bild 17: Modulator<br />
600 Ω<br />
bei sinusförmigem Eingangssignal ue(t) = a sin(ωst) mit Ω ≫ ωs nach dem im Bild 17<br />
dargestellten Prinzip (siehe auch Abschnitt 3.2).<br />
Bei dem Modulator wird ein CMOS–IC mit integrierten elektronischen Schaltern<br />
benutzt. Für diese Schalter gilt:<br />
<br />
= 200 Ω <strong>für</strong> UST = 15 V<br />
RD =<br />
(33)<br />
> 10 MΩ <strong>für</strong> UST = 0 V ,<br />
wobei RD der Durchlasswiderstand eines Schalters ist. Im Folgenden wird angenommen,<br />
dass RD → ∞ ist <strong>für</strong> UST = 0 V. Statt einer einzigen Steuerspannung UST<br />
benötigt der im Versuchsaufbau verwendete Modulator zwei Steuerspannungen UST1<br />
<strong>und</strong> UST2. Diese haben <strong>für</strong> Gegentaktbetrieb den Verlauf wie im Bild 18. Für Eintaktbetrieb<br />
wird UST2 = 15 V gesetzt. Um den nichtlinearen Schaltern Rechnung zu tragen,<br />
muss die Schaltung aus Bild 17 geändert werden. Bild 19 zeigt eine wirklichkeitsnähere<br />
Darstellung. Für den Eintaktbetrieb erhält man das Ersatzschaltbild 20.<br />
2. Geben Sie einen Ausdruck <strong>für</strong> die Ausgangsspannung ua(t) der Schaltung im Bild 20<br />
an <strong>für</strong><br />
a) RD = 0 Ω<br />
b) RD = 200 Ω.<br />
3. Berechnen Sie die Effektivwerte der Frequenzkomponenten von ua(t) bis einschließlich<br />
5Ω + ωs, wenn<br />
a) RD = 0 Ω<br />
b) RD = 200 Ω ist,<br />
<strong>und</strong> zwar <strong>für</strong> den Eintakt- <strong>und</strong> den Gegentaktbetrieb.<br />
IT-V8 - 18<br />
ua
15 V<br />
0 V<br />
15 V<br />
0 V<br />
UST1<br />
UST2<br />
T 2T 3T 4T 5T t<br />
Bild 18: Verlauf der Steuerspannungen bei Gegentaktbetrieb<br />
ue<br />
a sin(ωst)<br />
S2<br />
1 kΩ<br />
1 kΩ<br />
RD<br />
RD<br />
Ω = 2π<br />
T<br />
Bild 19: Realer Modulator<br />
Ω = 2π<br />
T<br />
−<br />
+<br />
RD<br />
1<br />
600 Ω<br />
1 kΩ<br />
Bild 20: Ersatzschaltung <strong>für</strong> den realen Modulator<br />
ua(t)<br />
4. Im Versuch beträgt die Frequenz der Gr<strong>und</strong>schwingung des modulierten Rechtecksignals<br />
F = Ω/(2π) = 50 kHz, die Frequenz des modulierenden Sinussignals fs =<br />
ωs/(2π) = 4 kHz <strong>und</strong> die Amplitude des Sinusssignals a = √ 21000 mV. Füllen Sie mit<br />
den berechneten Werten die vorbereiteten Spalten in der Tabelle 1 <strong>für</strong> RD = 0 Ω aus<br />
IT-V8 - 19<br />
ua
<strong>und</strong> zeichnen Sie das Spektrum des Ausgangssignals im Bereich |ω| < 6Ω <strong>für</strong> Eintakt<strong>und</strong><br />
Gegentaktbetrieb.<br />
Eintaktbetrieb Gegentaktbetrieb<br />
Amplituden (eff.) in mV Amplituden (eff.) in mV<br />
Frequenz in kHz gemessen berechnet Fehler gemessen berechnet Fehler<br />
4 ωs<br />
46 Ω − ωs<br />
50 Ω<br />
54 Ω + ωs<br />
96 2Ω − ωs<br />
100 2Ω<br />
104 2Ω + ωs<br />
146 3Ω − ωs<br />
150 3Ω<br />
154 3Ω + ωs<br />
196 4Ω − ωs<br />
200 4Ω<br />
204 4Ω + ωs<br />
246 5Ω − ωs<br />
250 5Ω<br />
254 5Ω + ωs<br />
Messaufgabe 6.1:<br />
Tabelle 1: Tabelle zur <strong>Aufgabe</strong> 1<br />
Schalten Sie den Modulator <strong>und</strong> alle weiteren Geräte ein, bevor Sie Signalanschlüsse verbinden.<br />
Das Eingangssignal soll eine sinusförmige Spannung mit der Amplitude a = √ 2 1000 mV<br />
<strong>und</strong> der Frequenz fs = 4 kHz sein, die einem Funktionsgenerator entnommen wird.<br />
1. Es soll nun zunächst der zeitliche Verlauf des modulierten Signals beobachtet werden.<br />
Verbinden Sie hierzu den Ausgang des Modulators mit einem Oszillographen <strong>und</strong><br />
stellen Sie gleichzeitig das Eingangs- <strong>und</strong> das Ausgangssignal des Modulators dar, <strong>für</strong><br />
a) Eintaktbetrieb <strong>und</strong><br />
b) Gegentaktbetrieb.<br />
Vergleichen Sie in Ihrer Auswertung Ihre Beobachtungen mit dem erwarteten Ergebnis<br />
aus der Versuchsvorbereitung.<br />
2. In diesem <strong>Aufgabe</strong>nteil wird das Frequenzspektrum des modulierten Sinussignals gemessen.<br />
Das hierzu verwendete selektive Voltmeter misst den Effektivwert der Spannung<br />
eines Signales bei einer ganz bestimmten Frequenz bzw. in einem sehr schmalen<br />
IT-V8 - 20
Frequenzbereich. Mit einem qualitativ sehr hochwertigen <strong>und</strong> schmalbandigem Bandpass<br />
werden zu diesem Zweck im Messgerät Signalanteile bei anderen Frequenzen durch<br />
Filterung entfernt <strong>und</strong> nur der Effektivwert des Restsignals gemessen.<br />
Verbinden Sie den Ausgang des Modulators mit dem selektiven Voltmeter <strong>und</strong> messen<br />
Sie <strong>für</strong> Eintakt- <strong>und</strong> Gegentaktbetrieb das Spektrum der Ausgangsspannung. Vervollständigen<br />
Sie die Tabelle 1.<br />
Vergleichen Sie in ihrer Auswertung quantitativ die gemessenen Werte mit den in<br />
der Vorbereitung berechneten Werten <strong>für</strong> die ersten fünf nicht verschwindenden Frequenzkomponenten<br />
des Ausgangsspektrums <strong>und</strong> ermitteln Sie — wo dies möglich<br />
ist — den relativen Fehler der Messwerte. Welche Unterschiede weisen die Spektren<br />
der Ausgangsspannung bei Eintakt- <strong>und</strong> Gegentaktbetrieb auf? Warum? Erklären<br />
Sie, warum auch bei Frequenzen, bei denen kein Spektralanteil im Ausgangssignal<br />
vorhanden sein sollte, trotzdem ein von Null verschiedener Wert gemessen wird.<br />
Beachten Sie, dass Leistungsanpassung zwischen dem Modulator <strong>und</strong> dem Voltmeter<br />
vorliegt, da RaMod = ReMess = 600 Ω ist; welche Auswirkung hat dies auf die gemessenen<br />
Effektivwerte der Spektralanteile der Ausgangsspannung?<br />
Um aus dem Ausgangssignal des Modulators ein Ein- bzw. Zweiseitenband-Sendesignal zu<br />
gewinnen, stehen zwei Bandpässe zur Verfügung. Diese filtern aus dem Frequenzspektrum<br />
ganz bestimmte Modulationsprodukte heraus. Der Dämpfungs- <strong>und</strong> Phasenverlauf beider<br />
Filter findet sich am Ende dieser Unterlagen.<br />
Das erhaltene Ein- bzw. Zweiseitenband-Sendesignal soll nun wieder zurückgewonnen<br />
werden. Zu diesem Zweck wird der Aufbau aus der <strong>Aufgabe</strong> 1 nach Bild 11 erweitert.<br />
Die Demodulation des gesendeten Signals erfolgt mit einer Schaltung, die mit dem bereits<br />
verwendeten Modulator identisch ist (Bild 19). Idealerweise erfolgt die Demodulation mit<br />
einem Rechtecksignal, das den gleichen Verlauf hat, wie das zur Modulation verwendete. Die<br />
Demodulation wird durch die erneute Zuführung des Trägers im Empfänger <strong>und</strong> anschließende<br />
Tiefpassfilterung erreicht. Es handelt sich also um eine synchrone Demodulation.<br />
Ziel dieser <strong>Aufgabe</strong> ist es, zu untersuchen, wie sich eine Frequenzverschiebung bzw. eine<br />
Phasenverschiebung zwischen dem bei der Modulation zugeführten Träger <strong>und</strong> dem bei der<br />
Demodulation zugeführten Träger auswirkt. Für die Berechnung der Vorbereitungsaufgaben<br />
nehmen Sie zur Vereinfachung als Träger das Signal p(t) = cos(Ωt) <strong>und</strong> als Eingangssignal<br />
e(t) = a sin(ωst) an. Im praktischen Teil dieser <strong>Aufgabe</strong> werden dann die Ergebnisse verifiziert,<br />
indem die Phasenlage oder die Frequenz des dem Demodulator zugeführten Trägers<br />
verändert <strong>und</strong> das Ergebnis auf dem Oszillographen beobachtet wird.<br />
Vorbereitungsaufgabe 6.2:<br />
1. Geben Sie einen Ausdruck <strong>für</strong> die Ausgangsspannung e ′ (t) des Tiefpasses bei der Zweiseitenbandmodulation<br />
an. Der dem Demodulator zugeführte Träger habe gegenüber<br />
dem bei der Modulation benutzten Träger<br />
a) unterschiedliche Frequenz (∆Ω)<br />
b) unterschiedliche Phase (∆Φ).<br />
2. Wiederholen Sie diese beiden Rechnungen <strong>für</strong> die Einseitenbandmodulation.<br />
IT-V8 - 21
3. Erläutern Sie qualitativ die Ergebnisse aus den beiden vorangegangenen <strong>Aufgabe</strong>nteilen<br />
<strong>für</strong> die Fälle unterschiedlicher Frequenz <strong>und</strong> unterschiedlicher Phase. Was <strong>für</strong> ein<br />
Oszillographenbild erwarten Sie <strong>für</strong> diese zwei Fälle (Skizze!)?<br />
Messaufgabe 6.2:<br />
1. Bauen Sie Schaltung nach Bild 11 auf <strong>und</strong> prüfen Sie die Ergebnisse aus der Vorbereitungsaufgabe<br />
mit dem Oszillographen nach.<br />
Als Signal soll nun eine Rechteckschwingung betrachtet werden, die den im Bild 21 gezeigten<br />
Verlauf hat.<br />
ê<br />
e(t)<br />
−2π 0 2π 4π 6π 8π ωRt<br />
Bild 21: Rechtecksignal als modulierendes Eingangssignal<br />
Das Rechtecksignal im Bild 21 wird in einem Modulator mit einem Träger p(t) = cos(Ωt)<br />
multipliziert, wobei ωR ≪ Ω gilt. Es sei vorausgesetzt, dass die Rechteckschwingung durch<br />
die ersten vier von Null verschiedenen Glieder ihrer Fourier-Reihe (also den Frequenzenanteilen<br />
bei 0, ωR, 3ωR <strong>und</strong> 5ωR) genügend genau gekennzeichnet ist.<br />
Vorbereitungsaufgabe 6.3:<br />
1. Geben Sie einen Ausdruck <strong>für</strong> das Ausgangssignal des Modulators an. Zeichnen Sie<br />
das Spektrum des Ausgangssignals.<br />
Dem Modulator ist nun ein Bandpass nachgeschaltet, der nur Signalanteile im Frequenzbereich<br />
Ω < ω < Ω + 6ωR durchlässt (dies entspricht einem Filter <strong>für</strong> die Einseitenbandmodulation).<br />
Die Phase des Bandpasses ist B(ω). Es soll im Folgenden das Signal e ′ (t)<br />
untersucht werden, das durch synchrone Demodulation (Multiplikation mit cos(Ωt + Φ))<br />
<strong>und</strong> anschliessende Tiefpassfilterung (Grenzfrequenz Ω) des SSB-Signals entsteht.<br />
2. Bestimmen Sie das Ausgangssignal e ′ (t) des Tiefpasses <strong>für</strong> ein allgemeines B(ω) <strong>und</strong><br />
eine allgemeine Phase Φ des Trägers im Demodulator.<br />
3. Bestimmen Sie das Ausgangssignal e ′ (t) des Tiefpasses, wenn der verwendete Bandpass<br />
eine lineare Phase B(ω) = B0+ωt0 <strong>für</strong> ω > 0 besitzt. Wie groß muss der Phasenwinkel<br />
Φ sein, damit das Rechtecksignal bis auf einen Gleichanteil zeitverschoben um t0<br />
wiedergewonnen werden kann?<br />
IT-V8 - 22
4. Es wird nun eine nichtlineare Phase B(ω) angenommen, mit B(Ω + ωR) = B0 + (Ω +<br />
ωR)t0, B(Ω +3ωR) = B0 +2(Ω +3ωR)t0 <strong>und</strong> B(Ω +5ωR) = B0 +3(Ω +5ωR)t0. Es gilt<br />
weiterhin das Φ der vorangegangenen <strong>Aufgabe</strong>. Zeigen Sie, wie sich die nichtlineare<br />
Phase beim Ausgangssignal bemerkbar macht.<br />
Messaufgabe 6.3:<br />
In praktischen Teil dieser <strong>Aufgabe</strong> wird der gleiche Schaltungsaufbau verwendet wie in der<br />
<strong>Aufgabe</strong> 2 (Bild 11). Das Rechtecksignal wird dem Funktionsgenerator entnommen. Die<br />
Gr<strong>und</strong>frequenz ωR des Rechtecks soll 400 Hz betragen.<br />
1. Stellen Sie durch geeignete Bandpässe DSB- <strong>und</strong> SSB-Betrieb her <strong>und</strong> beobachten Sie<br />
das demodulierte Signal auf dem Oszillographen. Verändern Sie wie in der vorangegangenen<br />
Messaufgabe die Frequenz <strong>und</strong> die Phase des dem Demodulator zugeführten<br />
Trägers gegenüber der Frequenz bzw. Phase des dem Modulator zugeführten Trägers.<br />
Skizzieren Sie die Ergebnisse <strong>und</strong> diskutieren Sie diese. Welche Abweichungen vom<br />
idealen Kurvenverlauf treten auf. Warum?<br />
Geben Sie eine Erklärung, warum am Ausgang des Tiefpasses bei der Einseitenbandmodulation<br />
keine Rechteckschwingung auftritt. Beachten Sie hierbei den Phasenverlauf<br />
des Filters. Diskutieren Sie das Ergebnis im Vergleich mit der Zweiseitenbandmodulation<br />
<strong>und</strong> dem Phasenverlauf des entsprechenden Filters (Bilder 22 – 25).<br />
Messaufgabe 6.4:<br />
Als Signalquelle wird jetzt ein CD-Spieler benutzt. Der Versuchsaufbau bleibt ansonsten<br />
gleich (Bild 11).<br />
1. Stellen Sie DSB-Betrieb her, <strong>und</strong> variieren Sie die Frequenz bzw. die Phase des dem<br />
Demodulator zugeführten Trägers gegenüber der Frequenz bzw. Phase des dem Modulator<br />
zugeführten Trägers. Erklären Sie die auftretenden Effekte.<br />
2. Führen Sie den Versuch 1 entsprechend <strong>für</strong> SSB-Betrieb durch.<br />
3. Wie würden Sie die Empfindlichkeit von Sprache <strong>und</strong> Musik gegenüber Phasen- bzw.<br />
Frequenzabweichungen des Trägers bei der Demodulation beurteilen? Unterscheiden<br />
Sie dabei die beiden Betriebsarten DSB <strong>und</strong> SSB.<br />
IT-V8 - 23
80<br />
70<br />
60<br />
50<br />
40<br />
30<br />
20<br />
10<br />
A/dB<br />
0<br />
0 20 40 60 80 100 120 140 160<br />
600<br />
550<br />
500<br />
450<br />
400<br />
350<br />
300<br />
250<br />
Bild 22: Dämpfungsverlauf des 35 − 65kHz-Bandpasses<br />
B/ ◦<br />
200<br />
30 35 40 45 50 55 60 65 70<br />
Bild 23: Phasenverlauf des 35 − 65kHz-Bandpasses<br />
IT-V8 - 24<br />
f/kHz<br />
f/kHz
2500<br />
2000<br />
1500<br />
1000<br />
500<br />
80<br />
70<br />
60<br />
50<br />
40<br />
30<br />
20<br />
10<br />
A/dB<br />
0<br />
0 20 40 60 80 100 120 140 160<br />
B/ ◦<br />
Bild 24: Dämpfungsverlauf des 50 − 65kHz-Bandpasses<br />
0<br />
30 35 40 45 50 55 60 65<br />
Bild 25: Phasenverlauf des 50 − 65kHz-Bandpasses<br />
IT-V8 - 25<br />
f/kHz<br />
f/kHz
Literatur<br />
[Fett04] A. Fettweis: Elemente nachrichtentechnischer Systeme. Schlembach, Wilburgstetten,<br />
2004.<br />
[Mäus76] R. Mäusl: Modulationsverfahren in der Nachrichtentechnik. Hüthig, Heidelberg,<br />
1976.<br />
[Mäus88] R. Mäusl: Analoge Modulationsverfahren. Hüthig, Heidelberg, 1988.<br />
[Prok75] E. Prokott: Modulation <strong>und</strong> Demodulation. Hüthig, Heidelberg, 1975.<br />
[Stad80] E. Stadler: Modulationsverfahren. Vogel, Würzburg, 1980.<br />
IT-V8 - 26
Versuch IT-V9: Gruppenlaufzeitentzerrung<br />
Inhaltsverzeichnis<br />
1 Eigenschaften von Übertragungssystemen 2<br />
1.1 Definition von Dämpfung <strong>und</strong> Phase . . . . . . . . . . . . . . . . . . . . . . 2<br />
1.2 Verzerrungsfreie Übertragung . . . . . . . . . . . . . . . . . . . . . . . . . . 2<br />
1.3 Phasenlaufzeit <strong>und</strong> Gruppenlaufzeit . . . . . . . . . . . . . . . . . . . . . . . 6<br />
1.4 Bedingungen der verzerrungsfreien Übertragung . . . . . . . . . . . . . . . . 9<br />
1.5 Problemstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />
2 Reaktanz-Allpassschaltung 12<br />
2.1 Einführung <strong>und</strong> Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />
2.2 Übertragungsfunktion eines Reaktanz-Allpasses . . . . . . . . . . . . . . . . 12<br />
2.3 Elementarglieder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />
2.4 Zur Realisierung von Reaktanz-Allpassschaltungen . . . . . . . . . . . . . . . 15<br />
3 Technisch sinnvolle Gruppenlaufzeit-Approximation 17<br />
3.1 Angaben <strong>für</strong> Gruppenlaufzeit-Approximation . . . . . . . . . . . . . . . . . . 17<br />
3.2 Gruppenlaufzeitentzerrung anhand von Laufzeitkarten . . . . . . . . . . . . . 19<br />
4 Vorbereitung 20<br />
5 Messaufgaben 22<br />
5.1 Messung der Phasen- <strong>und</strong> Gruppenlaufzeit . . . . . . . . . . . . . . . . . . . 22<br />
5.2 Messung der Verzögerungs- <strong>und</strong> Anstiegszeit . . . . . . . . . . . . . . . . . . 22<br />
5.3 Hausaufgabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />
Literaturverzeichnis 27<br />
IT-V9 - 1
1 Eigenschaften von Übertragungssystemen<br />
1.1 Definition von Dämpfung <strong>und</strong> Phase<br />
Ein Eingangssignal x(t) ◦−−• X(jω) eines linearen, konstanten, streng stabilen Systems S,<br />
wie im Bild 1 gezeigt, liefert ein Ausgangssignal y(t) ◦−−• Y (jω). Dieses lineare konstante<br />
System S ist charakterisiert durch seine Übertragungsfunktion H(jω).<br />
X(jω)<br />
H(jω) Y (jω)<br />
S<br />
Bild 1: Lineares konstantes System<br />
Es gilt Y (jω) =H(jω)X(jω). Man definiert nun ein Übertragungsmaß Γ (jω) durch die<br />
Beziehung<br />
H(jω) =e −Γ (jω) . (1)<br />
Das Übertragungsmaß Γ (jω) lässt sich aufspalten in seinen Realteil A(ω) <strong>und</strong> seinen Imaginärteil<br />
B(ω)<br />
Γ (jω) =A(ω)+jB(ω) . (2)<br />
A(ω) ist die Dämpfung <strong>und</strong> B(ω) die Phase des Systems bei einer bestimmten Frequenz ω.<br />
Es gilt<br />
<br />
1<br />
A(ω) =ln<br />
=<br />
|H(jω)|<br />
1<br />
2 ln<br />
<br />
1<br />
|H(jω)| 2<br />
<br />
(3)<br />
sowie<br />
<br />
1<br />
B(ω) =arg = − arg {H(jω)} . (4)<br />
H(jω)<br />
Dämpfung <strong>und</strong> Phase kennzeichnen vollständig die Übertragungseigenschaften des Systems<br />
S. SowohldieDämpfungA(ω) als auch die Phase B(ω) sind im Allgemeinen Funktionen der<br />
Frequenz ω. Ihr Verlauf über der Frequenz ist <strong>für</strong> die sogenannten linearen Verzerrungen<br />
(Dämpfungs- <strong>und</strong> Phasenverzerrungen) maßgebend, die ein Eingangssignal x(t) bei der<br />
Filterung durch das Systems S erfährt. Hierbei bedeutet ein positives B(ω), dass bei einem<br />
sinusförmigen Eingangssignal mit der konstanten Frequenz ω>0 das Ausgangssignal y(t)<br />
nur von aktuellen oder vergangenen Werten des Eingangssignals x(t) abhängt (Kausalität).<br />
1.2 Verzerrungsfreie Übertragung<br />
Damit ein Signal x(t) durch ein System S vollständig getreu übertragen wird, d. h., damit<br />
x(t) =y(t) bzw. X(jω) =Y (jω) (5)<br />
gilt, müssen wir folgende Forderungen an die Dämpfung A(ω) bzw. an die Phase B(ω)<br />
stellen:<br />
IT-V9 - 2
1. Die Dämpfung durch das System S muss <strong>für</strong> alle im Spektrum von x(t) enthaltenen<br />
Frequenzen gleich null sein. Jeder Spektralanteil X(jω) des Signals x(t) muss also<br />
ungedämpft das System S durchlaufen, damit sich die Beträge der Spektralanteile<br />
X(jω) <strong>und</strong> Y (jω) nicht unterscheiden:<br />
A(ω) =0.<br />
2. Alle sinusförmigen Teilschwingungen des Eingangssignals müssen jeweils in Phase mit<br />
den entsprechenden Teilschwingungen des Ausgangssignals sein, oder anders ausgedrückt<br />
darf ein sinusförmiges Eingangssignal x(t) durch das System S zeitlich nicht<br />
verzögert werden:<br />
B(ω) =0.<br />
Obige Forderungen nennt man die Bedingungen der idealen Übertragung. In der Praxis ist es<br />
natürlich nicht möglich, diese Bedingungen streng zu erfüllen. Jedes reale Übertragungssystem<br />
ist naturgemäß mit Verlusten behaftet <strong>und</strong> enthält induktive <strong>und</strong> kapazitive Elemente,<br />
die unvermeidlich eine Dämpfung <strong>und</strong> gegebenenfalls eine Verzögerung des Signals zur Folge<br />
haben. Weiterhin kann jede Übertragung eines Signals nur mit endlicher Geschwindigkeit<br />
erfolgen, was ebenfalls mit einer zeitlichen Verzögerung verb<strong>und</strong>en ist. Eine gewisse Verzögerung<br />
des Eingangssignals <strong>und</strong> der darin enthaltenen Information ist in der Praxis tragbar,<br />
solange sie einen vom jeweiligen Fall abhängigen Höchstwert nicht überschreitet. Wichtig<br />
ist, dass durch eine zeitliche Verzögerung <strong>und</strong> Dämpfung des zu übertragenden Signals der<br />
Informationsinhalt im Allgemeinen nicht verändert wird. Wir ersetzen daher die Forderung<br />
aus Gleichung (5), die wir an ein ideales Übertragungssystem gestellt haben, durch die<br />
realistischere Forderung<br />
y(t) =Kx(t − t0) , (6)<br />
wobei K <strong>und</strong> t0 positive Konstanten sind. Ein Übertragungssystem S, beidemdieseBeziehung<br />
zwischen Eingangssignal x(t) <strong>und</strong> Ausgangssignal y(t) gilt, bezeichnen wir als ein<br />
verzerrungsfreies System. Für das Übertragungssystem S erhält man durch Transformation<br />
in den Frequenzbereich<br />
Y (jω) =K e −jωt0 X(jω) . (7)<br />
Die Übertragungsfunktion H(jω) eines verzerrungsfreien Systems lautet folglich<br />
<strong>und</strong> entspricht einer konstanten Dämpfung<br />
<strong>und</strong> einer proportional zu ω ansteigenden Phase<br />
H(jω) =K e −jωt0 (8)<br />
A = − ln(K) (9)<br />
B(ω) =ωt0 . (10)<br />
IT-V9 - 3
− ln(K)<br />
A(ω)<br />
Bild 2: Konstanter Dämpfungsverlauf A(ω) im Falle A>0<br />
B(ω)<br />
Bild 3: Lineare Phase durch den Nullpunkt verlaufend mit t0 als Geradensteigung<br />
x<br />
Kx<br />
x(t)<br />
y(t)<br />
t0<br />
Bild 4: Eingangs- <strong>und</strong> Ausgangssignal eines verzerrungsfreien Systems<br />
Die Forderungen an die Dämpfung <strong>und</strong> an die Phase eines verzerrungsfreien Systems sind<br />
in den Bildern 2 <strong>und</strong> 3 veranschaulicht.<br />
Die Ausgangsfunktion y(t) stimmt mit der Eingangsfunktion x(t) überein, ist gegen<br />
diese jedoch um einen Faktor K gedämpft <strong>und</strong> um die Zeitkonstante t0 verzögert. Den<br />
Zusammenhang stellt Bild 4 dar.<br />
Ist das Eingangssignal x(t) frequenzbegrenzt, so genügt es, die Forderungen <strong>für</strong> ein<br />
verzerrungsfreies System in dem zu x(t) gehörigen Frequenzband Δω zu erfüllen, siehe hierzu<br />
Bild 5 .<br />
IT-V9 - 4<br />
ω<br />
t0<br />
t<br />
t<br />
ω<br />
ω
a) b)<br />
A(ω)<br />
B(ω)<br />
Δω<br />
Δω<br />
ω<br />
ω<br />
A(ω)<br />
B(ω)<br />
Bild 5: Dämpfungs- <strong>und</strong> Phasenverlauf bei frequenzbegrenzten Systemen:<br />
a) Bandpass<br />
b) Tiefpass<br />
Auch bei einem Übertragungssystem mit Bandpasscharakter lässt sich angenähert eine<br />
mit der Frequenz linear ansteigende Phase B(ω) realisieren. Die Phasenbedingung <strong>für</strong> die<br />
verzerrungsfreie Übertragung verlangt aber außerdem noch, dass die zu B(ω) gehörige<br />
Gerade durch den Nullpunkt geht. Dieses bedeutet <strong>für</strong> einen Bandpass, dass sich die Phase,<br />
wie im Bild 6 gezeigt, in dem Übertragungsbereich Δω an eine in ihrer Verlängerung durch<br />
den Nullpunkt gehende Gerade anschmiegt.<br />
B(ω)<br />
Bild 6: Anschmiegung der Phase im Durchlassgebiet an eine Ursprungsgerade<br />
Diese Forderung lässt sich jedoch nur selten erfüllen, da man in der Praxis meist überhaupt<br />
keine Kontrolle über den Schnittpunkt der verlängerten Geraden mit der Ordinate<br />
hat. Die Bedingung B(ω) =ωt0 muss daher durch die allgemeinere Bedingung<br />
Δω<br />
Δω<br />
Δω<br />
B(ω) =ωt0 + B0 <strong>für</strong> ω>0 (11)<br />
ersetzt werden, in der B0 eine Konstante ist, was im Bild 7 veranschaulicht ist.<br />
IT-V9 - 5<br />
ω<br />
ω<br />
ω
B0<br />
B(ω)<br />
ω<br />
t0<br />
Δω<br />
Bild 7: Lineare Phase nicht durch den Nullpunkt verlaufend<br />
Um nunmehr Aussagen bezüglich der Verzerrungsfreiheit eines Übertragungssystems<br />
machen zu können, sollen die Begriffe Phasenlaufzeit <strong>und</strong> Gruppenlaufzeit eingeführt werden.<br />
Hierbei interessiert vor allem, ob die Konstante B0 irgendwelchen Einschränkungen<br />
unterliegt.<br />
1.3 Phasenlaufzeit <strong>und</strong> Gruppenlaufzeit<br />
Wenn die Dämpfung A(ω) in dem betrachteten Frequenzband Δω konstant ist unterscheidet<br />
man zwischen zwei verschiedenen Arten von Laufzeiten<br />
1. Die Phasenlaufzeit tph, welche ein einzelnes sinusförmiges Signal benötigt, um eine<br />
Leitung oder ein Zweitor, allgemein ein System S, zu durchlaufen.<br />
2. Die Gruppenlaufzeit tgr, welche die Verzögerung der im Signal enthaltenen Information<br />
(bei Amplituden–, Phasen- <strong>und</strong> Frequenzmodulation) darstellt.<br />
Alle nun folgenden Betrachtungen haben nur dann Gültigkeit, wenn die Dämpfung A(ω) in<br />
dem betrachteten Frequenzband Δω konstant ist.<br />
Der Verlauf der Phase B(ω) eines Systems S sei innerhalb eines interessierenden Frequenzbereichs<br />
Δω gegeben. Dann ist die Phasenlaufzeit tph <strong>für</strong> irgendein sinusförmiges Signal<br />
x(t) mit einer Frequenz ω, z.B.ω0, definiert durch<br />
tph(ω) = B(ω)<br />
<strong>für</strong> ω = 0, (12)<br />
ω<br />
was im Bild 8 dargestellt ist.<br />
Wie in Bild 9 gezeigt, bedeutet die Phasenlaufzeit tph die Zeit, um die das ebenfalls<br />
sinusförmige Ausgangssignal y(t) gegenüber dem Eingangssignal x(t) verzögert wird.<br />
Dass bei der Übertragung eines einzelnen sinusförmigen Signals eine Phasenlaufzeit<br />
entsteht, folgt beispielsweise unmittelbar aus der Vorstellung, dass auf einer Leitung (als<br />
System S) eine räumliche Spannungswelle mit endlicher Geschwindigkeit fortschreitet <strong>und</strong><br />
am Leitungsende eine Wechselspannung erzeugt, die gegenüber der Spannung am Eingang<br />
nacheilt. Bei einem idealen Phasengang der Form B(ω) =ωt0 ist die Phasenlaufzeit tph = t0<br />
also <strong>für</strong> alle ω im betrachteten Frequenzbereich konstant. Hat B(ω) die realistischere Form<br />
aus Gleichung (11), so beträgt die Phasenlaufzeit<br />
tph(ω) = B(ω)<br />
ω = t0 + B0<br />
<strong>für</strong> ω = 0, (13)<br />
ω<br />
IT-V9 - 6<br />
ω
B (ω0)<br />
B(ω)<br />
Δω<br />
ω0<br />
Bild 8: Zur Definition der Phasenlaufzeit<br />
sie ist also eine Funktion der Frequenz ω, d. h. Signale unterschiedlicher Frequenzen erfahren<br />
unterschiedliche Verzögerungen.<br />
Mit einer einzigen Frequenz läßt sich bekanntlich keine Information übertragen. Ein<br />
reales Signal besteht immer aus unendlich vielen Frequenzen. Hat die Phase die Form<br />
B(ω) =ωt0 +B0, so werden die im Eingangssignalspektrum enthaltenen Sinusschwingungen<br />
unterschiedlich verzögert. Man könnte daher annehmen, daß <strong>für</strong> B0 = 0 eine sinnvolle<br />
Übertragung weitgehend unmöglich wäre. Jedoch ist dies <strong>für</strong> B0 = nπ,wobein eine beliebige<br />
ganze Zahl ist, <strong>und</strong> bei modulierten Signalen x(t) nicht der Fall.<br />
• Für B0 = nπ ist e jB0 =[−1] n , so dass sich nur eine Vorzeichenumkehr, also keine<br />
betragsmäßige Änderung in Bezug auf B0 =0ergibt.<br />
• Bei modulierten Signalen ergibt sich zwar eine erhebliche Verzerrung der Augenblickswerte<br />
des Signals x(t), dennoch bleibt der informationstragende Teil, das ist<br />
bei Amplitudenmodulation die Einhüllende des Signals x(t), siehe Bild 10, bis auf die<br />
Zeitverzögerung t0 vollständig erhalten.<br />
x(t)<br />
y(t)<br />
Bild 9: Ein um die Phasenlaufzeit verzögertes sinusförmiges Signal y(t)=x(t − tph)<br />
IT-V9 - 7<br />
tph<br />
ω<br />
t<br />
t
tgr<br />
x(t)<br />
y(t)<br />
Bild 10: Verzögerung einer einzigen Sinusschwingung <strong>und</strong> einer Einhüllenden bei Amplitudenmodulation<br />
Wir müssen daher eine Unterscheidung treffen zwischen der Laufzeit tph einer einzigen<br />
Sinusschwingung <strong>und</strong> der Laufzeit tgr einer in einem modulierten Signal enthaltenen Information,<br />
wie z. B. in Form der Einhüllenden bei Amplitudenmodulation.<br />
Die Zeitverzögerung des Informationsinhaltes eines (amplituden–, frequenz- oder phasen–)<br />
modulierten Signals wird als die Gruppenlaufzeit tgr bezeichnet <strong>und</strong> ist durch<br />
tgr(ω) = dB(ω)<br />
(14)<br />
dω<br />
definiert. Dieser Zusammenhang ist im Bild 11 <strong>für</strong> den Fall eines amplitudenmodulierten<br />
Signals dargestellt.<br />
Die Gruppenlaufzeit tgr ist also die Steigung der Phase B(ω) im Punkte ω des interessierenden<br />
Frequenzbereichs Δω <strong>und</strong> unterscheidet sich im Allgemeinen von der Phasenlaufzeit.<br />
Unter der Voraussetzung eines konstanten Dämpfungsverlaufs A(ω) im Übertragungsbereich<br />
muss tgr aus Kausalitätsgründen immer größer als Null sein<br />
tgr(ω) = dB(ω)<br />
> 0 <strong>für</strong> alle ω. (15)<br />
dω<br />
Oft wird der Begriff der Gruppenlaufzeit nur im Zusammenhang mit der Verzögerung<br />
einer Einhüllenden bei Amplitudenmodulation benutzt. Dem Begriff der Gruppenlaufzeit<br />
kommt jedoch bei allen modulierten Signalen x(t) eine allgemeinere Bedeutung zu. Die<br />
tph<br />
IT-V9 - 8<br />
t<br />
t
B (ω0)<br />
B(ω)<br />
Δω<br />
Bild 11: Zur Definition der Gruppenlaufzeit tgr (ω0)=tanα<br />
Gruppenlaufzeit entspricht der Verzögerung der im Signal enthaltenen Information. Daraus<br />
folgt, dass der Begriff der Gruppenlaufzeit nicht nur auf amplituden-, sondern auch auf<br />
frequenz- <strong>und</strong> phasenmodulierte Signale anwendbar ist [Fett77]. Bild 12 zeigt eine konstante<br />
Gruppenlaufzeit tgr im Übertragungsfrequenzbereich. Dies ist Voraussetzung der verzerrungsfreien<br />
Übertragung.<br />
t0<br />
tgr<br />
Δω<br />
Bild 12: Konstante Gruppenlaufzeit im interessierenden Frequenzbereich<br />
Eine konstante Gruppenlaufzeit entspricht einem linearen Phasenverlauf B(ω)<br />
B(ω) =ωt0 + B0<br />
ω0<br />
α<br />
ω<br />
ω<br />
<strong>für</strong> ω>0.<br />
In diesem Fall fällt die Gruppenlaufzeit tgr also mit t0 zusammen<br />
tgr(ω) = dB(ω)<br />
= t0.<br />
dω<br />
Die Konstante B0 ist beliebig wählbar.<br />
Im folgenden Abschnitt sollen alle in den vorausgehenden Betrachtungen gewonnenen<br />
Erkenntnisse zur verzerrungsfreien Übertragung eines Signals noch einmal kurz zusammengefasst<br />
werden.<br />
1.4 Bedingungen der verzerrungsfreien Übertragung<br />
Man unterscheidet zwischen verzerrungsfreier Übertragung der Augenblickswerte eines Signals<br />
<strong>und</strong> verzerrungsfreier Übertragung des Informationsinhaltes eines modulierten Signals.<br />
Bedingung bezüglich des Dämpfungsverlaufs A(ω) ist in beiden Fällen eine im gesamten<br />
Übertragungsfrequenzbereich konstante Dämpfung. Nur unter dieser Voraussetzung haben<br />
die Bedingungen an den Phasenverlauf B(ω) bzw. an die Gruppenlaufzeit tgr(ω) Gültigkeit.<br />
IT-V9 - 9
• Für eine verzerrungsfreie Übertragung der Augenblickswerte eines Signals muss die<br />
Phasenkurve des Systems S im Übertragungsbereich eine Gerade sein. Ferner muss<br />
die gedachte Verlängerung der Phasenkurve die Ordinatenachse bei einem Vielfachen<br />
von π schneiden:<br />
B(ω) =ωt0 + B0 <strong>für</strong> ω>0, mit B0 = ±nπ <strong>und</strong> n =0, 1, 2,...<br />
Da die Gruppenlaufzeit die Ableitung der Phase B(ω) nach ω ist, folgt<br />
tgr = dB(ω)<br />
dω = t0 .<br />
Es muss u. a. also eine konstante Gruppenlaufzeit herrschen.<br />
• Für eine verzerrungsfreie Übertragung des Informationsinhaltes eines modulierten Signals<br />
genügt – ohne jede Zusatzbedingung – eine konstante Gruppenlaufzeit im Übertragungsbereich,<br />
d. h., die Phase B(ω) muss linear in ω sein:<br />
B(ω) =ωt0 + B0, <strong>für</strong> ω>0<br />
wobei B0 eine beliebige Konstante ist. Hieraus erhält man <strong>für</strong> die Gruppenlaufzeit<br />
tgr = dB(ω)<br />
dω = t0 .<br />
Es folgt ebenso eine konstante Gruppenlaufzeit.<br />
1.5 Problemstellung<br />
aS<br />
aD<br />
A/dB<br />
fg<br />
Bild 13: Prinzipieller Dämpfungsverlauf eines Cauer-Tiefpasses<br />
IT-V9 - 10<br />
f
In diesem Praktikumsversuch geht es darum, die Frequenzabhängigkeit der Gruppenlaufzeit<br />
eines Cauer-Tiefpasses zu entzerren. Im Allgemeinen sind Cauer-Tiefpässe dadurch<br />
charakterisiert, dass sie entsprechend ihrem Filtergrad Rippel im Durchlassbereich bis zu<br />
einer maximalen Durchlassdämpfung <strong>und</strong> Rippel im Sperrbereich unter Einhaltung einer<br />
minimalen Sperrdämpfung haben. Im Übergangsbereich ist die Dämpfungsfunktion monoton<br />
steigend. Ein Beispiel eines solchen Cauer-Tiefpasses ist im Bild 13 gegeben.<br />
In diesem Versuch wird speziell die Frequenzabhängigkeit der Gruppenlaufzeit des Cauer-Tiefpasses<br />
C 07 05 57 betrachtet <strong>und</strong> entzerrt. Der Cauer-Tiefpass C 07 05 57 ist<br />
vom Filtergrad 7 <strong>und</strong> besitzt eine minimale Sperrdämpfung von 40.5dB,sowieeinemaximale<br />
Durchlassdämpfung von 0.01 dB. Eine Dämpfungsentzerrung entfällt, da der Cauer-<br />
Tiefpass bezüglich seines Dämpfungsverhaltens bereits optimal ausgelegt ist.<br />
A/dB<br />
50<br />
40<br />
30<br />
20<br />
10<br />
tgr/µs<br />
500<br />
400<br />
300<br />
200<br />
100<br />
0<br />
0 2 4 6 8 10 12<br />
Bild 14: Verlauf von Dämpfung <strong>und</strong> Gruppenlaufzeit des Cauer-Tiefpasses C 07 05 57<br />
tgr(fg)<br />
tgr<br />
fg<br />
Bild 15: Zur Gruppenlaufzeitentzerrung<br />
f<br />
f/kHz<br />
Im Allgemeinen genügen weder Dämpfungsverlauf A(ω) noch Phasenverlauf B(ω) eines<br />
Übertragungssystems den Bedingungen der verzerrungsfreien Übertragung. Um dennoch<br />
IT-V9 - 11
eine verzerrungsfreie Übertragung zu ermöglichen, kommt es darauf an, durch geeignete<br />
Netzwerke <strong>und</strong> Schaltungen den Dämpfungs- bzw. Phasenverlauf zu korrigieren. Diese<br />
Korrektur zur näherungsweisen Erfüllung der Bedingungen in Abschnitt 1.4 bezeichnet<br />
man als Entzerrung. Im Falle der Korrektur des Dämpfungsverlaufs spricht man von einer<br />
Dämpfungsentzerrung (Dämpfungsausgleich). Wird die Phase mit dem Ziel eines möglichst<br />
linearen Phasenverlaufs verändert, spricht man von einer Phasenentzerrung, wird<br />
sie im Hinblick auf konstante Gruppenlaufzeit korrigiert, wird der Vorgang als Gruppenlaufzeitentzerrung<br />
bezeichnet. Die Gruppenlaufzeit kann bei der Entzerrung aus Gründen<br />
der Kausalität nur erhöht werden. Den theoretischen Frequenzverlauf der Dämpfung <strong>und</strong><br />
der Gruppenlaufzeit sowie die Toleranzgrenzen zeigt Bild 14 . Wenn zur verzerrungsfreien<br />
Übertragung eines modulierten Signals, siehe Abschnitt 1.4, die Gruppenlaufzeit im Durchlassbereich<br />
0
Eine Übertragungsfunktion, die diese Bedingung erfüllt, ist durch den Quotienten zweier<br />
reeller, <strong>für</strong> p =jω zueinander konjugiert komplexer Polynome darstellbar. Da außerdem<br />
das Nennerpolynom <strong>für</strong> Reaktanzschaltungen ein Hurwitz-Polynom sein muss, ergibt sich<br />
<strong>für</strong> die Übertragungsfunktion eines Reaktanz-Allpasses in Abhängigkeit von der normierten<br />
komplexen Frequenz p = σ +jω:<br />
H(p) = g(−p)<br />
g(p)<br />
. (18)<br />
Hierbei ist g(p) ein reelles Hurwitz-Polynom vom Grad n. Folglich ist H(p) ebenfalls vom<br />
Grad n <strong>und</strong> durch die in der linken p-Halbebene liegenden n Nullstellen des Hurwitz-<br />
Polynoms g(p) bis auf eine Konstante bestimmt.<br />
2.3 Elementarglieder<br />
Eine realisierbare Übertragungsfunktion H(p) vom Grad n lässt sich bei Darstellung der<br />
Polynome durch ihre Nullstellen-Faktoren in der Form<br />
H(p) =<br />
n−2r <br />
σ=1<br />
−p + ασ<br />
p + ασ<br />
r<br />
p 2 − 2αϱp + γ 2 ϱ<br />
p<br />
ϱ=1<br />
2 +2αϱp + γ2 ϱ<br />
mit γ 2 ϱ = α2 ϱ + β2 ϱ (19)<br />
schreiben. Hierbei sind p0σ = −ασ reelle Pole <strong>und</strong> p0ϱ = −αϱ ± jβϱ konjugiert komplexe<br />
Polpaare. Die Übertragungsfunktion besteht dabei aus r Allpässen 2. Ordnung <strong>und</strong> n − 2r<br />
Allpässen 1. Ordnung. Die einzelnen Elementar-Allpässe sind verlustfreie Zweitore. Da die<br />
Dämpfung dieser Zweitore <strong>für</strong> alle Frequenzen gleich Null ist, ergeben sich ihre Reflektanzen<br />
zu Null, wenn die Torbezugswiderstände untereinander gleich <strong>und</strong> gleich den Abschlusswiderständen<br />
gewählt werden. Jeder einzelne Faktor der Produktdarstellung in Gleichung (19)<br />
lässt sich dann wegen der beiderseitigen Reflexionsfreiheit der Allpässe (vgl. [AS62]) durch<br />
einen einzelnen Elementar-Allpass realisieren. Die Kettenschaltung dieser Elementarglieder<br />
ergibt die Gesamtschaltung mit der Übertragungsfunktion nach Gleichung (19). Es ist daher<br />
zweckmäßig, die Eigenschaften <strong>und</strong> die Realisierung solcher Elementar-Zweitore näher zu<br />
erörtern.<br />
Elementar-Allpass vom Grad n =2<br />
Die dazugehörige Nullstellen- <strong>und</strong> Polverteilung von H(p) ist in Bild 16 dargestellt, wobei<br />
tan(ϕ) =β/α <strong>und</strong> cos(ϕ) =α/γ gilt. Für diesen Fall eines konjugiert komplexen Nullstellen-<br />
Paares von g(p) ist nach Gleichung (19)<br />
Die Polstellen von H(p) ergeben sich zu<br />
wobei α, γ > 0 vorausgesetzt wird. Da ferner<br />
H(p) = p2 − 2αp + γ2 p2 . (20)<br />
+2αp + γ2 p1,2 = −α ± jβ = −α ± j γ 2 − α 2 , (21)<br />
β = γ 2 − α 2 (22)<br />
IT-V9 - 13
β<br />
α<br />
γ<br />
ϕ<br />
jω<br />
Bild 16: Pol- <strong>und</strong> Nullstellenverteilung eines Allpasses 2. Grades<br />
positiv ist, muss γ>αgelten.<br />
Mit Gleichung (4) erhalten wir <strong>für</strong> die Phase<br />
B(ω) =− arg {H(jω)} =2arg γ 2 − ω 2 +j2αω .<br />
Für positive Frequenzen ω folgt somit<br />
<br />
2αω<br />
B(ω) = 2 arctan<br />
γ 2 − ω 2<br />
<br />
σ<br />
. (23)<br />
Differenzieren wir nun B(ω) nach der normierten Frequenz ω, so erhalten wir mit Gleichung<br />
(14) unter Berücksichtigung von<br />
die normierte Gruppenlaufzeit<br />
τ(ω) =tgr2πfg =<br />
d<br />
dω arctan F (ω) = F ′ (ω)<br />
1+F 2 (ω)<br />
=<br />
4α [γ2 + ω2 ]<br />
[γ2 − ω2 ] 2 +4α2 4α [γ<br />
=<br />
ω2 2 + ω2 ]<br />
[γ2 + ω2 ] 2 − 4β2ω 2<br />
2α<br />
[ω − β] 2 +<br />
+ α2 2α<br />
[ω + β] 2 .<br />
+ α2 Unter Definition eines Winkels ϕ zwischen dem Strahl vom Nullpunkt zum Pol p0 = −α+jβ<br />
<strong>und</strong> der negativen reellen Achse erhalten wir zwei zu betrachtende Fälle in der Kurve der<br />
Gruppenlaufzeit, vgl. Bild 16.<br />
Für den ersten Fall, dass<br />
2β − γ>0<br />
IT-V9 - 14<br />
(24)<br />
(25)
ist, folgt<br />
<strong>und</strong>somitergibtsich<br />
√ 3β>α<br />
ϕ>π/6 .<br />
Folglich können die Frequenzen, bei denen die Gruppenlaufzeit aus (25) maximal wird, zu<br />
ωmax = ± γ [2β − γ] (26)<br />
berechnet werden. Aus dieser Gleichung (26) ist die Fallunterscheidung ersichtlich, da der<br />
Wurzelausdruck das Vorzeichen bei ϕ = π/6 wechselt.<br />
Die Maxima der beiden Einzelkurven aus den Summanden der Gleichung (25) betragen<br />
<strong>für</strong> ϕ>π/6 jeweils<br />
τmax = 2<br />
α<br />
<strong>und</strong> treten bei den Frequenzen ω = ±β auf, während die Maxima der Summenkurve<br />
τmax =<br />
α<br />
β [γ − β]<br />
(27)<br />
<strong>für</strong> ϕ>π/6 (28a)<br />
bei den in Gleichung (26) berechneten Frequenzen auftreten. Das relative Minimum liegt<br />
bei ω =0<strong>und</strong> hat den Wert<br />
τmin = 4α<br />
. (29)<br />
γ2 Für diesen Fall ist im Bild 17 der prinzipielle Frequenzverlauf der Gruppenlaufzeit als obere<br />
Kurve angegeben. Die beiden unteren Kurven sind die Verläufe der beiden Summanden von<br />
Gleichung (25), deren Addition den Gesamtverlauf in Bild 17 ergibt.<br />
Der zweite Fall, wobei ϕ ≤ π/6 ist, beinhaltet nur ein Maximum der Gruppenlaufzeit<br />
bei der Frequenz ω =0:<br />
τmax = 4α<br />
γ 2 <strong>für</strong> ϕ ≤ π/6 . (28b)<br />
2.4 Zur Realisierung von Reaktanz-Allpassschaltungen<br />
Ist die Übertragungsfunktion H(p) eines Elementargliedes mit ihren Parametern αν <strong>und</strong> γν<br />
gemäß der Gleichung (19) bekannt, so lässt sie sich durch eine Reihe äquivalenter Reaktanz-<br />
Allpassschaltungen realisieren, deren normierte Schaltelemente in Abhängigkeit von den Polstellenparametern<br />
gegeben sind. Es würde zu weit führen, alle möglichen Allpässe anzuführen,<br />
welche dieselbe Übertragungsfunktion H(p) realisieren. Ausführliche Darstellungen sind<br />
in [AS62] <strong>und</strong> [AS63] zu finden. In diesem Kapitel werden die Schaltungen vom Grad n =2<br />
erläutert, die im Praktikumsversuch zur Gruppenlaufzeitentzerrung des Cauer-Tiefpasses<br />
IT-V9 - 15
τmax<br />
τmin<br />
F<br />
−β 0 ωm<br />
τ<br />
τmax<br />
Bild 17: Prinzipieller Frequenzverlauf der Gruppenlaufzeit<br />
herangezogen werden. Jedes passive, symmetrische Zweitor kann durch eine Brückenschaltung<br />
mit paarweise gleichen Brückenwiderständen (hier speziell Reaktanz-Eintore) realisiert<br />
werden. Die symmetrische Brückenschaltung hat den Nachteil, dass sie nur erdsymmetrisch<br />
aufgebaut werden kann (dies ist wegen der bei hohen Frequenzen notwendigen Abschirmung<br />
meist unerwünscht) <strong>und</strong> dass relativ viele Schaltelemente nötig sind. Beide Nachteile<br />
lassen sich vermeiden, wenn man die Brückenschaltung in äquivalente erdunsymmetrische<br />
Schaltungen umrechnet. Auf diese Weise erhält man die in Bild 18 <strong>und</strong> Bild 19 gezeigten<br />
Schaltungen.<br />
L1<br />
ω2<br />
C1<br />
M<br />
Bild 18: Erdunsymmetrische Realisierung eines Elementarallpasses 2. Grades<br />
Die Schaltung nach Bild 18 setzt voraus, dass die Spulen L1 fest gekoppelt sind (k =1).<br />
Die Realisierbarkeit dieser Schaltung unterliegt keiner Einschränkung hinsichtlich der Pol-<br />
L2<br />
C2<br />
IT-V9 - 16<br />
L1<br />
ω
C3<br />
ω4<br />
L3<br />
C4<br />
L4<br />
C3<br />
Bild 19: Alternative Realisierung des Elementarallpasses 2. Grades<br />
stellenlage der Übertragungsfunktion. Die Elemente ergeben sich zu<br />
L1 = α<br />
γ 2 , L2 = 1<br />
4α , M =4L1 , C1 = 1<br />
4α<br />
Die Resonanzfrequenz ist<br />
ω2 = γ =<br />
1<br />
√ .<br />
L2C2<br />
<strong>und</strong> C2 = 4α<br />
.<br />
γ2 3 Technisch sinnvolle Gruppenlaufzeit-Approximation<br />
3.1 Angaben <strong>für</strong> Gruppenlaufzeit-Approximation<br />
Natürlich ist es nicht möglich durch eine nachgeschaltete Allpasskette einen exakt konstanten<br />
Gruppenlaufzeitverlauf über den gesamten Durchlassbereich des Tiefpasses zu realisieren.<br />
Die Gruppenlaufzeit des Gesamtsystems in Abhängigkeit von der Frequenz wird –<br />
bei endlichem Aufwand – immer gewisse Abweichungen von dem angestrebten konstanten<br />
Verlauf aufweisen. Eine Gruppenlaufzeitentzerrung stellt also eine Approximationsaufgabe<br />
dar, nämlich den geforderten konstanten Frequenzverlauf der Gruppenlaufzeit mit einer<br />
vorgegebenen Genauigkeit zu approximieren. In diesem Abschnitt sollen qualitative Angaben<br />
<strong>für</strong> eine technisch sinnvolle Gruppenlaufzeitentzerrung gemacht werden. Insbesondere geht<br />
es darum, allgemeine Gesichtspunkte <strong>für</strong> eine aufwandsarme Laufzeitentzerrung anzugeben.<br />
Die Approximation einer über den Durchlassbereich des Tiefpasses konstanten Gruppenlaufzeit<br />
kann mit einer verschiedenen Zahl nachgeschalteter Allpassglieder durchgeführt werden.<br />
Es ist leicht einzusehen, dass der Aufwand an Allpässen steigt, je besser die Konstanz der<br />
Laufzeit eingehalten werden soll. Bild 20 veranschaulicht, wie mit wachsendem Aufwand an<br />
nachgeschalteten Allpassgliedern vom Grad 2 der Summenlaufzeitverlauf der Gesamtschaltung,<br />
bestehend aus dem Tiefpass C 07 05 57 <strong>und</strong> einer Allpasskette verbessert wird.<br />
Dabei ist die Nachbildung einer konstanten Gruppenlaufzeit nach der Methode der<br />
„kleinsten Fehlerquadrate“ verbessert worden. Je nach dem angewandten Aufwand steigt<br />
IT-V9 - 17
τg<br />
τ<br />
2 Allpassglieder<br />
ohne Allpassglied<br />
Bild 20: Gruppenlaufzeitentzerrung von C 07 05 57 mit 2 verschiedenem Allpassgliedern 2. Grades<br />
<strong>und</strong> konstanter Approximationsgrenze<br />
die Gruppenlaufzeit weiter an. Aus Gründen der Kausalität ist es nur möglich, die Gruppenlaufzeit<br />
aufzufüllen. Die entzerrte Laufzeit im Durchlassbereich schwankt dann um einen<br />
konstanten Wert. Ihr Verlauf ist cosinusförmig, <strong>und</strong> die Rippelperiode ist nahezu konstant.<br />
Diese Art der Approximation einer konstanten Laufzeit benötigt immerhin einige nachgeschaltete<br />
Allpassglieder, damit ein annähernd konstanter Verlauf der Gruppenlaufzeit bis<br />
zur Grenzfrequenz des Tiefpasses erreicht werden kann.<br />
Der Aufwand lässt sich jedoch erheblich reduzieren, wenn man eine andere Art der<br />
Gruppenlaufzeitapproximation anwendet. Untersuchungen in [Welz62] <strong>und</strong> [Antr65] haben<br />
ergeben, dass monoton gegen die Grenzfrequenz eines Tiefpasses zunehmende Abweichungen<br />
der Gruppenlaufzeitschwankungen keinen wesentlichen Nachteil <strong>für</strong> das Einschwingverhalten<br />
des gesamten entzerrten Systems haben. Der prinzipielle Verlauf der entzerrten Laufzeit ist<br />
in Bild 21 dargestellt.<br />
Im Folgenden ist unter Laufzeitbegrenzungslinien der Verlauf der Verbindungslinien der<br />
Gruppenlaufzeitmaxima bzw. -minima über dem entzerrten Durchlassbereich des Tiefpasses<br />
zu verstehen, siehe gestrichelte Linie in Bild 21. Trotz der Zunahme der Rippelamplitude<br />
gegen die Entzerrungsgrenze wird das Einschwingverhalten verbessert. Zusammenfassend<br />
lassen sich folgende qualitative Aussagen <strong>für</strong> eine technisch sinnvolle aufwandsarme Laufzeitentzerrung<br />
machen:<br />
a) Die entzerrte Laufzeit soll sich in einem möglichst großen Frequenzbereich, der sich<br />
möglichst bis zur Gruppenlaufzeitspitze des Tiefpasses erstreckt, innerhalb der Laufzeitbegrenzungslinien<br />
bewegen.<br />
b) Um diese Forderung zu erfüllen, ist <strong>für</strong> wachsende Frequenzen eine symmetrische<br />
Zunahme der Rippelamplitude bezüglich einer Konstanten, die sich als Symmetrielinie<br />
der Laufzeitbegrenzungslinien ergibt, zulässig.<br />
IT-V9 - 18<br />
fg<br />
f
τg + Δτ(ωg)<br />
τg + Δτ(0)<br />
τg<br />
τg − Δτ(0)<br />
τg − Δτ(ωg)<br />
τg(ω)<br />
Bild 21: Zunehmende Abweichung der Gruppenlaufzeitschwankungen<br />
3.2 Gruppenlaufzeitentzerrung anhand von Laufzeitkarten<br />
Die Gruppenlaufzeit des Tiefpasses C 07 05 57 soll im Durchlassbereich ohne großen Aufwand<br />
durch zwei Allpassglieder vom Grad n =2auf einen cosinusförmigen Verlauf mit zunehmender<br />
Rippelamplitude <strong>für</strong> wachsende Frequenzen entzerrt werden. Die Approximation<br />
einer solchen Gesamtgruppenlaufzeit erfolgt mithilfe von Laufzeitkarten. Laufzeitkarten (vgl.<br />
Bild 24) sind Diagramme, in denen die normierte Gruppenlaufzeit elementarer Allpassglieder<br />
(hier Grad n =2) <strong>für</strong> verschiedene Werte von α <strong>und</strong> γ als Parameter über der normierten<br />
Frequenz f aufgetragen ist. Anhand von Laufzeitkarten werden diejenigen Laufzeitkurven<br />
ermittelt, mit denen sich das Approximationsproblem (Einhalten der Laufzeitbegrenzungslinien)<br />
am Besten lösen lässt. Aus den Parametern dieser Kurven kann man dann die<br />
Bauelement-Werte der Allpässe berechnen (s. Kap. 2.4). Die Approximation geht von der<br />
normierten Darstellung der Gruppenlaufzeit τ(f) des Tiefpasses <strong>und</strong> den Laufzeitbegrenzungslinien<br />
aus, innerhalb derer sich die entzerrte Laufzeit bewegen soll (Angaben hierüber<br />
in [Antr65]). Die Maßstäbe sind dieselben wie in den Laufzeitkarten. Der konstante Wert<br />
τg, um den die entzerrte Laufzeit schwankt, wird zu<br />
τg = τ (fg) (fg = Grenzfrequenz des Tiefpasses)<br />
angenommen. Der eigentliche Approximationsvorgang wird zweckmässig in folgenden Schritten<br />
durchgeführt:<br />
1. Im Bereich niedriger Frequenzen sind nur geringe Schwankungen der entzerrten Laufzeit<br />
zulässig. Die Gruppenlaufzeit des Tiefpasses τ(f) verläuft in diesem Bereich relativ<br />
konstant <strong>und</strong> nimmt <strong>für</strong> wachsende Frequenzen monoton zu. Daraus folgt <strong>für</strong> die<br />
Laufzeitkurve τ1(f) des ersten Allpassgliedes, dass sie im Bereich niedriger Frequenzen<br />
möglichst konstant <strong>und</strong> <strong>für</strong> steigende Frequenzen monoton fallend verlaufen muss.<br />
IT-V9 - 19<br />
ωg<br />
ω
2. Nach Wahl der Laufzeitkurve τ1(f) zeichnet man den Summenlaufzeitverlauf<br />
τ1,ges(f) =τ(f)+τ1(f),<br />
was durch graphische Addition leicht möglich ist.<br />
3. An die Stelle des Minimums von τ1,ges(f) legt man das Maximum der Laufzeitkurve<br />
τ2(f) des zweiten Allpassgliedes.<br />
4. Man zeichnet den Gesamtlaufzeitverlauf<br />
τ2,ges(f) =τ(f)+τ1(f)+τ2(f)<br />
von Tiefpass plus Allpasskette (graphische Addition).<br />
Diese erste Näherungslösung kann noch verbessert werden, wenn man Laufzeitkarten mit<br />
Zwischenwerten von α <strong>und</strong> γ verwendet.<br />
Hinweis:<br />
Die optimalen Werte <strong>für</strong> α <strong>und</strong> γ lassen sich anstelle der graphischen Auswertung mit Laufzeitkarten<br />
auch rechnerisch mithilfe der Fehlerausgleichsrechnung bestimmen. Die Durchführung<br />
einer Gruppenlaufzeit-Approximation auf der Gr<strong>und</strong>lage der Methode der „kleinsten<br />
Fehlerquadrate“ würde jedoch den Rahmen dieses Praktikums sprengen.<br />
4 Vorbereitung<br />
Vorbereitungsaufgabe 4.1:<br />
Gegeben ist die Pol- <strong>und</strong> Nullstellenverteilung der Übertragungsfunktion H(p) eines Elementarallpasses<br />
vom Grad n =1gemäß Bild 22.<br />
Nullstelle<br />
Polstelle<br />
α<br />
jω<br />
Bild 22: Pol-Nullstellenverteilung eines Elementarallpasses 1. Grades<br />
1. Begründen Sie, warum es sich bei dieser Pol-Nullstellen-Konfiguration um einen Allpass<br />
handelt.<br />
2. Für diesen Fall eines reellen Poles berechne man<br />
α<br />
IT-V9 - 20<br />
σ
a) die Übertragungsfunktion H(p) mit H (0) = 1,<br />
b) die Phase B (ω),<br />
c) die Phasenlaufzeit ϑ (ω) <strong>und</strong><br />
d) die Gruppenlaufzeit τ (ω).<br />
Hinweis:<br />
Die Übertragungsfunktion ergibt sich in Abhängigkeit der Konstanten α.<br />
3. Der Verlauf der Gruppenlaufzeit τ (ω) ist über ω zu skizzieren. Dazu bestimme man<br />
a) das Maximum der Gruppenlaufzeit τmax <strong>und</strong><br />
b) lim τ (ω).<br />
ω→∞<br />
Vorbereitungsaufgabe 4.2:<br />
Bereiten Sie sich auf die folgenden Themenbereiche vor (nicht schriftlich), die Sie zu Beginn<br />
der Durchführung ihren Kommilitonen in Form eines Kurzreferates (3-5 Minuten) näherbringen<br />
sollen (Hilfsmittel Tafel). Die Themenvergabe erfolgt durch Auslosung.<br />
• Ideale, verzerrungsfreie <strong>und</strong> reale Übertragung von Signalen, Interpretation der Phasenbedingungen.<br />
• Definition <strong>und</strong> physikalische Bedeutung der Phasen- <strong>und</strong> Gruppenlaufzeit <strong>und</strong> die<br />
Anwendung auf verzerrungsfreie <strong>und</strong> reale Systeme.<br />
• Definition/Verwendung eines Allpasses, Pol-/ Nullstellenverteilung, Übertragungsfunktion<br />
<strong>und</strong> Realisierung.<br />
• Gruppenlaufzeiten von Allpässen 1. <strong>und</strong> 2. Ordnung.<br />
• Gr<strong>und</strong>prinzip einer technisch sinnvollen Gruppenlaufzeitentzerrung.<br />
IT-V9 - 21
5 Messaufgaben<br />
Mit den zur Verfügung stehenden Messgeräten können nur Phasenlaufzeiten gemessen werden.<br />
Überlegen Sie, wie sich die Gruppenlaufzeit näherungsweise aus der Phasenlaufzeit<br />
berechnen lässt.<br />
5.1 Messung der Phasen- <strong>und</strong> Gruppenlaufzeit<br />
1. Messen Sie die Phasenlaufzeit tph,1(f) des Tiefpasses im Durchlassbereich. Berechnen<br />
Sie den Verlauf der Gruppenlaufzeit tgr,1(f) <strong>und</strong> der normierten Gruppenlaufzeit<br />
τ1(f) =tgr,1(f)ωg. Tragen Sie die gef<strong>und</strong>enen Werte in die Tabelle 1 ein. Zeichnen Sie<br />
das gef<strong>und</strong>ene Ergebnis auf Millimeterpapier.<br />
2. Messen Sie die Phasenlaufzeit tph,2(f) der entzerrten Schaltung im Durchlassbereich.<br />
Berechnen Sie den Verlauf der Gruppenlaufzeit tgr,2(f) <strong>und</strong> der normierten Gruppenlaufzeit<br />
τ2(f). Tragen Sie die gef<strong>und</strong>enen Werte in die Tabelle 2 ein. Zeichnen Sie das<br />
gef<strong>und</strong>ene Ergebnis auf Millimeterpapier.<br />
5.2 Messung der Verzögerungs- <strong>und</strong> Anstiegszeit<br />
a(t)<br />
1<br />
0.9<br />
0.1<br />
TV<br />
TA<br />
hü<br />
Bild 23: Sprungantwort mit Verzögerungszeit, Anstiegszeit <strong>und</strong> relativem Überschwingen<br />
Messen Sie die Sprungantwort des Tiefpasses mit <strong>und</strong> ohne Entzerrung. Vergleichen Sie<br />
die Verzögerungszeit TV <strong>und</strong> die Anstiegszeit TA sowie das relative Überschwingen hü (siehe<br />
Bild 23) bezüglich des Endwertes.<br />
IT-V9 - 22<br />
t
f in Hz tph,1 in µs Δtph,1 in µs tph,1 in µs f in Hz tgr,1 in µs τ1<br />
1000<br />
2000<br />
3000<br />
4000<br />
5000<br />
6000<br />
6500<br />
7000<br />
7500<br />
8000<br />
8500<br />
9000<br />
9250<br />
9500<br />
9750<br />
10000<br />
10250<br />
1500<br />
2500<br />
3500<br />
4500<br />
5500<br />
6250<br />
6750<br />
7250<br />
7750<br />
8250<br />
8750<br />
9125<br />
9375<br />
9625<br />
9875<br />
10125<br />
Tabelle 1: Messung der Laufzeit ohne Entzerrung<br />
IT-V9 - 23
f in Hz tph,2 in µs Δtph,2 in µs tph,2 in µs f in Hz tgr,2 in µs τ2<br />
1000<br />
2000<br />
3000<br />
4000<br />
5000<br />
6000<br />
6500<br />
7000<br />
7500<br />
8000<br />
8500<br />
9000<br />
9250<br />
9500<br />
9750<br />
10000<br />
10250<br />
1500<br />
2500<br />
3500<br />
4500<br />
5500<br />
6250<br />
6750<br />
7250<br />
7750<br />
8250<br />
8750<br />
9125<br />
9375<br />
9625<br />
9875<br />
10125<br />
Tabelle 2: Messung der Laufzeit mit Entzerrung<br />
IT-V9 - 24
5.3 Hausaufgabe<br />
Führen Sie anhand der in Abschnitt 3.2 gemachten Hinweise unter Zuhilfenahme der Laufzeitkarten<br />
in Bild 24 sowie der Gleichung (25) eine Laufzeitentzerrung des Tiefpasses mit<br />
zwei Allpässen durch. Geben Sie die Polstellenparameter α <strong>und</strong> γ der verwendeten Allpässe<br />
an. Zeichnen Sie das gef<strong>und</strong>ene Ergebnis auf Millimeterpapier.<br />
Werden die vorgegebenen Laufzeitbegrenzungslinien nach Bild 25 eingehalten?<br />
Geben Sie in Ihrer Auswertung neben den Messergebnissen auch den <strong>für</strong> die jeweilige<br />
Messung verwendeten Versuchsaufbau an.<br />
τmax<br />
10<br />
τmax<br />
0<br />
0<br />
10<br />
0<br />
0<br />
τ<br />
τ<br />
0.25<br />
0.3<br />
0.3<br />
0.4<br />
0.4<br />
0.5<br />
0.5<br />
0.6<br />
0.6<br />
0.7<br />
0.7<br />
Bild 24: Darstellung der normierten Gruppenlaufzeit der Allpassglieder 2. Ordnung in Abhängigkeit<br />
vom Polstellenparameter γ <strong>für</strong> α =0.2 (oben) <strong>und</strong> α =0.25 (unten) nach Gleichung<br />
(25).<br />
0.8<br />
0.8<br />
IT-V9 - 25<br />
0.9<br />
0.9<br />
1.0<br />
1.0<br />
1<br />
1<br />
1.4<br />
1.4<br />
f/fg<br />
f/fg
30<br />
20<br />
10<br />
0<br />
τ<br />
1 1.4 f/fg<br />
Bild 25: Laufzeitbegrenzungslinien der normierten Gruppenlaufzeit<br />
τg =15.2 ± 0.45exp(2.22 f/fg) als Funktion der normierten Frequenz f/fg<br />
IT-V9 - 26
Literatur<br />
[Antr65] K. Antreich: “Über den Einfluss von Laufzeitabweichungen von einem konstanten<br />
Wert auf das Impulsverhalten bei Tiefpassübertragungskanälen”. Frequenz 19,<br />
1965, S. 1–7.<br />
[AS62] K. Antreich, R. Saal: “Zur Realisierung von Reaktanz-Allpass-Schaltungen, Teil I”.<br />
Frequenz 16, 1962, S. 469–477.<br />
[AS63] K. Antreich, R. Saal: “Zur Realisierung von Reaktanz-Allpass-Schaltungen,<br />
Teil II”. Frequenz 17, 1963, S. 14–22.<br />
[Fett77] A. Fettweis: “On the significance of group delay in communication engineering”.<br />
Archiv <strong>für</strong> Elektronik <strong>und</strong> Übertragungstechnik 31(9), September 1977, S. 342–348.<br />
[Fett04] A. Fettweis: Elemente nachrichtentechnischer Systeme. Schlembach, Wilburgstetten,<br />
2004.<br />
[Welz62] M. Welzenbach: “Untersuchungen zur Gruppenlaufzeitentzerrung von Tiefpässen”.<br />
Frequenz 19, 1962, S. 33–40.<br />
IT-V9 - 27
○
• <br />
• <br />
• <br />
•
• <br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
•
• <br />
<br />
Synthese <strong>und</strong> Abbildung auf ein FPGA 33 <br />
<br />
Schließlich kann das Projekt im nächsten Fenster durch Finish“ erstellt werden. ISE <br />
”<br />
hat beim Importieren der Quelldateien die Hierarchie der einzelnen Module automatisch<br />
<br />
erkannt:<br />
<br />
Abb. 4.9: Liste der Quelldateien im Projekt<br />
4.3 Pinbelegung <strong>und</strong> Abbildung auf das Ziel-FPGA<br />
Durch die VHDL-Modelle ist der innere Aufbau der Schaltung definiert. Es muss aber noch<br />
festgelegt werden, wie die Ein- <strong>und</strong> Ausgänge der Schaltung auf die Ein- <strong>und</strong> Ausgänge des<br />
FPGAs abgebildet werden. Zu diesem Zweck wird eine .ucf-Datei (User Constrains File)<br />
verwendet, die den Zusammenhang zwischen Name (Net) <strong>und</strong> Pin (Location) beschreibt:<br />
NET "clk" LOC = "A11"; # Takt (24 MHz)<br />
NET "resetn" LOC = "B6"; # Reset (active low)<br />
NET "push" LOC = "D7"; # Druckknopf 1<br />
NET "led" LOC = "A9"; # User LED<br />
TEMPERATURE = 85 # Temperatur in Celsius<br />
NET "clk" TNM_NET = "clk";<br />
TIMESPEC "TS_clk" = PERIOD "clk" 41.66667 ns HIGH 50 % # Takt definieren<br />
Des Weiteren können in dieser Datei auch die Umgebungstemperatur <strong>für</strong> die Schaltung sowie<br />
die Taktraten definiert werden. Die Datei kann von Hand oder durch das entsprechende<br />
Werkzeug von ISE erstellt werden. Die folgende Abbildung 4.10 zeigt die Pinbelegung der<br />
Eingabe- <strong>und</strong> Anzeigeelemente des Virtex-II Entwicklungsboards.<br />
Done<br />
Program<br />
A9<br />
D7<br />
User LED<br />
User 1<br />
Reset B6 A6 User 2<br />
Display 2 E9 C10 Display 1<br />
B4 A4<br />
E10<br />
E8<br />
B9<br />
E7<br />
C4<br />
A8<br />
B8<br />
C5 B5<br />
D10<br />
D9<br />
C9<br />
F10 F11<br />
F9<br />
A5 D6<br />
C6<br />
1 2 3 4 5 6 7 8<br />
Abb. 4.10: Pinbelegungdes Entwicklungsboards<br />
<br />
T1<br />
TCE<br />
O1<br />
OCE<br />
OTCLK<br />
ICE<br />
ICLK<br />
D<br />
CE<br />
Q<br />
D Q<br />
CE<br />
Pad<br />
Entwurf integrierter Schaltungen mit VHDL<br />
I<br />
D Q<br />
CE<br />
<br />
<br />
T<br />
IQ1
• <br />
<br />
<br />
<br />
<br />
• <br />
<br />
<br />
<br />
<br />
<br />
<br />
• <br />
<br />
<br />
<br />
<br />
<br />
◦ ◦ ◦ <br />
<br />
<br />
<br />
<br />
<br />
SHIFTIN<br />
F1<br />
F2<br />
F3<br />
F4<br />
BX<br />
G1<br />
G2<br />
G3<br />
G4<br />
BY<br />
CE<br />
CLK<br />
SHIFTOUT<br />
LUT<br />
LUT<br />
D Q<br />
CE<br />
D Q<br />
CE<br />
<br />
<br />
COUT<br />
X<br />
DX<br />
XQ<br />
F<br />
Y<br />
DY<br />
YQ<br />
CIN
• <br />
<br />
<br />
• <br />
<br />
<br />
• <br />
<br />
• <br />
<br />
•
vector1(0) vector1(2) vector1(3)<br />
1<br />
&<br />
1<br />
&<br />
1<br />
1<br />
&<br />
1<br />
1<br />
vector2(0)<br />
vector1(1) vector2(2)<br />
<br />
&<br />
1<br />
1<br />
vector2(1)<br />
• <br />
<br />
<br />
<br />
<br />
• <br />
<br />
<br />
•
○ <br />
○ <br />
○
ezeichnet. Erfolgt die Spreizung über das gesamte zur Verfügung stehende Fre-<br />
quenzband, wird das Codemultiplexverfahren auch Breitband-CDMA (WCDMA)<br />
genannt. Ein wesentlicher Vorteil von WCDMA-Systemen ist die geringere Anfällig-<br />
keit bzgl. Störungen auf dem Übertragungskanal.<br />
B<br />
FDMA<br />
Zeit<br />
Frequenz<br />
B<br />
TDMA<br />
B<br />
CDMA<br />
Zeit Code Zeit<br />
Frequenz<br />
Abbildung 2.2: Vielfachzugriffsverfahren FDMA, TDMA <strong>und</strong> CDMA.<br />
Frequenz<br />
Abbildung ○ 2.3 zeigt dengr<strong>und</strong>sätzlichen Ablauf einer Signalübertragung im Frequenzbereich<br />
○ auf einem gestörten Kanal. Das schmalbandige Nutzsignal<br />
BN wird<br />
sendeseitig ○ mit Hilfe der Spreizung auf eine um den Spreizfaktor SF erhöhte Bandbreite<br />
BS = SF · BN verteilt (Breitbandsignal) <strong>und</strong> anschließend auf dem Kanal<br />
übertragen. Dabei wird dem Spektrum ein unerwünschtes Störsignal hinzugefügt.<br />
Während bei der Entspreizung das Nutzsignal wieder seine ursprüngliche schmal-<br />
bandige Form annimmt, wird das Störsignal auf die Spreizbandbreite verteilt. Durch<br />
den erhöhten Signal-Rausch-Abstand (SNR) wird der Empfang des Nutzsignals ver-<br />
bessert. Da das Breitbandsignal unterhalb des Pegels von thermischen Rauschen<br />
liegen kann [4], wird seine Detektion ohne Kenntnis des Spreizcodes schwierig. Aus<br />
10 Direct-sequence-CDMA<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
8
...011101...<br />
...011101...<br />
Modulation Spreizung<br />
Demodulation<br />
I<br />
Q<br />
I<br />
Q<br />
Sender<br />
Korrelation<br />
Empfänger<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
◦
BPSK QPSK<br />
Im<br />
−a a<br />
Im<br />
a=1 a= 0,5<br />
Re<br />
8−PSK 16−QAM<br />
010<br />
−a<br />
0<br />
110<br />
a<br />
Im<br />
011 001<br />
111<br />
−a<br />
101<br />
1<br />
000<br />
a=1<br />
a<br />
100<br />
Re<br />
1011<br />
01<br />
a<br />
−a a<br />
00<br />
−a<br />
3a<br />
Im<br />
a<br />
1010 1000 0000<br />
−3a −a a 3a<br />
1110 1100 −a 0100<br />
1111<br />
1001<br />
1101<br />
−3a<br />
11<br />
10<br />
0001 0011<br />
Re<br />
a= 0,1<br />
0010<br />
0110<br />
0101 0111<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
Re
a <br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
L
Ps<br />
SNR|dB = 10· log<br />
<br />
Pn<br />
Ps Pn <br />
SNR|dB < 0 dB<br />
<br />
<br />
Psymb/Pn GP = L<br />
Psymb<br />
Pn<br />
= Pchip<br />
Pn<br />
+ 10 log GP = SNR|dB + 10 log GP<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
s c<br />
s[n] = {+1 + j, −1 + j}<br />
c[n] = {−1, +1, −1, +1}<br />
x[n] <br />
c1 c2 <br />
x[n] = {−j, +2 − j, −2 + j, +j, +2 + j, +j, − j, − 2 − j}<br />
c1[n] = {+1, −1, +1, −1}<br />
c2[n] = {+1, +1, −1, −1}
x <br />
x <br />
x c1 c2 <br />
y[0] =<br />
3<br />
x[i] · c[i]<br />
i=0<br />
<br />
<br />
<br />
<br />
<br />
<br />
○ <br />
<br />
<br />
<br />
<br />
MATLAB ®<br />
RS232-<br />
Schnittstelle<br />
Schnittstellensteuerung<br />
CDMA‐Transceiver<br />
1<br />
0<br />
D6<br />
Modulation<br />
QPSK<br />
16-QAM<br />
1<br />
0<br />
B4<br />
Demodulation<br />
1<br />
0<br />
B4<br />
QPSK<br />
16-QAM<br />
Spreizung<br />
1<br />
0<br />
C4<br />
4<br />
256<br />
1<br />
0<br />
A4<br />
1<br />
0<br />
Korrelation<br />
1<br />
0<br />
A4<br />
4<br />
256<br />
<br />
<br />
C4<br />
AWGN-<br />
Kanal<br />
FPGA<br />
A5 B5 C5 SNR<br />
0 0 0 0<br />
0 0 1 2,5<br />
0 1 1 5<br />
1 0 0 7,5<br />
1 0 1 10<br />
1 1 0 12,5<br />
1 1 1 15
○ <br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
Ps Pn