16.01.2013 Aufrufe

3 Aufgabe 2 - Fakultät für Elektrotechnik und Informationstechnik ...

3 Aufgabe 2 - Fakultät für Elektrotechnik und Informationstechnik ...

3 Aufgabe 2 - Fakultät für Elektrotechnik und Informationstechnik ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

WS 2009/2010<br />

RUHR-UNIVERSITÄT BOCHUM<br />

<strong>Fakultät</strong> <strong>für</strong> <strong>Elektrotechnik</strong><br />

<strong>und</strong> <strong>Informationstechnik</strong><br />

Bachelor-VERTIEFUNGSPRAKTIKUM<br />

INFORMATIONSTECHNIK<br />

WS 2009/2010<br />

Universitätsstrasse 150, D-44780 Bochum


Versuchsverzeichnis<br />

Spurensucher (ATP) IT-V1<br />

Autonomes Fahrzeug (ATP) IT-V2<br />

Quellenlokalisation mit Mikrofonarrays (AIKA) IT-V3<br />

Auditive virtuelle Umgebung (AIKA) IT-V4<br />

Ultraschallbildgebung – praktische Aspekte (MT) IT-V5<br />

Ultraschallbildgebung – Signalverarbeitung (MT) IT-V6<br />

Glasfaserübertragungsstrecke (PTT) IT-V7<br />

Amplitudenmodulation (NT) IT-V8<br />

Gruppenlaufzeitentzerrung (NT) IT-V9<br />

Digitale Übertragungsstrecke (IS) IT-V10


Inhaltsverzeichnis<br />

Versuch IT-V1: Spurensucher<br />

1 Ziel des Versuchs 2<br />

1.1 Einleitung .................................................................................................... 2<br />

1.2 Motivation ................................................................................................... 2<br />

2 <strong>Aufgabe</strong> 1: Modellbau 3<br />

3 <strong>Aufgabe</strong> 2: Interface- <strong>und</strong> Fahrzeugtest 4<br />

4 <strong>Aufgabe</strong> 3: Streckenmessung 6<br />

5 <strong>Aufgabe</strong> 4: Spurensuche 7<br />

6 <strong>Aufgabe</strong> 5: Vermessung einer Geraden <strong>und</strong> einer vorgegebenen Strecke 8<br />

7 Beiblatt: Interface-Beschaltung Spurensucher 9<br />

IT-V1 - 1


1 Ziel des Versuchs<br />

1.1 Einleitung<br />

In den folgenden Versuchen soll mit Hilfe eines Fischertechnik-Modells ein Fahrzeug gebaut<br />

<strong>und</strong> programmiert werden, welches einer vorgegebenen Spur folgt <strong>und</strong> diese zusätzlich<br />

noch vermisst.<br />

1.2 Motivation<br />

Bei diesem Versuch wird der Versuchsaufbau nicht zur Verfügung gestellt. Das Fahrzeug<br />

muss vom Studenten aufgebaut <strong>und</strong> danach getestet werden. Für die Steuerung des Fahrzeuges<br />

steht ein Kleinrechner zur Verfügung.<br />

Durch die Kapazität von 2 Flash Speichern, einem RAM Speicher <strong>und</strong> zusätzlichen analogen<br />

<strong>und</strong> digitalen Ein- <strong>und</strong> Ausgängen, können mit Hilfe des Interfaces auch komplizierte<br />

<strong>und</strong> sehr vielseitige Automatisierungsaufgaben gelöst werden. Die mitgelieferte Bedienungssoftware<br />

besitzt, passend zur Kapazität des Interface, alle Eigenschaften zur Realisierung<br />

auch komplexer, autonomer Steuerungsanwendungen. Ebenso ist die Implementierung paralleler,<br />

unabhängig voneinander ablaufender Steuerungen möglich. Eine Einführung in die<br />

Programmierung wird zu Anfang des Praktikums gegeben.<br />

Die Anwendung standardmäßiger industrieller Steuerungen würde hier einen viel höheren<br />

verbindungstechnischen Aufwand erzeugen <strong>und</strong> wäre <strong>für</strong> ein Einführungspraktikum<br />

deutlich zu aufwendig. Aus diesem Gr<strong>und</strong>e wurde das sehr weit verbreitete Fischertechnik-<br />

System gewählt.<br />

IT-V1 - 2


2 <strong>Aufgabe</strong> 1: Modellbau<br />

Abbildung 1: Spurensucher Fahrzeug<br />

1. Es ist das Fischertechnik-Modell, wie im ausgelegten Bauplan <strong>und</strong> Abbildung 1<br />

dargestellt, aufzubauen.<br />

Beim Bau der Modelle ist folgendes zu beachten:<br />

a. Die Teile lassen sich mehr oder minder leicht zusammenstecken. Gewalt ist<br />

auch hier keine Lösung.<br />

b. Es ist genau auf den Bauplan zu achten! Es ist wichtig, dass verschiedene<br />

Blöcke in der richtigen Lage zusammen geschoben werden, da unter Umständen<br />

nachher noch Teile von außen angebaut werden müssen, was bei<br />

mangelnder Genauigkeit dann nicht mehr möglich ist.<br />

Aktoren <strong>und</strong> Sensoren anschließen!<br />

Hier ist besonders darauf zu achten, dass die Fotodioden mit der richtigen Polarität<br />

angeschlossen werden. Der rote Stecker gehört auf den rot markierten Anschluss der<br />

Diode. Die grünen Stecker werden jeweils in die obere Anschlusszeile gesteckt. Siehe<br />

auch Abbildung 2.<br />

Abbildung 2: ROBO-Interface<br />

IT-V1 - 3


3 <strong>Aufgabe</strong> 2: Interface- <strong>und</strong> Fahrzeugtest<br />

Es ist ein Interface- <strong>und</strong> Fahrzeugtest durchzuführen. Zu diesem Zweck wird das ROBO-<br />

Interface per USB an den PC angeschlossen <strong>und</strong> folgend der Interface-Test der ROBOPro-<br />

Software verwendet.<br />

1. Es sollen die Reaktionen von Aktoren <strong>und</strong> Sensoren auf verschiedene Eingaben getestet<br />

werden. Dazu sind die folgenden Fragen zu beantworten:<br />

a. Wenn sich beide Motoren laut Programm nach "`rechts"' drehen, laufen<br />

dann beide Räder in die selbe Richtung? Sollte dies nicht der Fall sein, polen<br />

Sie einen Motor um, damit die Programmierung übersichtlich wird!<br />

b. Fährt das Modell vorwärts oder rückwärts, wenn sich beide Motoren nach<br />

"rechts" drehen?<br />

c. Wie reagieren die Fotodioden, wenn man sie in das Licht hält? Mit einer 1<br />

am Ausgang (entspricht Haken im Interfacetest), oder mit einer 0 am Ausgang?<br />

(Hinweis: Nehmen Sie die Lampe ab <strong>und</strong> halten Sie diese vor die Fotodiode.<br />

Die Beleuchtung des Praktikumraums könnte nicht ausreichend<br />

sein.)<br />

d. Das Modell ist auf weißes Papier zu stellen. Wie reagieren die Sensoren auf<br />

ein- bzw. ausgeschaltetes Licht?<br />

IT-V1 - 4


2. Es sollen zwei Ablaufprogramme zur Motorensteuerung entworfen <strong>und</strong> skizziert<br />

werden.<br />

a. Das Fahrzeug soll sich zunächst vorwärts <strong>und</strong> dann nach 3 Sek<strong>und</strong>en rückwärts<br />

bewegen.<br />

b. Das Fahrzeug soll sich im Kreis bewegen.<br />

Die Lösungen sind hier einzutragen:<br />

zu 2(a):<br />

zu 2(b):


4 <strong>Aufgabe</strong> 3: Streckenmessung<br />

1. Das Programm <strong>für</strong> die Vorwärtsfahrt ist so zu erweitern, dass der Roboter genau 40<br />

Impulse, gemessen mit Taster 1, geradeaus läuft. Welche Einstellung der Tasterabfrage<br />

ergibt die größte Genauigkeit? Begründen Sie die Antwort <strong>und</strong> verwenden Sie<br />

diese Einstellung <strong>für</strong> die folgenden Versuche!<br />

2. Führen Sie den Versuch 3 Mal durch <strong>und</strong> messen Sie jeweils die zurückgelegte Strecke.<br />

Versuch 1 40<br />

Versuch 2 40<br />

Versuch 3 40<br />

Anzahl Impulse Strecke Strecke pro Impuls<br />

3. Wie viele Impulse werden pro Radumdrehung erzeugt? Damit ist der Umfang des<br />

Rades zu bestimmen.<br />

IT-V1 - 6


5 <strong>Aufgabe</strong> 4: Spurensuche<br />

Es ist ein Programm zu erstellen, das sicherstellt, dass das Fahrzeug einem vorgegebenen<br />

schwarzen Strich folgt! Hierzu sind die in <strong>Aufgabe</strong> 2 gesammelten Erkenntnisse über die<br />

Fotodioden anzuwenden.<br />

Tipps:<br />

1. Die angebaute Lampe muss die Fahrbahn beleuchten, da sonst dauerhaft ein dunkler<br />

Untergr<strong>und</strong> erkannt wird <strong>und</strong> somit keine Steuerung möglich ist.<br />

2. Die Lampe <strong>und</strong> die Dioden müssen richtig ausgerichtet sein, damit der Unterschied<br />

zwischen schwarzem Strich <strong>und</strong> weißem Papier ausreichend gut gemessen werden<br />

kann.<br />

3. Am Anfang sollte eine sehr kleine Geschwindigkeit der Motoren eingestellt werden,<br />

da es bei hohen Geschwindigkeiten sein kann, dass die Regelung trotz erkanntem<br />

hell-dunkel Übergang, nicht schnell genug reagieren kann, bevor das Fahrzeug die<br />

Spur ganz verliert.<br />

IT-V1 - 7


6 <strong>Aufgabe</strong> 5: Vermessung einer Geraden <strong>und</strong> einer vorgegebenen<br />

Strecke<br />

1. Das Programm aus <strong>Aufgabe</strong> 4 ist so zu erweitern, dass nun zwei Zähler im Online-<br />

Modus die Impulse an den Tastern mitzählen können. Hier<strong>für</strong> ist im Programm eine<br />

Variable zu implementieren.<br />

2. Vermessen der Gerade!<br />

a. Wie viele Impulse hat das Programm gezählt?<br />

b. Wie lang ist damit die Strecke?<br />

3. Vermessen der Acht! Wie lang ist eine R<strong>und</strong>e?<br />

IT-V1 - 8


7 Beiblatt: Interface-Beschaltung Spurensucher<br />

IT-V1 - 9


Versuch IT-V2: Autonomes Fahrzeug<br />

Inhaltsverzeichnis<br />

1 Ziel des Versuchs 2<br />

1.1 Vermeidung einer Kollision ........................................................................... 2<br />

1.2 Prinzip der Hinderniserkennung mit Fotodioden........................................... 2<br />

2 <strong>Aufgabe</strong> 1: Gr<strong>und</strong>legende Überlegungen 4<br />

2.1 Fragen zur Konstruktion............................................................................... 4<br />

2.2 Kalibrierung der Fotodioden ......................................................................... 5<br />

2.3 Analoge Betrachtung der Fotodioden............................................................ 5<br />

3 <strong>Aufgabe</strong> 2: Vorgegebene Bewegung mit autonomer Hinderniserkennung 6<br />

4 <strong>Aufgabe</strong> 3: Autonome Bewegung 7<br />

5 Beiblatt: Interface-Beschaltung Autonomes-Fahrzeug 8<br />

IT-V2 - 1


1 Ziel des Versuchs<br />

Im folgenden Versuch soll <strong>für</strong> ein vorgegebenes Fahrzeug eine Ablaufsteuerung entwickelt<br />

werden, die es dem Fahrzeug ermöglicht, sich autonom zu bewegen. In der ersten <strong>Aufgabe</strong><br />

soll das Fahrzeug eine vorgegebene Bewegung durchführen <strong>und</strong> in der Lage sein, autonom<br />

Hindernisse zu erkennen. Im letzten Teil soll sich das Fahrzeug vollständig autonom bewegen.<br />

1.1 Vermeidung einer Kollision<br />

Um zu verhindern, dass das Fahrzeug gegen eine Wand fährt, bzw. in einer Ecke hängen<br />

bleibt, sind am Fahrzeug Lampen <strong>und</strong> die zugehörigen Lichtsensoren angebracht. Es gibt<br />

allerdings auch andere Sensoren, die man anbringen könnte, die hier kurz erwähnt werden<br />

sollen.<br />

1. Taster: Taster kann man sicher nicht verwenden, um eine kollisionsfreie Bewegung<br />

in einem Raum zu erreichen. Dennoch reichen die Taster aus, um eine Bewegung<br />

im Raum zu schaffen, die ein Festfahren verhindert.<br />

2. Ultraschall: Ultraschallsensoren sind sicher <strong>für</strong> Anwendungen in teuren Modellen,<br />

beispielsweise Automobilen, angebracht <strong>und</strong> eine der besten Möglichkeiten den Abstand<br />

zu einer Wand oder einem Hindernis genau zu messen. Jedoch ist hier keine<br />

genaue Messung notwendig, die den Preis <strong>für</strong> die Ultraschallausrüstung rechtfertigen<br />

würde.<br />

1.2 Prinzip der Hinderniserkennung mit Fotodioden<br />

In unserem Versuch werden, wie schon erwähnt, Lichtsensoren <strong>und</strong> zugehörige Lampen<br />

verwendet. Dieses Messprinzip soll im Folgenden kurz erläutert werden:<br />

Vom Prinzip her, funktioniert die Hinderniserkennung bei diesem Fahrzeug ähnlich wie<br />

die Spurensuche im ersten Versuch. Sobald eine Fotodiode dem Hindernis zu nahe kommt,<br />

wird das Licht der Lampe am Hindernis so stark reflektiert, dass die Fotodiode am digitalen<br />

Eingang ihren Zustand ändert <strong>und</strong> somit das Hindernis erkennt. In diesem Versuch<br />

wird zusätzlich ein analoger Eingang verwendet, dem im Programm ein Grenzwert zur<br />

genaueren Abstandsmessung zugewiesen werden kann.<br />

IT-V2 - 2


Allerdings sind beim Fischertechnik-Modell einige Besonderheiten zu beachten, die bei<br />

dieser Erkennung Schwierigkeiten hervorrufen können.<br />

1. Man kann bei der Lampe verschiedene Helligkeiten einstellen, welche stark beeinflussen,<br />

unter welchen Bedingungen das Hindernis erkannt wird. Stellt man eine<br />

starke Helligkeit ein, kann es passieren, dass ein Hindernis erkannt wird, obwohl<br />

das Fahrzeug noch weit vor dem Hindernis ist <strong>und</strong> noch gar nicht reagieren müsste.<br />

Im anderen Fall kann es bei geringen Helligkeiten passieren, dass ein Hindernis u.<br />

U. gar nicht erkannt wird <strong>und</strong> es zu einer Kollision kommt.<br />

2. Die Fotodioden müssen richtig ausgerichtet sein. Sind sie etwas verschoben, oder<br />

haben einen bestimmten Winkel zur Lampe, kann es passieren, dass das Licht gar<br />

nicht auf die Fotodiode fällt <strong>und</strong> somit eine Hinderniserkennung unmöglich ist.<br />

3. Die Batteriespannung ist nicht konstant! Mit zunehmender Betriebsdauer wird die<br />

Batteriespannung abnehmen <strong>und</strong> somit auch die Stärke des Lichts. Dies hat zur<br />

Folge, dass Hindernisse später nicht mehr erkannt werden. Dieser Punkt muss bei<br />

der späteren Programmierung unbedingt berücksichtigt werden.<br />

ACHTUNG: Die Unterlagen <strong>und</strong> Ergebnisse aus dem 1.Versuch müssen mitgebracht werden,<br />

um diese <strong>Aufgabe</strong>n in angemessener Zeit lösen zu können.<br />

IT-V2 - 3


2 <strong>Aufgabe</strong> 1: Gr<strong>und</strong>legende Überlegungen<br />

2.1 Fragen zur Konstruktion<br />

Diese <strong>Aufgabe</strong>n sind in Vorbereitung auf das Praktikum zu lösen!<br />

Bevor das Fahrzeug seine ersten autonomen Bewegungen im Raum bzw. im vorgegebenen<br />

Versuchsbereich ausführt, müssen zuerst die Lampen <strong>und</strong> Fotodioden so angebracht<br />

<strong>und</strong> ausgerichtet werden, dass das Fahrzeug nachher sicher gegen Kollisionen geschützt ist.<br />

1. Ihnen stehen 3 Lampen <strong>und</strong> Fotodioden zur Vermeidung von Kollisionen zur Verfügung.<br />

Skizzieren Sie wo die betreffenden Lampen <strong>und</strong> Dioden am Rahmen des<br />

Fahrzeuges anzubringen sind. Es ist dabei zu bedenken, dass das Fahrzeug in diesem<br />

Versuch nur vorwärts fahren muss <strong>und</strong> somit gewisse Teile des Fahrzeuges<br />

nicht mit der Wand kollidieren können.<br />

2. Wie wären die Sensoren anzubringen, wenn 7 Lampen, <strong>und</strong> Fotodioden zur Verfügung<br />

ständen? (Skizze)<br />

3. Was wäre, wenn das Fahrzeug auch rückwärts fahren könnte <strong>und</strong> somit eine Kollision<br />

am Heck möglich wäre? (Skizze <strong>für</strong> 4 <strong>und</strong> 8 Sensoren)<br />

IT-V2 - 4


2.2 Kalibrierung der Fotodioden<br />

Wie in der Einleitung erwähnt, können die Lampen in ihrer Lichtstärke variiert werden,<br />

um den Abstand von der Wand einzustellen, bei der die Fotodiode ihren Zustand wechselt<br />

<strong>und</strong> somit das Hindernis erkennt.<br />

1. Es ist eine Lampe <strong>und</strong> die dazugehörige Fotodiode am Fahrzeug anzubringen <strong>und</strong><br />

an das ROBO-Interface anzuschließen. Die Fotodiode wird mit einem digitalen Eingang<br />

verb<strong>und</strong>en. Der Interfacetest wird gestartet <strong>und</strong> die Lampe eingeschaltet. Mit<br />

einem weißen Blatt Papier als Reflektor wird der Abstand zwischen Lampe <strong>und</strong> Fotodiode<br />

verkleinert.<br />

Der Abstand, bei dem die Fotodiode ihren Zustand wechselt, ist <strong>für</strong> verschiedene<br />

Lichtstärken zu messen. Das Ergebnis ist in folgender Tabelle zu notieren.<br />

Lichtstärke Abstand bei Zustandswechsel [in cm]<br />

8<br />

7<br />

6<br />

5<br />

4<br />

3<br />

2<br />

1<br />

2. Welche Einstellung ist ihrer Meinung nach <strong>für</strong> den Versuch am besten? Dabei ist zu<br />

beachten, dass eine gewisse Robustheit bezüglich des Umgebungslichts <strong>und</strong> der<br />

Spannungsschwankungen während des Betriebs gegeben sein sollte. Begründung!<br />

2.3 Analoge Betrachtung der Fotodioden<br />

Um eine genauere Abstandsmessung zu erreichen kann die Fotodiode nicht nur digital sondern<br />

auch analog betrieben werden. Dazu muss die Fotodiode entweder an den Eingang<br />

AX oder AY auf dem ROBO-Interface angeschlossen werden. Eine genauere Beschreibung<br />

der analogen Eingänge ist im ROBOPro Handbuch zu finden.<br />

Es ist mit Hilfe des Interface Test eine Tabelle <strong>und</strong> eine Kennlinie aufzunehmen, die den<br />

Zusammenhang zwischen dem Abstand von der Wand <strong>und</strong> dem Signal am analogen Eingang<br />

zeigt! Diese Daten werden später zur Hinderniserkennung gebraucht.<br />

IT-V2 - 5


3 <strong>Aufgabe</strong> 2: Vorgegebene Bewegung mit autonomer<br />

Hinderniserkennung<br />

In diesem Teilversuch soll das Fahrzeug von einer klar definierten Startposition beginnend,<br />

auf einem in Abbildung 1 spezifizierten Weg fahren <strong>und</strong> dann in einem definierten Zielbereich<br />

wieder anhalten. Hierbei soll die Bewegung im Programm vorgeschrieben sein, aber<br />

die Hinderniserkennung autonom ablaufen.<br />

Abbildung 1: Fahrweg<br />

Die Hinderniserkennung ist hier mit den vorhandenen Sensoren <strong>und</strong> Anschlüssen zu realisieren.<br />

Es bleibt dabei den Praktikumsteilnehmern überlassen, ob die analogen oder digitalen<br />

Eingänge oder auch beide genutzt werden.<br />

Bei dieser <strong>Aufgabe</strong> ist zu beachten, dass ein beträchtlicher Steuerungsanteil realisiert<br />

werden muss, da jede einzelne Drehung fest einprogrammiert werden muss. Außerdem ist<br />

darauf zu achten, dass das Fahrzeug nicht zu nah an die Ränder fährt, da ansonsten keine<br />

Drehung mehr ausgeführt werden kann.<br />

IT-V2 - 6


4 <strong>Aufgabe</strong> 3: Autonome Bewegung<br />

Das Fahrzeug soll eine völlig autonome Bewegung durchführen. Das heißt, es soll sich möglichst<br />

kollisionsfrei innerhalb der Box bewegen. Der Weg ist dabei völlig unerheblich. Es ist<br />

jedoch besonders darauf zu achten, dass sich das Fahrzeug auf keinen Fall in einer Ecke<br />

festfährt.<br />

IT-V2 - 7


5 Beiblatt: Interface-Beschaltung Autonomes-Fahrzeug<br />

IT-V2 - 8


Versuch IT-V3: Quellenlokalisation <strong>und</strong><br />

Mikrofonarrays<br />

Inhaltsverzeichnis<br />

1 Einleitung 2<br />

2 Gr<strong>und</strong>lagen der Quellenlokalisation 2<br />

2.1 Signalmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2<br />

2.2 Quellenlokalisation mit zwei Mikrofonen . . . . . . . . . . . . . . . . . . . . 3<br />

2.3 Wiener Filter <strong>und</strong> NLMS-Algorithmus . . . . . . . . . . . . . . . . . . . . . 5<br />

2.4 Adaptives FIR Wiener Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

2.5 LMS- <strong>und</strong> NLMS-Algorithmen . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

3 Vom Algorithmus zur Echtzeit-Anwendung 8<br />

3.1 Das DSP-Board . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

3.2 Von Simulink zu C-Code . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

3.3 Embedded IDE Link CC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />

4 <strong>Aufgabe</strong>n 15<br />

4.1 Vorbereitende <strong>Aufgabe</strong>n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />

4.2 Messaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />

Literaturverzeichnis 18<br />

IT-V3 - 1


1 Einleitung<br />

Die Quellenlokalisation hat die <strong>Aufgabe</strong>, den Ort einer oder mehrerer akustischer Quellen<br />

zu identifizieren. Die Quellen können sich in einem akustisch reflektierenden Raum, wie<br />

z.B. ein Wohnzimmer oder ein Büroraum, oder im Freifeld befinden, wo keine oder nur<br />

wenig Reflektionen auftreten. Quellenlokalisation dient meist dazu, weitere nachgeschaltete<br />

Algorithmen mit Richtungsinformation zu versorgen. Mit einer Anordnung aus zwei oder<br />

mehr Mikrofonen (Mikrofonarray) <strong>und</strong> entsprechender Signalverarbeitung wird es möglich,<br />

eine raumrichtungsabhängige Empfindlichkeit des Mikrofonarrays zu realisieren. Hiermit<br />

kann prinzipiell eine hohe Empfindlichkeit in Richtung einer (oder mehrerer) gewünschter<br />

Quellen eingestellt werden, während akustische Störquellen aus anderen Einfallsrichtungen<br />

bedämpft werden. Diese Verwendung von Mikrofonarrays wird anschaulich auch als “Beamformer”<br />

bezeichnet, weil hier sinnbildlich ein Strahl akustischer Empfindlichkeit in den<br />

Raum gesteuert werden kann. Die Richtungsinformation aus der Quellenlokalisation kann<br />

hierbei zur adaptiven Steuerung des Beamformers eingesetzt werden.<br />

In diesem Versuch werden Sie sich mit den Gr<strong>und</strong>prinzipien <strong>und</strong> Herausforderungen<br />

der Quellenlokalisation in reflektionsfreier <strong>und</strong> in reflektionsbehafteter Umgebung vertraut<br />

machen. Sie lernen ein konkretes Verfahren zur Quellenlokalisation kennen. Im Versuch<br />

werden Sie den Algorithmus zunächst in der Simulationsumgebung Simulink fertigstellen<br />

<strong>und</strong> untersuchen, bevor Sie ihn dann in Objekt-Code übersetzen, auf einen Signalprozessor<br />

laden <strong>und</strong> als Echtzeitprogramm testen.<br />

2 Gr<strong>und</strong>lagen der Quellenlokalisation<br />

2.1 Signalmodell<br />

Bild 1 zeigt das Modell der Quellenlokalisation: In einem Raum befindet sich an der Stelle<br />

rs eine Quelle, deren Direktschall <strong>und</strong> reflektierter Schall von M Mikrofonen aufgenommen<br />

wird. Das Signal, das ein beliebiges Mikrofon m erreicht, kann als zeitkontinuierliche<br />

Funktion dargestellt werden:<br />

ym(t) = am(t) ∗ s0(t). (1)<br />

Hierbei bezeichnet s0(t) das Quellensignal, wie es am Ort der Quelle ausgesendet wird,<br />

<strong>und</strong> am(t) die Raumimpulsantwort vom Ort der Quelle zum Mikrofon m. Die Raumimpulsantwort<br />

wird hier mit dem Quellensignal gefaltet (Operator “∗”) <strong>und</strong> modelliert daher<br />

die Filterung, welche das Quellensignal aufgr<strong>und</strong> der Raumreflektionen auf dem Weg zum<br />

Mikrofon erfährt. Die Raumimpulsantwort ist im allgemeinen Fall eine zeitvariable Größe,<br />

da sie sich verändert, wenn sich beispielsweise die Quelle bewegt.<br />

Im Folgenden gehen wir von abgetasteten Signalen aus <strong>und</strong> ersetzen daher die kontinuierlichen<br />

Zeitfunktionen durch ihre abgetasteten Versionen. Beispielsweise approximieren<br />

wir die Raumimpulsantwort durch einen Vektor der Länge L, d.h.<br />

am = (am(0),am(1),...,am(L − 1)) T , (2)<br />

wobei am(k) die abgetastete Raumimpulsantwort zum diskreten Zeitpunkt k/fA bezeichnet,<br />

fA ist die Abtastrate <strong>und</strong> das hochgestellte T kennzeichnet die Transponierung des Vektors.<br />

IT-V3 - 2


s<br />

Direktschall<br />

Reflektionen<br />

r1<br />

rm<br />

rM<br />

ex<br />

Bild 1: Signalmodell einer reflektionsbehafteten Umgebung.<br />

Für das m-te Mikrofonsignal gilt entsprechend:<br />

ym(k) = a T ms0(k) (3)<br />

s0(k) = (s0(k),s0(k − 1),...,s0(k − L − 1)) T . (4)<br />

2.2 Quellenlokalisation mit zwei Mikrofonen<br />

Während die Mikrofone im allgemeinen Fall beliebig im Raum verteilt sein dürfen, betrachten<br />

wir im folgenden den Fall eines linearen Arrays bestehend aus M = 2 Mikrofonen, welche<br />

zusammen mit der Quelle in der durch die Einheitsvektoren ex <strong>und</strong> ey aufgespannten Ebene<br />

(Bild 1) liegen.<br />

Reflektionsarme Umgebung<br />

Reflektionsarme Umgebungen, wie sie z.B. auf einem schneebedeckten weiten Feld auftreten,<br />

werden häufig vereinfachend als reflektionsfrei angenommen. Es tritt daher nur Direktschall<br />

auf. In diesem Fall beschreibt die Raumimpulsantwort am eine Verzögerung, τm, <strong>und</strong> eine<br />

Dämpfung, bm, die aufgr<strong>und</strong> des Abstandes des Mikrofons von der Quelle zustande kommt:<br />

ym(k) = bmδ(τm) ∗ s0(k) (5)<br />

= bms0(k − τm). (6)<br />

Insbesondere tritt hier keine Filterwirkung aufgr<strong>und</strong> von Reflektionen auf. Ist die Dimension<br />

des Mikrofonarrays wesentlich kleiner als sein Abstand zur Schallquelle, so kann die am<br />

Array ankommende Wellenfront näherungsweise als ebene Wellenfront betrachtet werden<br />

IT-V3 - 3<br />

ey


s<br />

y2(k)<br />

d<br />

ò<br />

c · T<br />

y1(k)<br />

Bild 2: “Time Delay Of Arrival” (TDOA), T, unter Fernfeldannahme. c bezeichnet die Schallgeschwindigkeit<br />

in Luft <strong>und</strong> d den Abstand der Mikrofone.<br />

s0(k)<br />

00 11 00 110<br />

1<br />

01<br />

01<br />

00 11 00 11 00 11 00 11<br />

00 11 00 11010<br />

1<br />

01<br />

01<br />

01 01<br />

00 11 01<br />

00 110101 00 11 00 11 00 11 00 11010 1<br />

y1(k)<br />

y2(k)<br />

Bild 3: Quellenlokalisation in reflektionsarmer Umgebung. Der Block “T” stellt ein einstellbares<br />

Verzögerungselement dar.<br />

(Fernfeldannahme, Bild 2). Außerdem wird vereinfachend angenommen, dass die Dämpfungsterme<br />

<strong>für</strong> beide Mikrofonsignale gleich groß sind (b1 = b2). Die Information über die<br />

Raumrichtung θ, aus der eine Schallquelle auf das Mikrofonarray strahlt (“Direction Of Arrival”,<br />

DOA), ist implizit im Laufzeitunterschied (“Time Delay Of Arrival”, TDOA) zwischen<br />

den Signalen an Mikrofon 1 <strong>und</strong> 2 enthalten. Sie kann bei bekanntem TDOA <strong>und</strong> bekanntem<br />

Mikrofonabstand d berechnet werden (s. vorbereitende <strong>Aufgabe</strong>n). Im reflektionsfreien Fall<br />

könnte also mit einem variablen Verzögerungsglied T die Verzögerung ermittelt werden, bei<br />

der die Leistung des Differenzsignals beider Mikrofone minimal wird, also die tatsächlich<br />

zwischen den Signalen vorliegende Verzögerung vollständig kompensiert wird (Bild 3). Aus<br />

der so ermittelten TDOA wird dann die DOA, θ, errechnet.<br />

IT-V3 - 4<br />

T<br />

e(k)<br />


s0(k)<br />

00 11 00 11<br />

01<br />

01<br />

00 11 00 11 00 11 00 11<br />

00 11 00 11 00 11 00 11 010101<br />

01<br />

01<br />

01<br />

01<br />

00 11 01<br />

00 110101 00 11 00 11 00 11 00 11010<br />

1<br />

y1(k)<br />

y2(k)<br />

Bild 4: Quellenlokalisation in reflektionsbehafteter Umgebung. Anstelle eines Verzögerungselementes<br />

erscheint hier hinter dem oberen Mikrofon ein Filter w, dessen Koeffizienten adaptiv<br />

so eingestellt werden, dass der mittlere Fehler zwischen oberen <strong>und</strong> unterem Pfad minimal<br />

wird.<br />

Reflektionsbehaftete Umgebung<br />

In den meisten Fällen ist es realistischer, eine reflektionsbehaftete Umgebung anzunehmen.<br />

In diesem Fall enthält die Raumimpulsantwort außer dem dominierenden Direktschall<br />

(verzögert <strong>und</strong> skaliert wie im reflektionsarmen Fall) nun auch die Raumreflektionen. Daher<br />

liefert ein einfaches Verzögerungsglied hier keine optimalen Ergebnisse. Stattdessen wird wie<br />

in Bild 4 dargestellt ein Filter so adaptiert, dass die mittlere Abweichung zwischen beiden<br />

Mikrofonsignalen möglichst klein wird. Die Position des Maximums in der geschätzten<br />

Impulsantwort des Filters bestimmt nun den TDOA <strong>und</strong> wird wie zuvor in den gesuchten<br />

Winkel θ umgerechnet. Im Falle einer reflektionsfreien Umgebung würde ein solches<br />

adaptives Filter wieder zu einem verzögerten <strong>und</strong> skalierten Einheitsimpuls konvergieren.<br />

Die optimale Adaption der Filterkoeffizienten w erfolgt z.B. mit dem Least Mean Square<br />

(LMS) Verfahren, welches in den folgenden Abschnitten eingeführt wird.<br />

2.3 Wiener Filter <strong>und</strong> NLMS-Algorithmus<br />

Die Algorithmen der Störsignal- <strong>und</strong> Nachhallreduktion <strong>und</strong> der akustischen Echokompensation<br />

beinhalten in ihrem Kern adaptive Optimalfilter. Das adaptive Optimalfilter hat die<br />

<strong>Aufgabe</strong>, das Eingangssignal des Filters so zu verändern, dass unter fortlaufender Anpassung<br />

an die Signalstatistik der Fehler zwischen dem Ausgangssignal <strong>und</strong> einem Referenzsignal<br />

minimiert wird. Das hinsichtlich des mittleren quadratischen Fehlers optimale Filter ist<br />

<strong>für</strong> stationäre Signale in der Literatur als Wiener Filter bekannt, z.B. [?]. Da sich einige<br />

gr<strong>und</strong>sätzliche Eigenschaften optimaler Filter besonders elegant mit Hilfe des Wiener Filters<br />

darstellen lassen, wird als Ausgangspunkt dieses Kapitels zunächst das FIR Wiener<br />

Filter betrachtet. Daran anschließend folgt eine Diskussion des LMS-Algorithmus (Least<br />

Mean Square Algorithmus) <strong>und</strong> des NLMS-Algorithmus (Normalized Least Mean Square<br />

Algorithmus).<br />

Prinzip des Optimalfilters<br />

In Bild 5 ist der Signalfluss des Optimalfilters skizziert. Das Eingangssignal x(k), von dem<br />

IT-V3 - 5<br />

w<br />

e(k)<br />


x(k) Optimalfilter w<br />

e(k)<br />

01<br />

01<br />

01<br />

01<br />

01<br />

01<br />

01<br />

01<br />

01<br />

01<br />

01<br />

01<br />

01<br />

d(k)<br />

Bild 5: Prinzipskizze des Optimalfilters.<br />

angenommen wird, dass es einen stationären <strong>und</strong> mittelwertfreien Zufallsprozess realisiert,<br />

soll so gefiltert werden, dass das gefilterte Signal ˆ d(k) dem Referenzsignal d(k) im Sinne des<br />

mittleren quadratischen Fehlers<br />

möglichst ähnlich wird.<br />

Berechnung der Koeffizienten<br />

E e 2 (k) = E<br />

d(k) − ˆ <br />

2<br />

d(k)<br />

Betrachtet wird ein FIR-Filter der Ordnung N. Das Ausgangssignal des Filters ist nun durch<br />

die endliche Summe<br />

gegeben, wobei<br />

<strong>und</strong><br />

d (k) =<br />

ˆd(k)<br />

(7)<br />

N<br />

w(i)x (k − i) = w T x (k) (8)<br />

i=0<br />

w = (w(0),w(1),...,w(N)) T<br />

x(k)= (x (k),x (k − 1), ... ,x (k − N )) T<br />

die Vektoren der Filterkoeffizienten bzw. der Abtastwerte des Eingangssignals bezeichnen.<br />

Die Koeffizienten des Wiener Filters erhält man, indem man den mittleren quadratischen<br />

Fehler in Gleichung 7 nach den Filterkoeffizienten differenziert <strong>und</strong> die Ableitung gleich Null<br />

setzt:<br />

∂<br />

∂w(i) E{(d(k) − ˆ d(k)) 2 } = 0<br />

⇒ E{(d(k) − ˆ d(k))x(k − i)} = 0<br />

⇒ <br />

w(j)E{x(k − j)x(k − i)} = E{d(k)x(k − i)}<br />

j<br />

IT-V3 - 6<br />

(9)<br />

(10)


Dies ergibt ein Gleichungssystem mit N + 1 Gleichungen<br />

N<br />

w(i)rxx (j − i) = rdx (j), j = 0,...,N ,<br />

i=0<br />

welches in vektorieller Schreibweise in Form der Matrizengleichung<br />

Rxx wo=p (11)<br />

dargestellt werden kann. Rxx bezeichnet die Autokorrelationsmatrix des Signalvektors x(k)<br />

Rxx= E x (k)x T (k) =<br />

⎛<br />

⎜<br />

⎝<br />

rxx(0) rxx(1) · · · rxx(N)<br />

rxx(1) rxx(0) · · · rxx(N − 1)<br />

· · · · · · · · · · · ·<br />

rxx(N) · · · · · · rxx(0)<br />

<strong>und</strong> p den Kreuzkorrelationsvektor zwischen dem Referenzsignal d(k) <strong>und</strong> dem Signalvektor<br />

x(k)<br />

⎞<br />

⎟<br />

⎠<br />

(12)<br />

p= E {d (k)x(k)} = (rdx (0),rdx (1), ... ,rdx (N)) T . (13)<br />

Die optimalen Filterkoeffizienten wo erhält man somit durch Inversion der Korrelationsmatrix<br />

Rxx<br />

2.4 Adaptives FIR Wiener Filter<br />

wo = R −1<br />

xx p. (14)<br />

Die Berechnung des optimalen FIR Filters nach Gleichung 14 setzt die Kenntnis der Signalstatistik<br />

in Form der Korrelationsmatrix Rxx <strong>und</strong> des Kreuzkorrelationsvektors p voraus.<br />

Diese sind in der Regel jedoch nicht a priori bekannt <strong>und</strong> müssen bei veränderlicher Signalstatistik<br />

fortlaufend geschätzt werden. Wenn die Signale kurzzeitig stationär <strong>und</strong> ergodisch<br />

sind, kann die Signalstatistik aus Zeitmittelwerten über quasi-stationäre Signalabschnitte<br />

bestimmt werden. Ein besonders attraktives Verfahren zur Bestimmung der Filterkoeffizienten<br />

ist durch den LMS-Algorithmus gegeben. Der LMS-Algorithmus nähert sich iterativ<br />

ohne explizite Bestimmung der Korrelationsmatrix Rxx <strong>und</strong> des Kreuzkorrelationsvektors<br />

p dem Wiener Filter an. Wegen seines geringen Rechenaufwandes <strong>und</strong> seiner Robustheit<br />

gegenüber Störungen ist er von besonderer Bedeutung <strong>für</strong> uns.<br />

2.5 LMS- <strong>und</strong> NLMS-Algorithmen<br />

Die optimalen Koeffizienten zur Minimierung des mittleren quadratischen Fehlers nach<br />

Gleichung 7 können effizient mit einem iterativen Gradientenalgorithmus bestimmt werden.<br />

Der Least Mean Square Algorithmus (LMS-Algorithmus) approximiert den Gradienten<br />

des mittleren quadratischen Fehlers durch den Gradienten des aktuellen quadratischen<br />

Fehlers e 2 (k) <strong>und</strong> adaptiert die Filterkoeffizienten in Richtung des negativen geschätzten<br />

IT-V3 - 7


Gradienten. Für ein FIR Filter der Ordnung N erhält man mit dem aktuellen geschätzten<br />

Fehlergradienten<br />

die Koeffizientenrekursion des LMS-Algorithmus<br />

grad e 2 (k) = −2e (k)x(k) (15)<br />

w (k + 1) = w (k) + αe (k)x(k), (16)<br />

wobei α die Schrittweite bezeichnet. Die Konvergenz des Erwartungswertes der Filterkoeffizienten<br />

gegen den optimalen Koeffizientenvektor ist nur dann von Nutzen, wenn auch<br />

der mittlere quadratische Fehler einem endlichen, möglichst kleinen Wert zustrebt. Für<br />

gaußverteilte <strong>und</strong> mittelwertfreie Datenvektoren x(k) wird der Konvergenzbereich in [?] mit<br />

dem kleinsten Wert α angegeben, der die Gleichung<br />

α =<br />

N<br />

2<br />

λi (1 − αλi)<br />

i=0<br />

−1<br />

erfüllt, woraus sich als untere Schranke der maximale Wert der Schrittweite <strong>für</strong> Stabilität<br />

zu<br />

α =<br />

2<br />

3 · spur (Rxx)<br />

ergibt. Die λi bezeichnen die Eigenwerte der Korrelationsmatrix Rxx. Es zeigt sich allerdings,<br />

dass auch diese Schranke zu groß angesetzt ist. Im praktischen Einsatz muss der LMS-<br />

Algorithmus daher mit relativ kleiner Schrittweite betrieben werden.<br />

NLMS-Algorithmus<br />

Der Konvergenzbereich des LMS-Algorithmus ist nach Gleichung 18 von der Leistung des Signals<br />

x (k) abhängig. Der Normalized Least Mean Square Algorithmus (NLMS-Algorithmus)<br />

w (k + 1) = w (k) +<br />

(17)<br />

(18)<br />

α<br />

xT e (k)x(k) (19)<br />

(k)x(k)<br />

kann als ein LMS-Algorithmus mit auf die Energie des Signalvektors x T (k)x(k) normierter<br />

Schrittweite aufgefasst werden. Der Erwartungswert der Filterkoeffizienten konvergiert <strong>für</strong><br />

0 ≤ α ≤ 2 <strong>und</strong> gaußverteilte, mittelwertfreie Datenvektoren x(k) gegen das optimale Wiener<br />

Filter. Der Konvergenzbereich ist unabhängig von der Leistung des Signals x (k). Da die<br />

Schrittweite in den Grenzen 0 ≤ α ≤ 2 relativ groß gewählt werden kann, konvergiert der<br />

NLMS-Algorithmus unter Umständen schneller als der LMS-Algorithmus.<br />

3 Vom Algorithmus zur Echtzeit-Anwendung<br />

Bild 6 zeigt den Entwurfsprozess, an dem sich der vorliegende Versuch orientiert. Nachdem<br />

eine algorithmische Idee gef<strong>und</strong>en ist, wird diese zunächst auf ihr Verhalten unter den zu<br />

IT-V3 - 8


Algorithmus<br />

Simulation<br />

C-Code<br />

Objekt-Code,<br />

ausführbarer Code<br />

DSP-Board<br />

Hilfsmittel:<br />

Papier, Stift, Kopf<br />

Simulink, MATLAB<br />

Compiler <strong>und</strong> Linker,<br />

z.B. Code Composer Studio<br />

Professional Audio Development<br />

Kit, Lyrtech<br />

Bild 6: Entwurfsprozess vom Algorithmus zum echtzeitfähigen Programm.<br />

erwartenden Rahmenbedingungen (variirende Signaleigenschaften, Variation der Algorithmenparameter)<br />

hin untersucht. Dieser Schritt wird in einer geeigneten Simulationsumgebung<br />

vollzogen, wie z.B. Simulink (MATLAB ). Falls nötig, wird der Algorithmus verfeinert oder<br />

verändert <strong>und</strong> erneut simuliert. Hat der Algorithmus in der Simulation das gewünschte<br />

Verhalten bewiesen, kann von Simulink auf Knopfdruck automatisch der entsprechende C-<br />

Code generiert werden. Mit einem Compiler wird dieser übersetzt <strong>und</strong> mit einem Linker<br />

die Objekt-Dateien zu einem ausführbaren Programm verb<strong>und</strong>en. Dieses wird dann auf die<br />

Zielplattform heruntergeladen, auf der sich (u.a.) der digitale Signalprozessor (DSP), sowie<br />

AD- <strong>und</strong> DA-Wandler befinden. Nach Test des Echtzeitverhaltens des Algorithmus’ ist es<br />

unter Umständen notwendig, erneut Veränderungen im Simulink-Modell vorzunehmen, um<br />

so den Algorithmus in einer weiteren Iteration zu verfeinern.<br />

Die ersten Schritte, d.h. die Entwicklung einer Algorithmen-Idee <strong>und</strong> deren Umsetzung in<br />

ein Simulink-Modell ist <strong>für</strong> den vorliegenden Versuch weitestgehend <strong>für</strong> Sie vorbereitet bzw.<br />

abgeschlossen. Ihre <strong>Aufgabe</strong> ist es, das Simulink-Modell zu vervollständigen, zu untersuchen<br />

<strong>und</strong> schließlich in ein echtzeitfähiges Programm zu übersetzen, welches abschließend auf das<br />

DSP-Board heruntergeladen <strong>und</strong> getestet wird.<br />

Die folgenden Unterabschnitte führen in das DSP-Board ein, die notwendigen Schritte zur<br />

Generierung des C-Codes, das Übersetzung <strong>und</strong> Linken des C-Codes <strong>und</strong> das Herunterladen<br />

des ausführbaren Programmcodes auf das DSP-Board.<br />

IT-V3 - 9


3.1 Das DSP-Board<br />

Bei dem <strong>für</strong> diesen Versuch benutzten DSP-Board handelt es sich um das Professional<br />

Audio Development Kit (PADK) der Firma Lyrtech. Dieses Board verfügt über folgende<br />

Komponenten (s. Bild 7):<br />

Prozessoren:<br />

• DSP: Texas Instruments (C6000) TMS320C6727 300-MHz<br />

• FPGA: XC2S50E<br />

Speicher:<br />

• Flash: 16 MB<br />

• SDRAM: 128 MB<br />

Input/Output Interfaces:<br />

• 2 PCM4104, Vierkanal 24 Bit D/A-Umsetzer, 192 kHz<br />

• 2 PCM4104, Vierkanal 24 Bit A/D-Umsetzer, 192 kHz<br />

• SRC4192, 144 dB Dynamikumfang, 16:1/1:16 Abtastraten-Umsetzer<br />

• Koaxial <strong>und</strong> optisches S/PDIF, digitales I/O <strong>für</strong> Abtastraten bis zu 192 kHz<br />

• RS-232 UART<br />

• LED <strong>und</strong> DIP-Schalter<br />

• Word-Clock-Interface<br />

• Hi-speed USB-port<br />

• MIDI IN, OUT <strong>und</strong> THRU ports<br />

• Drei general-purpose analoge Eingänge<br />

3.2 Von Simulink zu C-Code<br />

Der Real-Time-Workshop unter Simulink erlaubt es, ausgehend von einem Simulink-Modell<br />

automatisch C-Code zu generieren, der die Funktionalität des Modells abbildet. Im Folgenden<br />

werden die Einstellungen erläutert, die hierzu notwendig sind.<br />

Zunächst muss ein Modell in Simulink erstellt werden. In diesem Modell müssen alle<br />

<strong>für</strong> den Versuchsaufbau wichtigen Simulink-Blöcke eingefügt <strong>und</strong> verschaltet werden (siehe<br />

Versuchsbeschreibung). Aus der Bibliothek "PADK Board Support", welche Sie im Library<br />

Browser von Simulink finden, müssen dann die A/D- <strong>und</strong> D/A-Wandler eingeb<strong>und</strong>en<br />

werden.<br />

IT-V3 - 10


Bild 7: Systemkomponenten des im Versuch verwendeten DSP-Boards.<br />

IT-V3 - 11


(a) Einstellungen des A/D-Wandlers (ADC) (b) Einstellungen des D/A-Wandlers (DAC)<br />

Bild 8: Parametereinstellungen der Blöcke ADC <strong>und</strong> DAC der PADK Support Library.<br />

Wenn alle Blöcke <strong>für</strong> die Echtzeit-Anwendung wie gewünscht verschaltet <strong>und</strong> alle Parameter<br />

korrekt eingestellt sind (s. Bild 8), kann mit dem Real-Time Workshop von MATLAB aus<br />

dem Simulink-Modell Quellcode zu erzeugen. Der Code wird in C generiert.<br />

IT-V3 - 12<br />

Um den Code fehlerfrei zu generieren,<br />

müssen einige Einstellungen im Model Explorer<br />

vorgenommen werden. Den Model<br />

Explorer finden Sie im Menü View, wie in<br />

der linken Abbildung gezeigt.<br />

Im Model Explorer öffnen Sie bitte das<br />

Menü mit dem Namen Ihres Modells<br />

<strong>und</strong> wählen den Unterpunkt Configuration<br />

(Active) aus.


Im mittleren Abschnitt des Fensters sollte<br />

dieses Menü erscheinen.<br />

Wenn Sie die einzelnen Menü-Punkte aktivieren, sehen Sie deren Inhalte im rechten Abschnitt<br />

des Fensters. Hier sind nun folgende Änderungen vorzunehmen:<br />

Solver: Data Import/Export:<br />

Optimization:<br />

Im Punkt Diagnostics muss keine Änderung vorgenommen werden.<br />

IT-V3 - 13<br />

Das Ansprechen des DSPs ist nur mit<br />

einem Fixed-step Solver ohne kontinuierliche<br />

Zustände möglich. Die Schrittweite<br />

des Solvers ist der Kehrwert der in<br />

den A/D- <strong>und</strong> D/A-Wandlern eingestellten<br />

Abtastrate.<br />

Da das Modell keine Daten aus dem<br />

Workspace von MATLAB laden oder dort<br />

abspeichern muss, werden in diesem Abschnitt<br />

alle Check-Boxen deaktiviert.<br />

Die linke Optimierungs-Einstellung bewirkt,<br />

dass die Berechnung von Zwischenergebnissen<br />

<strong>und</strong> die Nutzung von Puffern<br />

oder Variablen minimiert wird.


Hardware Implementation:<br />

Hier wird eingestellt, <strong>für</strong> welche Art von<br />

Prozessor der Code erzeugt wird.<br />

Im Punkt Model Referencing muss ebenfalls keine Änderung vorgenommen werden.<br />

Real-Time Workshop, Karteikarte General:<br />

Embedded IDE Link CC:<br />

IT-V3 - 14<br />

Hier wird unter Target selection als System<br />

target file die Datei "ccslink_grt.tlc"<br />

ausgewählt. Dies bewirkt, dass MATLAB<br />

<strong>und</strong> Simulink über Embedded IDE Link<br />

CCS miteinander verlinkt werden (siehe<br />

Abschnitt 3.3) <strong>und</strong> nach dieser Verlinkung<br />

der C-Code erzeugt wird.<br />

In diesem Fenster wird unter<br />

Runtime Options <strong>und</strong> Build action<br />

"Build_and_execute" ausgewählt.<br />

Es bewirkt, dass Embedded IDE<br />

Link CC automatisch ein Projekt<br />

im Code Composer Studio erzeugt<br />

(C-Entwicklungsumgebung), alle<br />

erforderlichen Dateien hinzufügt <strong>und</strong><br />

dieses Projekt direkt ausführt <strong>und</strong> nac<br />

h der Ausführung auf das Board lädt.<br />

Ein Klick auf ’Generate code’ genügt um<br />

den C-Code <strong>für</strong> das Simulink-Modell zu<br />

erstellen, das Code Composer Studio zu<br />

öffnen <strong>und</strong> das Projekt auszuführen.


3.3 Embedded IDE Link CC<br />

Die MATLAB -Erweiterung Embedded<br />

IDE Link CC verbindet MATLAB <strong>und</strong><br />

Simulink mit Code Composer Studio von<br />

Texas Instruments, einer Entwicklungsumgebung<br />

<strong>für</strong> C/C++.<br />

Mithilfe des Embedded IDE Link CC ist es möglich, aus Simulink heraus automatisch C-Code<br />

zu generieren, diesen in Code Composer Studio zu übersetzen, zu binden, den ausführbaren<br />

Code auf das Board herunterzuladen <strong>und</strong> schließlich auszuführen. Um Embedded IDE Link<br />

CC in einem Simulink-Modell zu benutzen, muss man in das gewünschte Modell ein Target<br />

Preferences Block einfügen. Solche Blöcke findet man im Simulink Library Browser in dem<br />

Menü Target Support Package TC6. Für das in diesem Versuch benutzte DSP Board ist hier<br />

der C6727PADK-Block zu benutzen. Wenn sich ein solcher Block in dem Simlink Modell<br />

befindet, wird Embedded IDE Link CC automatisch zur Code-Erzeugung genutzt.<br />

Um die Kette von automatisierten Arbeitsschritten (Simulink-Modell → C-Code →<br />

Object-Code → ausführbarer Code → Herunterladen auf das Board → Ausführen) zu<br />

ermöglichen, muss der PC mit dem DSP-Board über einen sogenannten JTAG-Emulator<br />

kommunizieren können. Das Wort JTAG steht <strong>für</strong> Joint Test Action Group. Es beschreibt<br />

Der JTAG-Emulator XDS510USB ist<br />

an dem JTAG Port des DSP’s auf dem<br />

Board auf der einen Seite <strong>und</strong> am PC via<br />

USB 2.0 auf der anderen Seite verb<strong>und</strong>en.<br />

einen Standard <strong>und</strong> ein häufig genutztes Verfahren zum Testen <strong>und</strong> zur Fehlersuche in<br />

einer Hardware. Zum Beispiel erlaubt es der JTAG-Emulator im laufenden Echtzeitbetrieb<br />

Registerwerte des DSP oder Programmvariablen auszulesen. Diese können dann mit ihren<br />

Sollwerten verglichen werden.<br />

4 <strong>Aufgabe</strong>n<br />

4.1 Vorbereitende <strong>Aufgabe</strong>n<br />

Quellenlokalisation in reflektionsarmer Umgebung<br />

0.1 Leiten Sie die Formel her, mit der aus dem Time Delay Of Arrival (TDOA), T,<br />

dem Mikrofonabstand d <strong>und</strong> der Schallgeschwindigkeit in Luft, c, der Einfallswinkel θ<br />

bestimmt werden kann (Direction Of Arrival, DOA), siehe Bild 2.<br />

IT-V3 - 15


0.2 Gehen Sie von einem zeitdiskreten System aus (Abtastfrequenz fA = 32 kHz), d.h.<br />

die Verzögerungszeiten T können nur ganzzahlige Vielfache des Abtastintervalls annehmen.<br />

Welche Winkel können lokalisiert werden (d = 0.24 m, c = 343 m/s)? In welchem<br />

Winkelbereich ist die Auflösung des linearen Arrays offensichtlich am höchsten?<br />

4.2 Messaufgaben<br />

Simulationen unter Simulink<br />

Im ersten <strong>Aufgabe</strong>nteil wird der Lokalisierungsalgorithmus unter Simulink untersucht. Die<br />

Mikrofonsignale werden <strong>für</strong> die Simulation künstlich generiert. Durch Aufruf der MATLAB-<br />

Funktion GenerateSignals() können zwei Mikrofonsignale generiert werden, die um die<br />

dem simulierten Einfallswinkel entsprechende Zeitspanne zueinander verzögert sind. Hilfe<br />

zu dieser Funktion erhalten Sie nach Aufruf von help GenerateSignals.<br />

1.1 Starten Sie Matlab <strong>und</strong> generieren Sie die zwei simulierten Mikrofonsignale <strong>für</strong> einen<br />

Einfallswinkel von 30 Grad. Führen Sie hierzu unter Matlab die folgenden Schritte<br />

durch:<br />

V3 % Script setzt einige Parameter<br />

[s fs] = wavread(’mann.wav’); % Signal von Platte lesen<br />

micPos.x = [0 0.24]; % [x,y]-Koordinaten Mikrofon 1 in m<br />

micPos.y = [0 0]; % [x,y]-Koordinaten Mikrofon 2 in m<br />

theta = 30; % simulierter Einfallswinkel in Grad<br />

y = GenerateSignals(s,micPos,theta,fs); % y: zweikanaliges Signal<br />

Erstellen Sie unter Matlab einen Graphen der beiden simulierten Mikrofonsignale<br />

(Matlab: figure, plot, grid). Lesen Sie an einem geeigneten Signalabschnitt den<br />

TDOA als Anzahl Abtastwerte ab. Welcher Zeit entspricht dies? Rechnen Sie mithilfe<br />

der Formel aus den vorbereitenden <strong>Aufgabe</strong>n den ermittelten TDOA in einen<br />

Winkel um. Erklären Sie, warum der berechnete Winkel nicht exakt den simulierten<br />

Einfallswinkel von θ = 30 Grad ergibt.<br />

1.2 Starten Sie nun Simulink <strong>und</strong> öffnen Sie das Modell des Lokalisierungsalgorithmus,<br />

VersuchV3_1.mdl. Schließen Sie an den Ausgang “TDOA (no interp.)” ein Anzeigenelement<br />

an, starten Sie die Simulation <strong>und</strong> überprüfen Sie, ob der Algorithmus den<br />

TDOA korrekt schätzt, der unter 1. (implizit) eingestellt wurde.<br />

Nach dem Starten der Simulation wird in zwei Fenstern der Betragsgang der Spektren<br />

beider Mikrofonsignale angezeigt. In einem weiteren Fenster wird der geschätzte<br />

Einfallswinkel mittels einer um den Winkel gekippten Geraden illustriert.<br />

1.3 Dem vorliegenden Simulink-Modell fehlt die Umrechnung vom geschätzten TDOA<br />

zum korrespondierenden Winkel (s. vorbereitende <strong>Aufgabe</strong>n). Realisieren Sie diesen<br />

Teil in Form von Simulink-Blöcken, die Sie an der gekennzeichneten Stelle im Modell<br />

einbauen. Überprüfen Sie anhand der Simulation, ob der Einfallswinkel von 30 Grad<br />

korrekt geschätzt wird.<br />

IT-V3 - 16


ohne Interpolation mit Interpolation<br />

simulierter Winkel, beobachteter TDOA, geschätzter Winkel, geschätzter Winkel,<br />

Grad Abtastwerte Grad Grad<br />

15<br />

20<br />

25<br />

30<br />

35<br />

40<br />

Tabelle 1: Tabelle zu den Messaufgaben 1.4 <strong>und</strong> 1.5.<br />

1.4 In der vorbereitenden <strong>Aufgabe</strong> 0.2 haben Sie die diskreten Winkel bestimmt, die von<br />

dem Algorithmus unter den gegebenen Parametern korrekt lokalisiert werden können.<br />

Überprüfen Sie Ihre Rechnung, indem Sie <strong>für</strong> jeden in der Tabelle 1 aufgeführten<br />

Winkel jeweils die Mikrofonsignale wie unter 1. generieren <strong>und</strong> anschließend den<br />

TDOA <strong>und</strong> den lokalisierten Winkel im Simulink-Modell ermitteln. Achten Sie darauf,<br />

dass das System eingeschwungen ist, wenn Sie die Werte ablesen. Tragen Sie die Simulationsergebnisse<br />

in die ersten beiden Spalten der Tabelle ein (“ohne Interpolation”).<br />

Um eine feinere Winkelauflösung realisieren zu können, muss offensichtlich die Quantelung<br />

der TDOA-Werte verringert werden. Dies ist bei gleichbleibender Geometrie des Arrays<br />

durch ein Erhöhen der Abtastrate möglich. Diese Maßnahme würde jedoch eine Änderung<br />

der Hardware erfordern (schnellere AD-Umsetzer). Stattdessen genügt es <strong>für</strong> eine verbesserte<br />

Winkelauflösung Zwischenwerte in der geschätzten Impulsantwort zu interpolieren. So kann<br />

der TDOA bezogen auf die ursprüngliche Abtastrate von fA = 32 kHz nicht nur ganzzahlige<br />

sondern auch gebrochen rationale Werte annehmen. Die zugehörigen vom Algorithmus<br />

ermittelten Einfallswinkel zeigen dann eine feinere Abstufung als ohne Interplolation. Dieses<br />

Verfahren ist im vorliegenden Simulink-Modell bereits implementiert: Die interpolierten<br />

TDOA-Werte stehen in der Simulation am Ausgang “TDOA (interp.)” zur Verfügung.<br />

1.5 Schalten Sie Ihren Block <strong>für</strong> die Berechnung des Einfallswinkels aus dem TDOA an den<br />

interpolierten TDOA-Ausgang. Generieren Sie erneut die Mikrofonsignale <strong>für</strong> die in<br />

Tabelle 1 angegebenen Einfallswinkel, führen Sie die Simulation aus <strong>und</strong> protokollieren<br />

Sie die nun mit Interpolation geschätzten Winkel (bei eingeschwungenem System) in<br />

Tabelle 1.<br />

1.6 Zeichnen Sie den absoluten Fehler der Winkelschätzung (in Grad) ohne, bzw. mit<br />

Interpolation der Impulsantwort. Vergleichen Sie die Ergebnisse, die Sie mit <strong>und</strong> ohne<br />

Interpolation erhalten haben.<br />

Erstellen <strong>und</strong> Test der Echtzeitanwendung<br />

Im zweiten <strong>Aufgabe</strong>nteil wird das Simulink-Modell der Lokalisierung in echtzeitfähigen Code<br />

umgewandelt, übersetzt <strong>und</strong> auf das Signalprozessor-Board heruntergeladen.<br />

IT-V3 - 17


2.1 Sehen Sie sich die beiden Mikrofonsignale auf dem Oszilloskop an. Stellen Sie den<br />

Mikrofonverstärker so ein, dass beide Signale die gleiche Verstärkung erfahren <strong>und</strong><br />

dabei bei normal lautem Besprechen Amplituden bis etwa 0.4 V erreichen. Schliessen<br />

Sie dann die beiden verstärkten Mikrofonsignale an die Anschlüsse 1 <strong>und</strong> 3 der “Analog<br />

Inputs” des DSP-Boards an.<br />

2.2 Laden Sie nun das Simulink-ModellVersuchV3_2.mdl, welches den TDOA ohne Interpolation<br />

schätzt. Ergänzen Sie das Modell wie zuvor in der Simulation unter Simulink<br />

um Ihre Umrechnung des TDOA in einen Winkel. Nehmen Sie die in Abschnitt<br />

3.2 beschriebenen Einstellungen vor. Durch Betätigen der Tastenkombination Strg-B<br />

wird dann der in Abschnitt 3 beschriebene Prozess ausgelöst, bei dem das Simulink-<br />

Modell in äquivalenten C-Code umgesetzt wird, dieser in Code Composer Studio<br />

übersetzt <strong>und</strong> geb<strong>und</strong>en wird <strong>und</strong> schließlich das ausführbare Programm auf das Board<br />

heruntergeladen <strong>und</strong> gestartet wird.<br />

Das Signalprozessor-Board verfügt über keine Anzeigemöglichkeit. Um dennoch in der Echtzeitumgebung<br />

die Information über den geschätzten Winkel zugänglich zu machen, wird vom<br />

Programm ein Sinus-Signal <strong>und</strong> ein Cosinus-Signal zur Verfügung gestellt, dessen Phasenlage<br />

der geschätzte Winkel θ ist. Sie stehen an den Anschlüssen 3 <strong>und</strong> 5 der “Analog Outputs” des<br />

DSP-Boards zu Verfügung. Werden diese beiden Signale an das Oszilloskop im xy-Betrieb<br />

gegeben, so zeigt sich auf dem Bildschirm eine um den Winkel θ gekippte Gerade, die somit<br />

wie zuvor in der Simulation auf anschauliche Art <strong>und</strong> Weise den geschätzten Einfallswinkel<br />

illustriert.<br />

2.3 Schließen Sie das Oszilloskop im xy-Betrieb an die beiden Ausgänge 5 <strong>und</strong> 7 des<br />

Signalprozessor-Boards an.<br />

Besprechen Sie das Mikrofonarray. Variieren Sie dabei den Einfallswinkel langsam von<br />

θ = 90 Grad bis 0 Grad. Zählen Sie die diskreten Winkelsprünge mit <strong>und</strong> vergleichen<br />

Sie das Ergebnis mit dem theoretischen Wert (vergleiche vorbereitende <strong>Aufgabe</strong> 0.2).<br />

2.4 Schließen Sie nun anstelle der nicht interpolierten die interpolierten TDOA-Werte<br />

an die Winkelberechnung an <strong>und</strong> testen Sie das Programm erneut. Sie sollten nun<br />

auf dem Oszilloskop eine Gerade beobachten können, die weitaus geringere Sprünge<br />

macht, wenn Sie das Array aus einem sich ändernden Winkel besprechen.<br />

IT-V3 - 18


Versuch IT-V4: Auditive virtuelle<br />

Umgebungen<br />

Inhaltsverzeichnis<br />

1 Eigenschaften einer auditiven virtuellen Umgebung 3<br />

1.1 Möglichkeiten zur Auralisierung . . . . . . . . . . . . . . . . . . . . . . . 6<br />

1.2 Authentische <strong>und</strong> plausible auditive virtuelle Umgebung . . . . . . . . . 7<br />

1.3 Berücksichtigung perzeptiver Parameter in vorhandenen Modellen . . . . 8<br />

1.4 Bedeutung früher Rückwürfe bei der Hörereignisbildung . . . . . . . . . . 9<br />

2 Künstlicher Nachhall 10<br />

2.1 Perzeptive Anforderungen an einen Hallgenerator . . . . . . . . . . . . . 10<br />

2.2 Perzeptiver Vergleich von Kamm- <strong>und</strong> Allpassfiltern . . . . . . . . . . . . 10<br />

2.3 Schroeders parallele Kammfilterstruktur . . . . . . . . . . . . . . . . . . 12<br />

2.4 Feedback Delay Networks (FDN) . . . . . . . . . . . . . . . . . . . . . . 12<br />

2.5 Statistische Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

3 Winkelkontinuierliche Bestimmung Kopfbezogener Impulsantworten 15<br />

3.1 Definition der kopfbezogenen Impulsantworten . . . . . . . . . . . . . . . 15<br />

3.2 Iterative Berechnung mit dem LMS Algorithmus . . . . . . . . . . . . . . 16<br />

4 Die Echtzeit Anwendung 18<br />

4.1 Simulink . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

4.1.1 Blockdiagramme . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

4.1.2 Real-Time Workshop . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

4.2 JACK Audio Connection Kit . . . . . . . . . . . . . . . . . . . . . . . . 19<br />

4.3 Von Simulink zum C-Code . . . . . . . . . . . . . . . . . . . . . . . . . . 19<br />

4.4 Vom C-Code zum echtzeitfähigen Programm . . . . . . . . . . . . . . . . 19<br />

5 Versuchsdurchführung 20<br />

5.1 Simulationsumgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />

5.2 Bestimmung der HRIRs . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />

5.3 Aufbau des Simulink-Modells <strong>für</strong> die HRIRs . . . . . . . . . . . . . . . . 21<br />

5.4 Festlegung der Simulationszeit . . . . . . . . . . . . . . . . . . . . . . . . 22<br />

5.5 Aufbau der Auditiven Virtuelle Umgebung . . . . . . . . . . . . . . . . . 24<br />

5.5.1 Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

5.6 Untersuchungen mit der Auditiven Virtuellen Umgebung . . . . . . . . . 24<br />

IT-V4 1


5.6.1 Bestimmung der HRIRs <strong>für</strong> den Direktschall . . . . . . . . . . . . 24<br />

5.6.2 Frühe Rückwürfe <strong>und</strong> später Nachhall . . . . . . . . . . . . . . . 26<br />

5.7 Echtzeit-Anwendung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28<br />

5.7.1 Graphische Benutzeroberfläche . . . . . . . . . . . . . . . . . . . . 31<br />

5.8 <strong>Aufgabe</strong>n: Echtzeit-Anwendung . . . . . . . . . . . . . . . . . . . . . . . 31<br />

IT-V4 2


1 Eigenschaften einer auditiven virtuellen Umgebung<br />

1 Die <strong>Aufgabe</strong> auditiver virtueller Umgebungen besteht darin, Schallereignisse zu erzeugen,<br />

die zu Hörereignissen führen, die vom Hörer zumindest als plausibel akzeptiert<br />

werden. Hierzu ist es erforderlich, ein Modell der Umgebung zu erstellen, in die der Hörer<br />

versetzt werden soll; dieses Modell enthält auch die Gesetzmäßigkeiten, die die Herstellung<br />

des Schallfeldes bestimmen (z. B. Nachbildung der Naturgesetze der Schallausbreitung in<br />

realen Umgebungen). Für die zur Synthese des Schallfeldes notwendigen Berechnungen<br />

sind hierbei gr<strong>und</strong>sätzlich zwei Verfahren denkbar: der wellentheoretische Ansatz <strong>und</strong><br />

die geometrische Akustik. Vorteil der geometrischen Akustik ist der erheblich geringere<br />

Rechenzeitbedarf. Beim gegenwärtigen Stand der Technik ist allein mit diesem Ansatz<br />

die Implementierung eines realzeitfähigen <strong>und</strong> somit interaktiven Systems möglich.<br />

Hierbei werden der Wellencharakter bei der Schallausbreitung vernachlässigt <strong>und</strong><br />

Reflexionen mit Hilfe virtueller Schallquellen nachgebildet. Die geometrischen Orte dieser<br />

virtuellen Schallquellen werden mit Hilfe des Spiegelschallquellen- oder eines Strahlverfolgungsverfahrens<br />

aus dem Ort der primären Schallquelle <strong>und</strong> der geometrischen Beschreibung<br />

der reflektierenden Flächen berechnet. Der Ort des Empfängers muss berücksichtigt<br />

werden, um zu entscheiden, ob ein gültiger geometrischer Schallweg zwischen Quelle <strong>und</strong><br />

Empfänger existiert, d. h. ob diese virtuelle Schallquelle einen Beitrag zur Schallfeldsynthese<br />

liefert.<br />

Das Signal der virtuellen Schallquelle ergibt sich dabei aus dem Originalsignal unter<br />

Berücksichtigung der Eigenschaften der Übertragungsstrecke, die diesen Schallweg<br />

beschreibt. Dabei müssen folgende Elemente berücksichtigt werden:<br />

• Abstrahleigenschaften der Quelle (z. B. Richtcharakteristik)<br />

•<br />

•<br />

Übertragungseigenschaften des Mediums (z. B. in Abhängigkeit von der Luftfeuchtigkeit)<br />

Übertragungseigenschaften der reflektierenden Flächen (in Abhängigkeit von Einfallswinkel<br />

<strong>und</strong> Frequenz, z. B. geometrische <strong>und</strong> diffuse Reflexionen)<br />

• Empfangseigenschaften des Empfängers (z. B. Außenohrübertragungsfunktionen)<br />

Zur Berechnung des Signals werden diese Elemente als kausale lineare zeitinvariante<br />

Systeme angenommen, die sich durch FIR-Filter beliebig gut approximieren lassen; die<br />

Übertragungsfunktionen dieser Teilsysteme werden entweder berechnet oder durch Messung<br />

bestimmt <strong>und</strong> in entsprechenden Datenbanken im Simulationssystem abgelegt. Die<br />

Auswahl der Filter erfolgt anhand der Parameter des gerade betrachteten Schallweges<br />

(z. B. Abstrahlrichtung, Länge des Schallweges, Reflexionswinkel, Einfallsrichtung). Der<br />

Übergang zum interaktiven Realzeitsystem erfolgt durch die Betrachtung diskreter Zeitabschnitte,<br />

<strong>für</strong> die das Gesamtsystem wiederum als linear <strong>und</strong> zeitinvariant angenommen<br />

wird. Der Übergang zwischen einzelnen Zeitabschnitte stellt eine eigene Problemstellung<br />

dar, <strong>für</strong> die unterschiedliche Lösungen vorgeschlagen wurden (z. B. Output crossfading<br />

oder Parameter Tracking; [2]).<br />

1 Der Abschnitt 1 ist [1] entnommen<br />

IT-V4 3


Die Synthese des Gesamtschallfeldes erfolgt durch Superposition der Signale sämtlicher<br />

aktiver virtueller Schallquellen. Abhängig von der Genauigkeit des geometrischen<br />

Modells des Raumes (soweit unter den Annahmen der geometrischen Akustik sinnvoll)<br />

sowie der Genauigkeit der Nachbildung der Übertragungseigenschaften der beteiligten<br />

Teilsysteme lässt sich das Schallfeld mit theoretisch beliebig hoher Exaktheit synthetisieren.<br />

Abbildung 1 zeigt im Überblick die Struktur eines Systems zur Erzeugung<br />

einer auditiven virtuellen Umgebung: Auf der statischen Ebene befinden sich Datenbanken<br />

(z. B. Außenohrübertragungsfunktionen) <strong>und</strong> während der Simulation gleich blei-<br />

bende Eingangsdaten (z. B. Zuordnung von<br />

Übertragungsfunktionen zu reflektierenden<br />

Flächen). Auf der dynamischen Ebene befinden sich die veränderlichen Eingangsdaten<br />

(Quelle- <strong>und</strong> Empfängerposition), aus denen unter Berücksichtigung des geometrischen<br />

Modells die räumliche Verteilung der virtuellen Schallquellen berechnet wird. Aus den<br />

Ergebnissen dieser Berechnung ergeben sich die Signalverarbeitungsparameter: Für jede<br />

virtuelle Schallquelle wird ein individueller Signalverarbeitungspfad, benötigt. Aus der<br />

Entfernung zwischen virtueller Schallquelle VSQi <strong>und</strong> Empfänger ergeben sich die Laufzeitverzögerung<br />

Ti, die Ausbreitungsdämpfung gi <strong>und</strong> die frequenzabhängige Dämpfung<br />

Mi des Mediums (ein Verfahren zur Berechnung solcher Übertragungsfunktionen des<br />

Mediums wird in [3] beschrieben). Der Abstrahlwinkel von VSQi bestimmt die jeweilige<br />

Abstrahlrichtcharakteristik Di. Die Liste der reflektierenden Wände <strong>für</strong> diesen Schallweg<br />

ergibt die Kettenschaltung Hi der entsprechenden Wandübertragungsfunktionen: Hierzu<br />

wird auf die im akustischen Modell getroffene Zuordnung von Übertragungsfunktionen<br />

zu reflektierenden Flächen zurückgegriffen. Anhand des Einfallwinkels kann die jeweilige<br />

Außenohrübertragungsfunktion HRTF(ϕi,δi) <strong>für</strong> die Ohrsignalsynthese ausgewählt<br />

werden.<br />

Unter der Bedingung einer möglichst hohen Übereinstimmung des synthetisierten<br />

Schallfeldes mit dem realen Schallfeld ist somit die Voraussetzung <strong>für</strong> perzeptiv äquivalente<br />

Hörereignisse gegeben. Hierbei bleibt jedoch unberücksichtigt, inwieweit die durch<br />

Ausbreitung <strong>und</strong> Reflexionen entstehenden Änderungen des Signals durch das menschliche<br />

Gehör ausgewertet bzw. wahrgenommen werden. Wie man in Abbildung 1 erkennt,<br />

benötigt jeder Schallweg in etwa gleich viel Signalverarbeitungsresourcen: Diese konventionelle<br />

Methode der Auralisation hat daher gr<strong>und</strong>sätzlich brute-force Charakter.<br />

Voraussetzung <strong>für</strong> eine effizienter implementierte auditive virtuelle Umgebung wäre<br />

jedoch die Kenntnis von Regeln oder Gesetzmäßigkeiten: Diese müssen die Zulässigkeit<br />

möglicher Vereinfachungen qualitativ oder deren Auswirkung auf die Attribute des Hörereignisses<br />

quantitativ beschreiben. Ausgangspunkt <strong>für</strong> die Implementierung einer auditiven<br />

virtuellen Umgebung ist dann die Einhaltung vorgegebener Qualitätskriterien. Diese<br />

können folglich mit weniger Signalverarbeitungsressourcen als bei der konventionellen<br />

Methode realisiert werden, bzw. mit den vorhandenen Ressourcen kann eine höhere Qualität<br />

erreicht werden. Gleichzeitig können diese Regeln aber auch zur aktiven Gestaltung<br />

auditiver virtueller Umgebungen eingesetzt werden, bei denen das Ziel nicht Authentizität,<br />

sondern Plausibilität (s. Abschnitt 1.2) ist (z. B. innerhalb einer Mensch-Maschine-<br />

Schnittstelle): Bestimmte Attribute des Hörereignisses (z. B. Ausdehnung) können dann<br />

gezielt beeinflusst werden.<br />

Diese Regeln lassen sich nur mit Hilfe psychoakustischer Untersuchungen bestimmen.<br />

Als einfache Methode bieten sich hierzu z. B. AB-Vergleiche an, wobei die Referenzstimuli<br />

mit Hilfe der konventionellen Methode erzeugt werden <strong>und</strong> die Versuchspersonen Gleich-<br />

IT-V4 4


Bild 1: System zur Erzeugung einer auditiven virtuellen Umgebung [1]<br />

IT-V4 5


oder Ungleichheit bestimmter Attribute der Hörereignisse beurteilen müssen. Eine andere<br />

Möglichkeit bieten Herstellungsmethoden, bei der die Versuchsperson aufgefordert wird,<br />

Parameter der virtuellen Umgebung so zu verändern, dass sich ein bestimmtes Hörereignis<br />

(bzw. -attribut) einstellt (z. B. Entfernungseindruck).<br />

Es ist offensichtlich, dass die so gewonnenen Ergebnisse nicht nur zur Optimierung<br />

auditiver virtueller Umgebungen eingesetzt werden können, sondern auch Schlussfolgerungen<br />

über Phänomene des Hörens ermöglichen (z. B. Präzedenzeffekt, s. Abschnitt 1.4). Es<br />

ergeben sich somit drei Anwendungsgebiete <strong>für</strong> die Ergebnisse solcher psychoakustischen<br />

Untersuchungen:<br />

• optimierte Nutzung von Signalverarbeitungsressourcen<br />

• neue Gestaltungsmöglichkeiten <strong>für</strong> plausible auditive virtuelle Umgebungen<br />

• Erweiterung von Modellen des räumlichen Hörens in reflexionsbehafteter Umgebung<br />

Beim Entwurf eines Auditory Displays sind natürlich die Möglichkeiten zur optimalen<br />

Nutzung der Signalverarbeitungsressourcen sowie zur Gestaltung des Hörereignisses von<br />

vorrangigem Interesse.<br />

1.1 Möglichkeiten zur Auralisierung<br />

Neben den Schallfeldmodellen sind auch die unterschiedlichen Möglichkeiten zur Auralisierung<br />

von gr<strong>und</strong>legender Bedeutung. Ziel der Auralisierung ist die Anregung des Gehörs<br />

entsprechend dem gewählten Schallfeldmodell. Letztendlich muss also ein kontrollierter<br />

Schalldruckverlauf am Trommelfell des Hörers hergestellt werden. Dieses Ziel kann sowohl<br />

mit Kopfhörer- (Ohrsignalsynthese) als auch Lautsprecherbeschallung (Schallfeldsynthese)<br />

erreicht werden.<br />

Zur Kopfhörerbeschallung wird das Signal jeder virtuellen Quelle mit einem Paar<br />

kopfbezogener Impulsantworten gefaltet, die das<br />

Übertragungsverhalten der Außenoh-<br />

ren nachbilden (HRIR: head-related impulse response bzw. HRTF: head-related transfer<br />

function; [4]). Für jede gewünschte Schalleinfallsrichtung wird eine eigene Außenohrübertragungsfunktion<br />

sowohl <strong>für</strong> das linke als auch das rechte Ohr benötigt. Außenohrübertragungsfunktionen<br />

können entweder gemessen [5] oder modelliert werden [6, 7]. Um (sowohl<br />

unwillkürliche als auch willkürliche) Kopfbewegungen des Hörers zu berücksichtigen, ist<br />

es erforderlich, bei der Auralisierung die Position <strong>und</strong> Ausrichtung des Kopfes fortlaufend<br />

zu messen <strong>und</strong> in die Schallfeldberechnung miteinzubeziehen. Hierdurch wird das<br />

Lokalisationsvermögen des Hörers in der virtuellen Umgebung verbessert [8].<br />

Zur Lautsprecherbeschallung sind unterschiedliche Verfahren entwickelt worden. Schroeder<br />

<strong>und</strong> Atal [9] entwickelten ein transaurales System, das mit zwei Lautsprechern<br />

realisiert wird. [10] beschreibt das Ambisonics-Verfahren, das <strong>für</strong> unterschiedliche Lautsprecherkonfigurationen<br />

geeignet ist. Gleiches gilt <strong>für</strong> das Vector Base Amplitude Panning<br />

(VBAP) Verfahren von Pulkki [11]. Die Wave Field Synthesis von Berkhout u.<br />

a. [12] benötigt eine Vielzahl von Lautsprechern zur Realisierung. Ein gr<strong>und</strong>sätzliches<br />

Problem bei Lautsprecherverfahren ist die Abhängigkeit der Qualität der Darbietung<br />

(z. B. Genauigkeit der Lokalisation von Schallquellen) vom Hörerort. Ein Vergleich der<br />

Lokalisationsgenauigkeit bei Verwendung des Ambisonics- sowie des VBAP-Verfahrens<br />

wurde von Strauss <strong>und</strong> Buchholz [13] vorgenommen.<br />

IT-V4 6


1.2 Authentische <strong>und</strong> plausible auditive virtuelle Umgebung<br />

Die Unterscheidung zwischen authentischer <strong>und</strong> plausibler auditiver virtueller Umgebung<br />

ergibt sich aus den unterschiedlichen Zielsetzungen (auch wenn beide mit demselben<br />

Simulationsverfahren erzeugt werden können). Vereinfacht kann die authentische auditive<br />

virtuelle Umgebung auch als Spezialfall der plausiblen auditiven virtuellen Umgebung<br />

betrachtet werden.<br />

Das Ziel einer authentischen auditiven virtuellen Umgebung ist, Schallereignisse zu<br />

erzeugen, die zu Hörereignissen führen, die denen einer spezifischen, als Computermodell<br />

nachgebildeten realen Umgebung äquivalent sind. Hierbei kann es sich um eine bestehende<br />

bekannte oder um eine geplante reale Umgebung handeln. Entscheidend ist, dass ein<br />

möglichst hohes Maß an Übereinstimmung zwischen den jeweiligen Hörereignissen erreicht<br />

wird. Dies hängt natürlich nicht nur von dem Simulationsverfahren als solches ab (z. B.<br />

Berücksichtigung diffuser Reflexionen), sondern auch von der Qualität der Daten, die<br />

als Eingangsparameter dienen (z. B. Detailtreue des geometrischen Modells, Modellierung<br />

der Wandmaterialien) <strong>und</strong> die durch physikalische Messungen gewonnen werden.<br />

Ein typisches Einsatzgebiet <strong>für</strong> eine authentische auditive virtuelle Umgebung ist die<br />

raumakustische Planung; die auditive virtuelle Umgebung dient hierbei als Werkzeug zur<br />

Auralisation <strong>und</strong> zur Berechnung gewünschter Kennzahlen (z. B. Nachhallzeit).<br />

Das Ziel einer plausiblen auditiven virtuellen Umgebung ist es, Schallereignisse zu<br />

erzeugen, die zu Hörereignissen führen, von denen der Hörer annimmt, dass sie in einer<br />

ihm bekannten oder unbekannten realen Umgebung entstehen könnten, d.h. sie werden<br />

von ihm nicht als Artefakte empf<strong>und</strong>en. Aus der Art der Anwendung können sich weitere<br />

Rahmenbedingungen ergeben: Typische Einsatzgebiete <strong>für</strong> plausible auditive virtuelle<br />

Umgebungen sind Mensch-Maschine-Schnittstellen <strong>und</strong> Telekommunikationssysteme; die<br />

auditive virtuelle Umgebung dient hier zur Auralisation der Kommunikationskanäle in einer<br />

räumlichen Anordnung, um bei der Kommunikation von den Vorteilen des räumlichen<br />

Hörens zu profitieren (z. B. Cocktail-Party-Effekt).<br />

Prinzipiell besteht selbstverständlich die Möglichkeit, einen realen Raum (von dem<br />

bekannt ist, dass er <strong>für</strong> eine spezifische Anwendung gut geeignet ist, z. B. Besprechungszimmer<br />

<strong>für</strong> Teleconferencing) durch eine authentische auditive virtuelle Umgebung zu<br />

simulieren <strong>und</strong> damit ein System zu realisieren, dessen Anforderungen sich auch mit<br />

einer plausiblen auditiven virtuellen Umgebung erfüllen lassen. Davon abgesehen, dass<br />

dieser Ansatz i. a. zu einem überdimensionierten System führen wird, beraubt man sich<br />

damit auch der zusätzlichen Gestaltungsmöglichkeiten, die die virtuelle Umgebung bietet.<br />

Dies betrifft zum Einen die Anordnung der virtuellen Schallquellen (z. B. räumliche<br />

Verteilungen, die sich nicht mittels des Spiegelschallquellenverfahrens aus einer realen<br />

Raumgeometrie konstruieren lassen), zum anderen die Modellierung der durch eine virtuelle<br />

Schallquelle repräsentierten Filterwirkung (im authentischen System enthält dieser<br />

Filter die<br />

Übertragungsfunktionen der Teilsysteme, die an diesem Schallweg beteiligt<br />

sind). Hier sind ebenfalls Eigenschaften denkbar, die sich durch reale akustische Systeme<br />

nicht verwirklichen lassen, aber z. B. <strong>für</strong> ein Kommunikationssystem von Vorteil sein<br />

könnten.<br />

IT-V4 7


1.3 Berücksichtigung perzeptiver Parameter in vorhandenen Modellen<br />

Vorhandene Raumsimulationssysteme verstehen sich i. a. als authentische auditive virtuelle<br />

Umgebung. In der Praxis ist jedoch ein fließender Übergang zwischen plausibler <strong>und</strong><br />

authentischer auditiver virtueller Umgebung zu beobachten. Raumsimulationssysteme<br />

erheben zwar den Anspruch, die physikalische Realität möglichst genau nachzubilden:<br />

Dennoch gibt es auch aus diesem Bereich einige perzeptiv motivierte Ansätze zu Vereinfachungen<br />

bei der Schallfeldberechnung, um die immensen Rechenzeiten zu reduzieren.<br />

• Die Auswirkungen von Vereinfachungen der akustischen Eigenschaften der reflektierenden<br />

Flächen sowie geometrischer Vereinfachungen wurden von Pompetzki [14]<br />

untersucht. Aufgr<strong>und</strong> systematischer Fehler des verwendeten Strahlverfolgungsverfahrens<br />

werden nicht alle Rückwürfe detektiert: Pompetzki beschreibt ein statistisches<br />

Verfahren zur Energiekorrektur von Rückwürfen im späten Nachhallbereich,<br />

um diese Fehler auditiv zu kompensieren.<br />

• Lehnert <strong>und</strong> Richter [15] untersuchten die Zulässigkeit der Verwendung von Außenohrübertragungsfunktionen<br />

mit einer verringerten Anzahl von Filterkoeffizienten.<br />

Kriterium <strong>für</strong> die Zulässigkeit war die Ununterscheidbarkeit von Stimuli im<br />

A-B-Vergleich: Zur Herstellung der Stimuli wurden Rückwürfe mit unterschiedlich<br />

langen Außenohrimpulsantworten auralisiert.<br />

• Sahrhage <strong>und</strong> Hunold [16] implementierten ein psychoakustisch motiviertes Modell<br />

zur Eliminierung nicht wahrnehmbarer Rückwürfe. Die Auswahl von Rückwürfen<br />

<strong>für</strong> die Auralisierung stützt sich auf psychoakustische Untersuchungen zur Wahnehmbarkeit<br />

von Rückwürfen. Sahrhage <strong>und</strong> Hunold implementieren einen Algorithmus,<br />

der auf Gr<strong>und</strong>lage dieser Daten entscheidet, ob ein Rückwurf durch den Direktschall<br />

oder einen anderen Rückwurf maskiert wird: In diesem Fall wird der Rückwurf nicht<br />

auralisiert. Die dadurch freiwerdenden Signalverarbeitungsressourcen werden <strong>für</strong> die<br />

Auralisierung von Rückwürfen höherer Ordnung genutzt.<br />

• Heinz [17] beschreibt ein hybrides Raumsimulationssystem, bei dem mittlerer <strong>und</strong><br />

später Nachhallbereich durch statistische Verfahren berechnet werden, während<br />

Direktschall <strong>und</strong> frühe Rückwürfe durch geometrische <strong>und</strong> diffuse Reflexionen modelliert<br />

werden. Die unterschiedliche Behandlung wird durch die unterschiedliche<br />

Auswertung dieser Bereiche im menschlichen Gehör motiviert <strong>und</strong> gerechtfertigt.<br />

Aufgr<strong>und</strong> der Zielsetzung der authentischen auditiven virtuellen Umgebung wurde zumeist<br />

jedoch nur die Übereinstimmung bzw. Identität der Hörereignisse der Auralisation<br />

mit <strong>und</strong> ohne Anwendung der oben beschriebenen Vereinfachungen untersucht. Von den<br />

zuvor beschriebenen drei Fragestellungen einer solchen psychoakustischen Untersuchung<br />

ist somit allenfalls eine beantwortet, nämlich die der (Rechenzeit-) Optimierung einer<br />

authentischen auditiven virtuellen Umgebung. Eine weitergehende Klassifizierung der<br />

beobachteten Unterschiede in den Hörereignissen, aus der sich Gestaltungsregeln <strong>für</strong><br />

plausible auditive virtuelle Umgebungen ableiten ließen oder eine Interpretation dieser<br />

Unterschiede in Hinblick auf das binaurale Hören in reflexionsbehafteter Umgebung steht<br />

noch aus.<br />

IT-V4 8


1.4 Bedeutung früher Rückwürfe bei der Hörereignisbildung<br />

Die Wahrnehmung mehrerer korrelierter Schallereignisse führt häufig nur zu einem Hörereignis:<br />

Die beiden wichtigsten Ursachen <strong>für</strong> dieses Phänomen sind die Summenlokalisation<br />

<strong>und</strong> der Präzedenzeffekt. Die Summenlokalisation ist u. a. Gr<strong>und</strong>lage stereofonischer<br />

Systeme; die Bedingungen, unter denen Summenlokalisation zustande kommt, werden<br />

von Blauert [4] beschrieben. Der Präzedenzeffekt ist insbesondere beim Hören in reflexionsbehafteter<br />

Umgebung von Bedeutung. Hierbei führt die Überlagerung von Direktschall<br />

<strong>und</strong> Rückwürfen zu einem Hörereignis, dessen Ort von der Position der Quelle des<br />

Direktschalls bestimmt wird 2 . Ein ausführlicher Überblick über zahlreiche gr<strong>und</strong>legende<br />

Untersuchungen zum Präzedenzeffekt wird von Blauert [4] gegeben. Für die Gestaltung eines<br />

Auditory Display ist es wichtig, dass beim Präzedenzeffekt die Rückwürfe nicht einfach<br />

unterdrückt werden: Stattdessen ist es so, dass bestimmte Merkmale des Hörereignisses<br />

(z. B. Entfernung <strong>und</strong> Ausdehnung) durch die Rückwürfe entscheidend mitbestimmt<br />

werden. Diese Merkmale können aber als Informationsträger genutzt werden (z. B. kann<br />

der Hörereignisort eines Warnsignals genutzt werden, um den Ort der Gefahrenquelle zu<br />

konnotieren). Auf die Auralisierung von Rückwürfen kann also nicht verzichtet werden.<br />

Hartmann [18] beschreibt Lokalisationsexperimente in einem realen Raum, bei dem<br />

sowohl die Raumgeometrie als auch die akustischen Eigenschaften der Wände verändert<br />

wurden; zusätzlich wurden diese Experimente mit unterschiedlichen Arten von Stimuli<br />

durchgeführt. Hartmann beobachtete eine Beeinflussung der Lokalisation durch die<br />

zeitliche Reihenfolge früher Rückwürfe, die er durch<br />

Änderungen der Raumgeometrie<br />

beeinflusste. Er beschreibt außerdem eine größere Unbestimmtheit der Lokalisation bei<br />

frühen seitlichen Rückwürfen, was im Prinzip mit dem bereits erwähnten Begriff der<br />

Räumlichkeit aus der Konzertsaalakustik übereinstimmt.<br />

Dieser Einfluss der frühen seitlichen Rückwürfe wird von Blauert <strong>und</strong> Lindemann<br />

[19] bestätigt, die ihre Versuche mit realen Quellen in einem reflexionsarmen Raum<br />

durchführten. Der Direktschall wurde über einen frontalen Lautsprecher wiedergegeben.<br />

Die Rückwürfe wurden mit seitlich aufgestellten Lautsprechern simuliert, über die das<br />

Signal zeitverzögert <strong>und</strong> z. T. spektral modifiziert wiedergegeben wurde; als Tonmaterial<br />

diente reflexionsarm aufgenommene Orchestermusik. Diese Darbietungen wurden mit<br />

einem Kunstkopf binaural aufgezeichnet <strong>und</strong> den Versuchspersonen im Paarvergleich<br />

dargeboten.<br />

Guski [20] führte Lokalisationsexperimente ebenfalls in einem reflexionsarmen Raum<br />

durch, in den zusätzlich eine reflektierende Fläche eingebracht wurde. Die Position dieser<br />

Fläche wurde zwischen den einzelnen Versuchsdurchläufen verändert. Hierdurch wurde<br />

entweder eine seitliche, eine Boden-, oder eine Deckenreflexion erzeugt. Als Schlussfolgerung<br />

aus den Ergebnissen schreibt Guski der Bodenreflexion eine besondere Bedeutung<br />

zu: Bei dieser Anordnung wurde die Elevation der Schallquelle von den Versuchspersonen<br />

präziser geschätzt.<br />

2 Der Präzedenzeffekt wird deswegen häufig auch als ,,Gesetz der ersten Wellenfront” bezeichnet.<br />

IT-V4 9


2 Künstlicher Nachhall<br />

3 Die ersten analogen Geräte zur Erzeugung künstlichen Nachhalls nutzten mechanische<br />

Prinzipien <strong>und</strong> bestanden aus Federn oder Hallplatten. Heute verwendet man digitale<br />

Geräte, die digitalisierte Audiosignale in Echtzeit verarbeiten. Seit der Pionierarbeit von<br />

Schroeder in den 60’er Jahren wurde in der Literatur eine Vielzahl von Algorithmen vorgeschlagen,<br />

die auf rekursiven digitalen Verzögerungsnetzwerken beruhen, [21] - [25]. Selbst<br />

mit einer großen Anzahl von Filterabgriffen oder gar mit variablen Verzögerungslängen<br />

ist es bei diesen Algorithmen schwierig, unnatürliche Resonanzen zu verhindern, die einen<br />

charakteristischen Klang verursachen, der gemeinhin als “metallisch” bezeichnet wird.<br />

2.1 Perzeptive Anforderungen an einen Hallgenerator<br />

Unter der Annahme, dass alle relevanten physikalischen Phänomene linear sind, läßt sich<br />

der gesamte Verhallungsprozeß durch eine binaurale Impulsantwort angeben. Eine Raumsimulation<br />

durch Faltung eines Eingangssignals mit einer gemessenen oder berechneten<br />

Impulsantwort erfordert jedoch viel Rechenleistung 4 . Auch wenn eine extrem genaue<br />

Simulation <strong>für</strong> einige Anwendungen wie z. B. Echounterdrückung erforderlich ist, ist eine<br />

solche Genauigkeit <strong>für</strong> einen überzeugenden künstlichen Nachhalleffekt nicht notwendig.<br />

Für die Erzeugung künstlichen Nachhals genügt, dass er perzeptiv nicht unterscheidbar<br />

ist von natürlichem Nachhall.<br />

Beginnend mit Sabines Formel zur Nachhallzeit wurde eine ganze Reihe von psychoakustischen<br />

Untersuchungen durchgeführt, um Kriterien zur Beschreibung der akustischen<br />

Qualität von Räumen zu finden. Seit der Arbeit von Barron ist es üblich, zwei<br />

Teile des Verhallungsprozesses zu unterscheiden: Die frühen Reflektionen (näherungsweise<br />

die ersten 80ms der Impulsantwort) <strong>und</strong> der späte Nachhall (der verbleibende Teil der<br />

Impulsantwort) [26]. Die frühe Impulsantwort besteht aus diskreten Rückwürfen, deren<br />

Zeit- <strong>und</strong> Amplitudenverteilung stark von der Form des Raumes <strong>und</strong> der Position der<br />

Quelle <strong>und</strong> des Empfängers abhängt. Diese Rückwürfe sind von zentraler Bedeutung <strong>für</strong><br />

den subjektiven räumlichen Eindruck. Im Gegensatz dazu eignet sich der späte Nachhall<br />

<strong>für</strong> eine eher statistische Beschreibung. Er kann als Charakteristik der Außenwände<br />

betrachtet werden <strong>und</strong> ist unabhängig von der Position der Quelle <strong>und</strong> des Empfängers.<br />

Diese Beobachtungen rechtfertigen ein Konstruktionsverfahren, das sich hauptsächlich<br />

auf den Entwurf eines “Hallfilters” zur Simulation späten monauralen Nachhhalls konzentriert.<br />

2.2 Perzeptiver Vergleich von Kamm- <strong>und</strong> Allpassfiltern<br />

Kamm- <strong>und</strong> Allpassfilter sind IIR Filter mit einem Verzögerungselement, die sich nur<br />

durch den zusätzlichen Direktpfad beim Allpassfilter unterscheiden, wie in Abbildung 2<br />

dargestellt [21, 22]. Schroeder fand heraus, dass mit einer einfachen Modifikation der<br />

Amplitude des ersten Impulses der Impulsantwort ein Allpassfilters <strong>und</strong> somit ein Filter<br />

mit konstantem Amplitudengang erzielt werden kann [21]. Für ein stationäres Eingangssignal<br />

reduziert das Allpassfilter die starke Klangfarbenänderung, die von den Kammfiltern<br />

3 Der Abschnitt 2 ist [27] <strong>und</strong> [28] entnommen<br />

4 Auf einem modernen PC ist die benötigte Rechenleistung vernachlässigbar klein<br />

IT-V4 10


verursacht werden. Die Antwort des Filters auf Eingangssignale mit kurzen Transienten<br />

offenbart aber zwei Schwächen des Filters:<br />

a) Die “Rückwurfdichte” der zeitlichen Impulsantwort ist nicht hoch genug (verursacht<br />

“Flatterechos”)<br />

b) Die Klangfärbung des Kammfilters wird nicht beseitigt.<br />

Hört man sich direkt die Impulsantwort an, wird dies recht deutlich. Der Effekt hängt<br />

stark von dem Rückkopplungsfaktor g ab. Dabei ist zu beachten, dass die Impulsantwort<br />

des Allpassfilters auf einen einzigen Impuls reduziert wird (die Amplitude des ersten<br />

Impulses wird (−g), die Amplitude des zweiten wird (1 − g 2 ), siehe Abbildung 2(b)),<br />

wenn g sich dem Wert 1 annähert (Stabilitätsgrenze). In diesem Fall hat das Allpassfilter<br />

gar keinen Einfluss auf das Eingangssignal! Für kleinere Werte <strong>für</strong> g ist die Klangfarbe<br />

des Kammfilters im letzten Teil der Impulsantwort des Allpassfilters hörbar. Für |g| = 1 √ 2<br />

ist kaum ein Unterschied zwischen den Impulsantworten beider Filtern zu hören. Dieses<br />

Ergebnis ist nicht weiter verw<strong>und</strong>erlich, da die Impulsantworten bis auf den ersten Impuls<br />

identisch sind (siehe Abbildung 2). Diese Beobachtungen verdeutlichen den Einfluss des<br />

Eingangssignals auf Hörversuche <strong>und</strong> weisen darauf hin, dass allein schon die Impulsantwort<br />

nützliche Informationen zur Beurteilung der Qualität von Hallgeneratoren liefert.<br />

Ein Vergleichstest kann mit Hilfe einer Kurzzeitfouriertransformation (Sonogram) <strong>und</strong><br />

den Impulsantworten durchgeführt werden, wie in [25] vorgeschlagen.<br />

x( t)<br />

y(t)<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.2<br />

−0.4<br />

−0.6<br />

+<br />

z -m g<br />

(a) Kammfilter<br />

−0.8<br />

0 5 10 15<br />

t / mT<br />

(c) Impulsantwort des Kammfilters<br />

y( t)<br />

x( t)<br />

y(t)<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.2<br />

−0.4<br />

−0.6<br />

g<br />

z -m<br />

+ +<br />

(b) Allpassfilter<br />

-g<br />

−0.8<br />

0 5 10 15<br />

t / mT<br />

(d) Impulsantwort des Allpassfilters<br />

Bild 2: Vergleich von Kamm- <strong>und</strong> Allpassfilter <strong>für</strong> g = −1<br />

√ 2<br />

IT-V4 11<br />

y( t)


x( t)<br />

g 1<br />

z -m1<br />

z -m1 z -m2 z -m3 + + +<br />

+ +<br />

+<br />

-g 1<br />

g 2<br />

-g 2<br />

Bild 3: Serienschaltung von Allpassfiltern<br />

2.3 Schroeders parallele Kammfilterstruktur<br />

Um die “Rückwurfdichte” (Anzahl der Rückwürfe pro Sek<strong>und</strong>e in der Impulsantwort)<br />

unter Vermeidung von Klangfarbenänderungen zu verbessern, schlug Schroeder im Wesentlichen<br />

eine Kombinationen der beiden o. g. Filterkomponenten vor: Eine Serienschaltung<br />

von Allpassfiltern (Abbildung 3) <strong>und</strong> eine Parallelschaltung von Kammfiltern<br />

(Abbildung 4). Eine Serie von Allpassfiltern ergibt ein neues Allpassfilter mit konstantem<br />

Amplitudengang. Es erzeugt auch einen Anstieg der Rückwurfdichte ähnlich dem, der<br />

in einem echten Raum auftritt. Die unnatürlichen Klangverfärbungen bei kurzen Transienten<br />

sind dabei aber leider immer noch vorhanden, wie von Moorer berichtet [22]. Mit<br />

den parallelen Kammfiltern kann ein konstanter Amplitudengang nicht erreicht werden.<br />

Wenn der Frequenzgang auf Gr<strong>und</strong> von vielen Überlagerungen von Kammfilterresonanzen<br />

eine genügend große Anzahl an Resonanzüberhöhungen pro Hz aufweist, ähnelt er mehr<br />

dem eines echten Raums. Interessanterweise verschwinden die Klangverfärbungen der<br />

einzelnen Kammfilter sogar <strong>für</strong> impulsartige Eingangssignale, wenn die resultierenden<br />

Nachhallzeiten der einzelnen Filter gleich gewählt werden.<br />

x( t)<br />

+<br />

z -m 1<br />

g 1<br />

z<br />

g2 -m2 + +<br />

+<br />

z -m 3<br />

Bild 4: Parallelschaltung von Kammfiltern<br />

2.4 Feedback Delay Networks (FDN)<br />

Ein Netzwerk mit N Verzögerungselementen der Länge τi = miT <strong>und</strong> einem Ein- <strong>und</strong><br />

Ausgang läßt sich ganz allgemein als Linearkombination von verzögerten Rückkopplungs-<br />

g 3<br />

IT-V4 12<br />

+<br />

g 3<br />

y( t)<br />

-g 3<br />

y( t)


x( t)<br />

b 1<br />

b 2<br />

b 3<br />

+<br />

+<br />

+<br />

z -m 1<br />

z -m 2<br />

- 3<br />

z m<br />

q1( t)<br />

q2( t)<br />

q3( t)<br />

a 11<br />

a 13<br />

a 21<br />

a 31<br />

a 12 a 22 a 32<br />

a 23<br />

a 33<br />

Bild 5: Feedback Delay Network<br />

signalen qi(t) <strong>und</strong> dem Eingangssignal x(t) angeben:<br />

y(t) =<br />

c 1<br />

c 2<br />

c 3<br />

d<br />

+<br />

+<br />

+<br />

y( t)<br />

N<br />

ciqi(t) + dx(t) (1)<br />

i=1<br />

qi(t + mj) = aijqi(t) + bjx(t) (2)<br />

Das resultierende Netzwerk ist in Abbildung 5 dargestellt. Die Rückkopplungsmatrix<br />

A enthält dabei die Rückkopplungsfaktoren aij von Verzögerungselement i zu Verzögerungselement<br />

j. Diese von Stautner <strong>und</strong> Puckette vorgeschlagenen feedback delay networks<br />

(FDN) können, wie in Abbildung 6 dargestellt, durch Tiefpaßfilter erweitert werden, um<br />

frequenzabhängige Nachhallzeiten realisieren zu können [23].<br />

x( t)<br />

b 1<br />

b 2<br />

b 3<br />

+<br />

z -m 1<br />

a 11<br />

a 13<br />

a 21<br />

a 31<br />

a 12 a 22 a 32<br />

z -m2 + c2 +<br />

+<br />

z -m 3<br />

h1( z)<br />

h2( z)<br />

a 23<br />

a 33<br />

z c3 + t( z)<br />

h 3( )<br />

Bild 6: Modifiziertes Feedback Delay Network<br />

IT-V4 13<br />

c 1<br />

d<br />

+<br />

y( t)


2.5 Statistische Modelle<br />

Moorer bemerkte, dass es eine gewisse Ähnlichkeit zwischen der Raumimpulsantwort<br />

eines Konzertsaales <strong>und</strong> weißem Rauschen multipliziert mit einer exponentiell abklingenden<br />

Einhüllenden gibt <strong>und</strong> dass die Faltung eines trockenen Audiosignal mit dieser<br />

synthetischen Impulsantwort einen natürlich klingenden Halleffekt bewirkt [22]. Nach<br />

Polack kann die synthetische Raumimpulsantwort als Realisierung eines nicht stationären<br />

stochastischen Prozesses betrachtet werden:<br />

h(t) = b(t)e −δt<br />

for t ≥ 0 (3)<br />

b(t) sei hier mittelwertfreies, stationäres, Gaußsches Rauschen <strong>und</strong> δ die Konstante zur<br />

Einstellung der Nachhallzeit. Um eine frequenzabhängige Nachhallzeit zu erhalten, schlug<br />

Moorer vor, eine Filterbank zu verwenden <strong>und</strong> die Ausgänge zu addieren, nachdem sie<br />

mit exponentiell abklingenden Einhüllenden multipliziert wurden (Abbildung 7).<br />

H(f)<br />

125 250 500 1k 2k 4k<br />

e d1t<br />

b( t)<br />

stationäres weißes Rauschen<br />

e d2t<br />

Filterbank<br />

e d3t<br />

e d4t<br />

h( t)<br />

synthetische Impulsantwort<br />

e d5t<br />

x x x x x x<br />

n<br />

e d6t<br />

d i =<br />

d( t)<br />

Direktschall<br />

Bild 7: Synthese einer Raumimpulsantwort nach Moorer<br />

IT-V4 14<br />

f<br />

-3 ln10<br />

Tr i


3 Winkelkontinuierliche Bestimmung Kopfbezogener<br />

Impulsantworten<br />

3.1 Definition der kopfbezogenen Impulsantworten<br />

Kopfbezogene Impulsantworten (engl. head related impulse responses: HRIRs) sind das<br />

entscheidende Werkzeug zur Erzeugung virtueller akustischer Realitäten <strong>für</strong> kopfhörerbasierte<br />

Auralisierung. HRIRs beschreiben das richtungsabhängige Übertragungsverhalten<br />

des Schalls von einer Schallquelle im Raum zu einem Bezugspunkt im linken/rechten Außenohr.<br />

Da sich der Schall im Gehörgang unabhängig von der Einfallsrichtung ausbreiten,<br />

wird als Bezugspunkt oft Ohreneingang gewählt. Der Versuch einer präziseren Definition<br />

dieses Bezugspunktes ist noch immer Gr<strong>und</strong>lage aktueller Forschung.<br />

Die Defintion der HRIRs begrenzt sich eindeutig auf die Beschreibung der akustischen<br />

Empfängereigenschaften (im wesentlichen Außenohr, Kopf <strong>und</strong> Oberkörper des<br />

Hörers) <strong>und</strong> soll keinerlei Charakteristik der akustischen Umgebung (also eines Raumes)<br />

aufweisen. HRIRs sind also unter sogenannten Freifeldbedingungen definiert. Praktisch<br />

werden Freifeldbedingungen näherungsweise in speziell ausgekleideten, reflexionsarmen<br />

akustischen Meßräumen erreicht.<br />

Abbildung 8 verdeutlicht schematisch die Anordnung von akustischer Signalquelle<br />

(Lautsprecher) <strong>und</strong> Empfänger (Kopf). Die Signalquelle ist dabei durch das elektrische<br />

Signal x(k) zum Abtastzeitpunkt k beschrieben, während die resultierenden Größen am<br />

Ort des Empfängers durch die beiden elektrischen Signale y1(k) <strong>und</strong> y2(k) gegeben sind.<br />

Diese elektrischen Größen am Empfänger können über geeignete Meßmikrofone erzeugt<br />

werden. Ein experimenteller Aufbau dieser Art kann zur Bestimmung der HRIRs genutzt<br />

werden.<br />

x(k)<br />

ϕk<br />

y1(k)<br />

y2(k)<br />

play and<br />

record<br />

Bild 8: Zur Definition <strong>und</strong> Messung kopfbezogener Impulsantworten.<br />

Zu den bereits erwähnten Empfängereigenschaften zählen vor allen Dingen die Phänomene<br />

der akustischen Beugung <strong>und</strong> Reflexion sowie die interauralen Laufzeit- <strong>und</strong> Dämpfungunterschiede<br />

der eintreffenden Wellenfront. All diese Eigenschaften können in der<br />

IT-V4 15


linearen Systemtheorie durch die Impulsantworten von der Signalquelle zum Eingang des<br />

Gehörgangs erfasst werden. Mit dem Meßsignal x(k) <strong>und</strong> den beiden Empfangssignalen<br />

y1(k) <strong>und</strong> y2(k) erfolgt also die mathematische Definition der HRIRs hi(κ,ϕk) im Sinne<br />

der linearen Faltung:<br />

yi(k) =<br />

N<br />

x(k − κ)hi(κ,ϕk) . (4)<br />

κ=0<br />

Die azimuthale Winkelabhängigkeit der zeitdiskreten Impulsantworten hi(κ,ϕk) wird<br />

durch das Winkelargument ϕk beider HRIRs berücksichtigt. Beide Impulsantworten,<br />

welche durch i ∈ {1,2} indiziert sind, seien außerdem durch die endliche Zahl von N Koeffizienten<br />

modelliert. N muß dabei so gewählt werden, dass die gr<strong>und</strong>sätzlich unendlich<br />

langen akustischen Impulsantworten mit hinreichender Genauigkeit beschrieben werden.<br />

An dieser Stelle wird praktisch immer ein Kompromiß von Genauigkeit <strong>und</strong> Komplexität<br />

der mathematischen Beschreibung eingegangen. Bei einer Abtastfrequenz von 44.1<br />

kHz wird üblicherweise mit N = 128 oder N = 256 Koeffizienten der Impulsantwort<br />

gearbeitet.<br />

Das Konzept der azimuthalen Winkelabhängigkeit (horizontale Ebene) kann gr<strong>und</strong>sätzlich<br />

auf eine dreidimensionale Abhängigkeit erweitert werden, soll aber an dieser Stelle<br />

nicht weiter thematisiert werden. Die Versuchdurchführung ermöglicht jedoch auch ein<br />

eingeschränktes Experimentieren mit dreidimensionaler virtueller akustischer Realität.<br />

Unter Laborbedingungen kann, bei gleichzeitiger Wiedergabe des Meßsignales x(k), eine<br />

Aufnahme der Signale y1(k) <strong>und</strong> y2(k) entweder personalisiert oder unter Zuhilfenahme<br />

der Kunstkopftechnik erfolgen. Mit Kenntnis dieser Signale können dann mit Hilfe von<br />

Kreuzkorrelationstechniken der digitalen Signalverarbeitung die interessierenden kopfbezogenen<br />

Impulsantworten errechnet werden. Die so gef<strong>und</strong>enen HRIRs dienen dann<br />

als Werkzeug innerhalb eines Systemes zur Erzeugung virtueller akustischer Realität.<br />

Personalisierte Messungen liefern mehr akustische Transparenz <strong>und</strong> ermöglichen eine<br />

genauere akustische Lokalisierung virtueller Tonquellen, müssen aber <strong>für</strong> den entsprechenden<br />

Benutzer individuell <strong>und</strong> mit geeignetem Gerät durchgeführt werden.<br />

3.2 Iterative Berechnung mit dem LMS Algorithmus<br />

Traditionell erfolgt die Messung der HRIRs <strong>für</strong> eine begrenzte Anzahl ausgewählter<br />

Winkel ϕ. Die Justierung des Meßequipments <strong>und</strong> die eigentliche Messung im Abstand<br />

von üblicherweise ∆ϕ = 5..10 Grad ist in diesem Falle sehr zeitintensiv. Die gef<strong>und</strong>enen<br />

HRIRs werden dann in Tabellenform den Systemen zur Erzeugung virtueller Realitäten<br />

zur Verfügung gestellt <strong>und</strong> die Erzeugung von HRIRs an den Zwischenwinkeln muß vom<br />

System zusätzlich geleistet werden. Hierzu benutzen die Systeme der virtuellen Realität<br />

im allgemeinen Techniken der Interpolation, wobei die Wahl einer geeigneten räumlichen<br />

Interpolationsmethode <strong>für</strong> Impulsantworten ebenfalls Gegenstand der Forschung ist.<br />

In diesem Versuch wird ein neuartiges, am Institut <strong>für</strong> Kommunikationsakustik entwickeltes<br />

Verfahren [29] zur unmittelbar winkelkontinuierlichen Bestimmung der Impulsantworten<br />

eingesetzt. Das Verfahren beruht auf der Erkenntnis, dass eine messtechnische<br />

Bestimmung der HRIRs <strong>für</strong> alle Winkel ϕ mit endlichem Zeitaufwand zwangsläufig dynamisch<br />

erfolgen muss. Praktisch wird das Messobjekt (also z. B. ein mit zweikanaliger<br />

IT-V4 16


Aufnahmetechnik ausgestatter Kunstkopf) während der Messsignalwiedergabe einmal<br />

um 360 ◦ um seine Achse gedreht. Zu jedem Zeitpunkt k gilt dann im Rahmen der<br />

Aufnahme ein anderes Winkelargument ϕk. Die resultierenden Aufnahmesignale y1/2(k)<br />

repräsentieren dann die winkelkontinuierliche Gesamtheit aller HRIRs. Nach derzeitigem<br />

Stand der Forschung kann die erforderliche Aufnahmedauer unter einer Minute liegen.<br />

Die Extraktion der benötigten HRIRs aus dem Aufnahmesignal geschieht in diesem<br />

Verfahren mit Hilfe einer iterativen Technik aus der digitalen Signalverarbeitung, dem<br />

s.g. Least-Mean-Square (LMS) Algorithmus. Der Algorithmus beruht auf vektorwertigen<br />

Berechnungsvorschriften, die im Folgenden noch kurz beschrieben werden:<br />

Zum Aufnahmezeitpunkt k <strong>und</strong> dem dazugehörigen Winkel ϕk beschreibe der Vektor<br />

x(k) = (x(k), x(k − 1), . . .,x(k − N + 1)) T<br />

die endliche Anzahl N der zuletzt abgespielten Abtastwerte des Meßsignals. Weiterhin<br />

enthalten die Vektoren<br />

hi(ϕk) = (hi(0,ϕk), hi(1,ϕk), . . .hi(N − 1,ϕk)) T<br />

die N Koeffizieten der bereits oben definierten kopfbezogenen Impulsantworten hi(κ,ϕk).<br />

Es handelt sich also um eine kompakte vektorielle Darstellung der HRIRs.<br />

Der iterative LMS Algorithmus bestimmt nun die HRIRs zum beliebigen Zeitpunkt<br />

k + 1 aus den bereits gef<strong>und</strong>en HRIRs zum Zeitpunkt k,<br />

ei(k)x(k)<br />

hi(ϕk+1) = hi(ϕk) + µ0<br />

||x(k)|| 2 2<br />

(5)<br />

(6)<br />

(7)<br />

ei(k) = yi(k) − h T i (ϕk)x(k) , (8)<br />

<strong>und</strong> nutzt hierzu die Differenzsignale ei(k), deren mittlere Leistungen bei gelungener<br />

Identifikation der HRIRs minimiert werden. Die Größe ||x(k)|| 2 2 bezeichnet in diesem<br />

Algorithmus die 2-Norm des Vektors x(k), während der skalare Faktor 0 ≤ µ0 ≤ 1 zur<br />

Anpassung des Algorithmus an die Umdrehungsgeschwindigkeit bei der Signalaufnahme<br />

dient.<br />

Mit der Verfügbarkeit der Signale x(k) <strong>und</strong> y1/2(k) kann das iterative Verfahren<br />

an einer beliebigen Stelle k gestartet werden, wobei üblicherweise eine Initialisierung<br />

der HRIRs mit Null erfolgt. Wenn die HRIRs zum gewünschten Winkel ϕ gef<strong>und</strong>en<br />

sind, wird das Verfahren abgebrochen. Werden neue HRIRs <strong>für</strong> einen neuen Winkel ϕ<br />

benötigt, so kann die Iteration direkt an der Abbruchstelle fortgesetzt werden (ohne neue<br />

Initialisierung).<br />

Für eine Erzeugung virtueller, kontinuierlich bewegter Tonquellen kann das neue<br />

Verfahren kontinuierlich angepasste HRIRs liefern. Das iterative Berechnungsverfahren<br />

(LMS Algorithmus) muß in diesem Falle ohne Unterbrechung ausgeführt werden. Anstatt<br />

der traditionellen HRIR-Tabellen werden im Zusammenhang mit dem neuen Verfahren<br />

die vorab gemessenen Signale x(k) <strong>und</strong> y1/2(k) als Informationsquelle im System zur<br />

Erzeugung virtueller Realität gespeichert.<br />

IT-V4 17


4 Die Echtzeit Anwendung<br />

In diesem Versuchsteil geht es darum eine Auditive Virtuelle Umgebung (engl. Auditory<br />

Virtual Environment - AVE) auf dem Rechner zu modellieren, um daraus eine Echtzeit-<br />

Anwendung zu erstellen. Um diese beiden <strong>Aufgabe</strong>n zu erfüllen, werden im Folgenden<br />

einige komplexe Werkzeuge benutzt, die hier einmal genauer vorgestellt werden. Einen<br />

Überblick über den Ablauf der Entstehung der Echtzeit-Anwendung gibt Bild 9.<br />

AVE Real−Time<br />

Simulink<br />

Model<br />

Workshop<br />

Parameter<br />

4.1 Simulink<br />

4.1.1 Blockdiagramme<br />

Bild 9: Ablauf der <strong>Aufgabe</strong>n<br />

Software<br />

Environment:<br />

(JACK Application)<br />

Die Plattform Simulink ist eine Erweiterung zu dem bereits bekannten Programm Matlab<br />

von The MathWorks. Sie dient der Simulation <strong>und</strong> dem modellbasierten Entwurf<br />

dynamischer Systeme. Es werden eine interaktive, grafische Entwicklungsumgebung mit<br />

individuell anpassbaren Blockbibliotheken geboten, <strong>für</strong> die eine Reihe von Erweiterungen<br />

<strong>für</strong> spezielle Anwendungsgebiete zur Verfügung stehen. Simulink ermöglicht die hierarchische<br />

Modellierung mit Hilfe grafischer Blöcke. Dabei stellt Simulink eine Gr<strong>und</strong>menge<br />

an kontinuierlichen <strong>und</strong> diskreten Schaltblöcken zur Verfügung. Der Datenfluss zwischen<br />

den Blöcken wird grafisch über Verbindungslinien realisiert (sog. gerichteter Graph).<br />

4.1.2 Real-Time Workshop<br />

Mit Hilfe der Toolbox Real-Time Workshop kann aus einem Simulink-Modell Programmcode<br />

erzeugt werden, der mit Konfigurationsdateien <strong>für</strong> verschiedene Zielsprachen anpassbar<br />

ist. In diesem Praktikum wird C-Code aus dem Simulink-Modell erzeugt. Der<br />

erzeugte Code lässt sich <strong>für</strong> vielfältige Echtzeit- <strong>und</strong> Nicht-Echtzeit-Anwendungen nutzen,<br />

etwa zur Simulationsbeschleunigung, <strong>für</strong> das Rapid Prototyping <strong>und</strong> <strong>für</strong> Hardwarein-the-Loop-Tests.<br />

Der generierte Code kann mit Simulink-Blöcken sowie integrierten<br />

Analysefunktionen optimiert <strong>und</strong> kontrolliert oder außerhalb der Matlab- <strong>und</strong> Simulink-<br />

Umgebung ausgeführt <strong>und</strong> beeinflusst werden.<br />

IT-V4 18


4.2 JACK Audio Connection Kit<br />

Für die Anwendung in Echtzeit wird nun das JACK Audio Connection Kit benutzt.<br />

Dabei handelt es sich um eine Softwareschnittstelle <strong>für</strong> Audio-Computerprogramme (Clients)<br />

unter Unix-ähnlichen Systemen. Dieser sog. JACK-Server verwaltet die Ein- <strong>und</strong><br />

Ausgänge von Audioprogrammen <strong>und</strong> Audio-Hardware (z. B. Mikrofoneingang <strong>und</strong> Audioausgang<br />

der So<strong>und</strong>karte) <strong>und</strong> routet die Audiosignale zwischen ihnen. Der JACK-<br />

Server synchronisiert die Clients, indem er zu festen Zeiten Callback-Funktionen aufruft,<br />

die einen Block von Audiodaten am Eingang der So<strong>und</strong>karte einlesen oder an den Ausgang<br />

weitergeben. In diesem Praktikum benutzen Sie die Oberfläche mit dem Kommando<br />

qjackctl. In Bild 10 sehen Sie einen JACK-Server direkt nach dem Aufruf von ”qjackctl”.<br />

Bild 10: JACK-Server<br />

4.3 Von Simulink zum C-Code<br />

Um mit Hilfe des JACK-Servers eine Echtzeit-Anwendung zu realisieren, muss C-Code,<br />

in dem die Callback-Funktionen <strong>für</strong> die JACK-Anwendung eingeb<strong>und</strong>en sind, erzeugt <strong>und</strong><br />

kompiliert werden. Um aus einem Simulink-Modell C-Code zu erzeugen, wird in diesem<br />

Fall der Generic Real-Time Workshop von Matlab benutzt, welcher aus den einzelnen<br />

Blöcken <strong>und</strong> Algorithmen eines Simulink-Modells automatisch C-Code generiert.<br />

4.4 Vom C-Code zum echtzeitfähigen Programm<br />

Ist der C-Code generiert, geht es darum ihn mit dem JACK-Server zu verbinden <strong>und</strong><br />

dann zu kompilieren, um das Echtzeit-Programm ausführen zu können. Zu diesem Zweck<br />

muss der Code in ein bereits vorhandenes C-Projekt eingefügt werden, in welchem die Einstellungen<br />

<strong>für</strong> die JACK-Anwendung vorgenommen werden. Dort werden Verbindungen<br />

vom C-Projekt zum JACK-Server <strong>und</strong> von dort aus zur So<strong>und</strong>karte eingestellt. Die Ein<strong>und</strong><br />

Ausgänge werden mit Hilfe einer globalen Speicherumgebung (global memory area)<br />

realisiert. Dadurch lassen sich die Signale, welche an den Ein- <strong>und</strong> Ausgängen anliegen,<br />

direkt vom C-Code ansprechen, auslesen oder an andere Speicheradressen kopieren. Somit<br />

kann eine Signalverarbeitung des Eingangssignals realisiert werden, indem der Eingang<br />

eingelesen, mit dem aus Simulink erzeugten Code verarbeitet, <strong>und</strong> an den Ausgang<br />

zurückgegeben wird. Die bearbeiteten Signale am Ausgang werden ausgelesen <strong>und</strong> vom<br />

C-Projekt an den JACK-Server weitergegeben. Das C-Projekt <strong>für</strong> JACK zusammen<br />

mit dem generierten Code aus Simulink, dem Input/Output-Interface <strong>und</strong> dem JACK-<br />

Server bilden den Software-Teil der Echtzeit-Anwendung. Dieser kommuniziert mit der<br />

IT-V4 19


So<strong>und</strong>karte <strong>und</strong> stellt sicher, dass alle Signale an den Eingängen eingelesen, bearbeitet<br />

<strong>und</strong> dann an die Ausgänge der So<strong>und</strong>karte zurückgegeben werden. Die Bearbeitung der<br />

Signale an den Ein- <strong>und</strong> Ausgängen der So<strong>und</strong>karte erfolgt mit einer Abtastrate (Sampling<br />

Frequency) von 44,1 kHz. Eine Übersicht über die Interaktionen zwischen den einzelnen<br />

Programmteilen <strong>und</strong> der Hardware wird in Bild 11 gezeigt.<br />

Simulink<br />

Inputs<br />

Code<br />

Outputs<br />

Funktionsaufruf<br />

C − Projekt<br />

JACK Server<br />

Software−Environment (SW)<br />

CD−Player<br />

(Audio−In)<br />

Fs = 44.1kHz<br />

So<strong>und</strong>karte<br />

Kopfhörer<br />

(Audio−Out)<br />

Bild 11: Schema der Soft- <strong>und</strong> Hardwareinteraktion<br />

5 Versuchsdurchführung<br />

Dieser Versuch ist in zwei Abschnitte unterteilt:<br />

• Winkelkontinuierliche Bestimmung kopfbezogener Impulsantworten (HRIRs)<br />

• Aufbau einer Raumsimulation (Auditive Virtuelle Umgebung) durch Faltung eines<br />

Eingangsignals (mono Signal) mit synthetisierten Raumimpulsantworten<br />

IT-V4 20


Beide Experimente werden in Simulink durchgeführt. Im Hintergr<strong>und</strong> wird zur Erzeugung<br />

der Impulsantworten, die die frühen Rückwürfe <strong>und</strong> den späten Nachhall enthalten,<br />

zusätzlicher Matlab-Code genutzt. Eine weitere Analyse des Matlab-Codes ist nicht Gegenstand<br />

der Versuchsdurchführung.<br />

5.1 Simulationsumgebung<br />

Sämtliche in diesem Versuch gebrauchten Dateien befinden sich auf dem Desktop im<br />

Ordner “V4”. Hier befinden sich alle Daten, die eingelesen werden müssen sowie bereits<br />

angelegte leere Simulink-Modelle (*.mdl), in denen die während des Praktikums angefertigten<br />

Blockdiagramme gespeichert werden sollen. Aus diesem Gr<strong>und</strong> ist es wichtig,<br />

dass Matlab <strong>und</strong> Simulink von diesem Ordner aus gestartet wird. Um in den gewünschten<br />

Ordner zu gelangen öffnet man eine Konsole <strong>und</strong> tippt “cd Desktop/V4” ein. Um Matlab<br />

zu starten gibt man “matlab” ein. Um nun Simulink zu öffnen gibt man im Matlab-<br />

Hauptfenster “simulink” ein.<br />

5.2 Bestimmung der HRIRs<br />

Mit den vorab gemessenen Signalen x(k) <strong>und</strong> y1/2(k) können die kopfbezogenen Impulsantworten<br />

wie in Bild 8 bestimmt werden. Diese Signale sind in den Dateien xk 20s.wav<br />

(mono) yk 20s.wav (Stereo) bei einer Abtastfrequenz von 44.1 kHz gespeichert. Die<br />

Umdrehungsdauer des Meßobjektes (z.B. Kunstkopf) beträgt 19.5 Sek<strong>und</strong>en. Das Stereosignal<br />

y1/2(k) ermöglicht die Bestimmung der kopfbezogenen Impulsantworten sowohl<br />

<strong>für</strong> das linke als auch <strong>für</strong> das rechte Ohr.<br />

5.3 Aufbau des Simulink-Modells <strong>für</strong> die HRIRs<br />

Öffnen Sie nun die Datei “HRIR.mdl”. Erstellen Sie in diesem leeren Modell ein wie in<br />

Bild 23 dargestelltes Blockdiagramm zur Berechnung der kopfbezogenen Impulsantworten.<br />

Sollten Sie einen der benötigten Blöcke nicht unmittelbar finden, können die Blöcke<br />

in der Symbolzeile des “Simulink Library Browser” namentlich gesucht werden (“Enter<br />

search term”). Wo Sie die Blöcke der “ikaLib” finden ist im Bild 12 gezeigt.<br />

• Kopieren Sie die Blöcke “Reference Input” <strong>und</strong> “Microphone Signal” von der IKA<br />

Audio Library (ikaLib) in ein leeres Simulink-Modell, um die Signale x(k) <strong>und</strong><br />

y1/2(k) einzulesen.<br />

• Kopieren Sie dann zwei “LMS Filter” Blöcke aus der “Simulink-Library” in das<br />

Modell <strong>und</strong> nehmen Sie die Einstellungen wie in Bild 13 gezeigt vor.<br />

• Verwenden Sie einen “Constant-Block” aus der Simulink-Library um die Schrittweiteneingang<br />

(Step-size) des NLMS-Algorithmus zu beschalten.<br />

• Da in diesem Versuch zunächst nur die Impulsantwort der Filter (Ausgang Wts -<br />

weights) untersucht wird, verbinden Sie die anderen beiden Ausgänge der Filter mit<br />

einem ”Terminator“.<br />

IT-V4 21


Bild 12: ikaLib in Simulink<br />

• Die Impulsantworten stellen Sie mit einem ”Vector Scope“ dar <strong>und</strong> speichern Sie<br />

als ”left“ <strong>und</strong> ”right“ im Matlab Workspace über die Blöcke ”ToWorkspace“.<br />

• Verbinden Sie alle Blöcke wie in Bild 23 gezeigt.<br />

• Für die Initialisierung des Modells laden Sie die Datei configLMS.mat in den<br />

Matlab-Workspace. Führen Sie hierzu unter Matlab den folgenden Schritt durch:<br />

load(’configLMS.mat’);<br />

5.4 Festlegung der Simulationszeit<br />

In den Signalen x(k) <strong>und</strong> y1/2(k) korrespondiert jeder Aufnahmezeitpunkt mit einer<br />

bestimmten Winkelposition des Meßobjektes (z.B. Kunstkopf). Um die kopfbezogenen<br />

Impulsantworten <strong>für</strong> einen gewünschten Winkel ϕ zu berechnen, müssen also die Daten<br />

x(k) <strong>und</strong> y1/2(k) mit dem Simulink-Aufbau vom Anfang bis zum jeweiligen Aufnahmezeitpunkt<br />

prozessiert werden. Hierzu muss unter “Simulink → Configuration Parameters”<br />

die Simulationszeit entsprechend eingestellt werden, wie in Bild 14 gezeigt. Bei einer<br />

Umdrehungsdauer von T360 Sek<strong>und</strong>en können Sie die “Stop time” <strong>und</strong> die “Start time”<br />

der Simulation mit folgenden Formeln berechnen:<br />

Start time = ϕ<br />

360 × T360 − 0.5<br />

Stop time = ϕ<br />

360 × T360 . (9)<br />

IT-V4 22


Bild 13: Einstellungen des LMS Filter-Blocks.<br />

Bild 14: Einstellung der Simulationszeit <strong>für</strong> die Bestimmung der HRIRs.<br />

IT-V4 23


5.5 Aufbau der Auditiven Virtuelle Umgebung<br />

5.5.1 Simulation<br />

Eine auditive virtuelle Umgebung besteht aus einer Simulation des richtungsabhängigen<br />

Direktschalles sowie der Simulation früher <strong>und</strong> später Reflexionen. Öffnen Sie nun das<br />

ebenfalls leere Modell ”AVE.mdl“ <strong>und</strong> bauen Sie das Blockschaltbild einer auditiven<br />

virtuellen Umgebung nach dem Vorbild von Bild 24 auf:<br />

• Kopieren Sie die Simulink-Blöcke “Direct So<strong>und</strong>”, “Early Reflections” <strong>und</strong> “Late<br />

Reverberations”(jeweils left <strong>und</strong> right) von der IKA Audio Library (ikaLib) in das<br />

Simulink-Modell <strong>und</strong> speisen Sie die Module durch ein Audiosignal (WavFromFile).<br />

• Fügen Sie digitale Schalter zum Aktivieren bzw. Deaktivieren der drei Module<br />

hinzu, indem Sie Konstanten (Constant) hinzufügen, welche auf 1 oder 0 eingestellt<br />

werden können, mit denen die Signale multipliziert werden. In diese Blöcke tragen<br />

Sie die Variablennamen ”dsEn (Direct So<strong>und</strong> Enable)“, ”erEn (Early Reflections<br />

Enable)” <strong>und</strong> “lrEn (Late Reverberations Enable)” ein, welche sich schon im<br />

Workspace befinden, <strong>und</strong> über welche die Effekte ein- <strong>und</strong> ausgeschaltet werden<br />

können.<br />

• Addieren Sie die Ausgangssignale der drei Module <strong>und</strong> führen Sie das Ergebnis<br />

einem Audiowiedergabe-Block (Play Stereo) zu.<br />

• Stellen Sie die Simulationszeit ein, wie in Bild 15 gezeigt.<br />

• Die Blöcke, welche in dem Bild 24 die Signale von der Quelle zur Verarbeitung <strong>und</strong><br />

später zur Addition verbinden, heißen ”GoTo“ <strong>und</strong> ”From“. Sie werden über die<br />

sog. Tags gesteuert, d.h. alle GoTo <strong>und</strong> From-Blöcke, in denen Sie die gleichen Tags<br />

einsetzen, werden miteinander verb<strong>und</strong>en. In Bild 16 sehen Sie zum Beispiel die<br />

”Sink Block Parameters“ eines ”GoTo-Blocks“.<br />

Nun speichern Sie das Modell neu (über ”Speichern unter...“) unter dem Namen<br />

”AVEsim.mdl” im Ordner ”V4“ auf dem Desktop ab. In diesem Ordner sollten sich jetzt<br />

drei Simulink-Modelle befinden - ”HRIR.mdl“,”AVEsim.mdl“ <strong>und</strong> ”AVE.mdl“.<br />

5.6 Untersuchungen mit der Auditiven Virtuellen Umgebung<br />

5.6.1 Bestimmung der HRIRs <strong>für</strong> den Direktschall<br />

Hinweis: In dieser <strong>Aufgabe</strong> werden wir uns nur mit dem Direktschall beschäftigten.<br />

Frühe Rückwürfe <strong>und</strong> später Nachhall sind deaktiviert.<br />

1. Bestimmen Sie die HRIRs <strong>für</strong> die Winkel 90 ◦ <strong>und</strong> 270 ◦ <strong>und</strong> speichern Sie dann die<br />

Ergebnisse als Datei ab. Führen Sie hierzu unter Matlab die folgenden Befehle aus:<br />

save(’hrir90.mat’,’left’,’right’);<br />

save(’hrir270.mat’,’left’,’right’);<br />

IT-V4 24


Bild 15: Einstellung der Simulationszeit der AVE.<br />

Bild 16: Einstellungen eines GoTo-Blocks<br />

IT-V4 25


Die Winkel können über die entsprechende Variable ϕ im Workspace angepasst<br />

werden.<br />

2. Plotten Sie die HRIRs in Matlab <strong>und</strong> vergleichen Sie die Amplituden <strong>und</strong> die<br />

Verzögerung zwischen linker <strong>und</strong> rechter HRIR <strong>für</strong> die genannten Winkel. Beschreiben<br />

Sie grob den zu erwartenden Höreindruck eines damit prozessierten Audiosignals.<br />

Mit den folgenden Befehlen unter Matlab können Sie die HRIRs <strong>für</strong> die jeweiligen<br />

Winkel in den Workspace laden:<br />

load hrir90.mat;<br />

load hrir270.mat;<br />

3. Simulieren Sie nun das Modell aus Bild 24 zunächst nur <strong>für</strong> den Direktschall (frühe<br />

Rückwürfe <strong>und</strong> später Nachhall sind zu deaktivieren). Hören Sie sich das binaurale<br />

Signal an <strong>und</strong> beschreiben Sie den auditiven Eindruck <strong>für</strong> beide Winkel.<br />

5.6.2 Frühe Rückwürfe <strong>und</strong> später Nachhall<br />

1. Erzeugen Sie nun die Signale einschließlich der frühen Rückwürfe <strong>und</strong> des späten<br />

Nachhalls <strong>für</strong> einen Winkel von 90 ◦ .<br />

2. Verändern Sie die Parameter der Nachhallblöcke, wie z.B. die Größe des Raums <strong>und</strong><br />

die Nachhallzeit <strong>und</strong> versuchen Sie eine Einstellung zu finden, die dem Höreindruck<br />

einer realen Umgebung entspricht. Dokumentieren Sie die Parametereinstellung <strong>und</strong><br />

beschreiben Sie Ihren Höreindruck. Anhaltswerte <strong>für</strong> typische Umgebungen finden<br />

Sie in Tabelle 1. In den Bildern 17 <strong>und</strong> 18 sehen Sie die Parameter-Dialoge der<br />

Blöcke ”Direct So<strong>und</strong>“, ”Early Reflections“ <strong>und</strong> ”Late Reverberations“.<br />

3. Deaktivieren Sie nun den späten Nachhall. Welchen Höreindruck haben Sie jetzt im<br />

Vergleich zur vorherigen <strong>Aufgabe</strong>.<br />

120 Hz 380 Hz 1200 Hz 3908 Hz 12095 Hz Größe (m 3 )<br />

Initialisierung 1 1 1 1 1 320<br />

Moderne Konzertsäle 0.7 0.7 0.7 0.55 0.2 320<br />

Historische Säle 1.65 2.6 2.6 1.5 0.01 3200<br />

Große Kirchen 2.8 2.1 1.4 0.7 0.01 3200<br />

Tabelle 1: Frequenzabhängiger Nachhall verschiedener Umgebung.<br />

Die Nachhallzeiten, welche in der Tabelle gegeben sind, lassen sich in den Blöcken <strong>für</strong><br />

”Early Reflections“ <strong>und</strong> ”Late Reverberations“ einstellen. Dazu muss die Parameter-<br />

Maske der Blöcke durch Doppelklick geöffnet werden <strong>und</strong> die Werte aus der Tabelle<br />

übertragen werden. Bild 17 <strong>und</strong> Bild 18 zeigen die Parameter-Masken der Blöcke ”Direct<br />

So<strong>und</strong>“, ”Early Reflections“ <strong>und</strong> ”Late Reverberation“ in der Gr<strong>und</strong>einstellung.<br />

IT-V4 26


Bild 17: Parametermaske des Direct So<strong>und</strong> Blocks<br />

(a) Early Reflections (b) Late Reverberations<br />

Bild 18: Parametermasken <strong>für</strong> frühen <strong>und</strong> späten Nachhall<br />

IT-V4 27


5.7 Echtzeit-Anwendung<br />

Um von der Simulation zu einer Echtzeit-Version der auditiven virtuellen Umgebung zu<br />

kommen müssen einige Änderungen am Modell vorgenommen werden. Hierzu öffnen Sie<br />

nun das Modell ”AVE.mdl“ <strong>und</strong> nehmen die Anpassungen gemäß dem Bild 25 vor. Damit<br />

der Code, welcher aus dem Modell mit Hilfe des Real-Time Workshop generiert wird, in<br />

die hier benutzte Echtzeit-Umgebung integriert werden kann sind insbesondere folgende<br />

Vorgaben einzuhalten:<br />

• Signale werden nicht mehr aus dem Matlab-Workspace eingelesen <strong>und</strong> nach der<br />

Verarbeitung dort gespeichert, sondern die Ein- <strong>und</strong> Ausgabe der Signale geschieht<br />

über Ein- <strong>und</strong> Ausgänge (”In“ <strong>und</strong> ”Out“).<br />

• Die Steuerung der Effekte (z.B. frühe Reflektionen etc.) wird später über eine<br />

graphische Benutzeroberfläche von der Echtzeit-Anwendung direkt übernommen.<br />

Deswegen müssen auch hier die Eingänge benutzt werden, welche die Echtzeit-<br />

Anwendung später bedienen kann.<br />

• Auch die Simulationszeit muss angepasst werden. Da im kontinuierlichen Echtzeitbetrieb<br />

nicht mehr über eine bestimme Zeit simuliert, sondern durchgehend<br />

verarbeitet wird, muss hier inf (unendlich) eingestellt werden.<br />

• Desweitern müssen Änderungen unter ”Simulation → Configuration Parameters...“<br />

vorgenommen werden. Der ”Solver“ muss den Anforderungen entsprechend eingestellt<br />

werden. Hierbei ist darauf zu achten, dass es sich um einen ”Discrete (no continous<br />

states)“ Solver handelt, welcher vom Typ ”Fixed-Step“ ist. Die ”Fixed-step size“<br />

muss auf ”1/Fs“ eingestellt werden, was dem Abtastintervall der Analog/Digital-<br />

Umsetzung entspricht. Desweiteren müssen unter ”Hardware Implementation“ die<br />

benutzte Hardware angegeben <strong>und</strong> unter ”Real-Time Workshop“ die richtige Programmiersprache<br />

<strong>für</strong> den Real-Time Workshop eingestellt werden. Eine Übersicht<br />

über diese Einstellungen geben Bild 19 <strong>und</strong> Bild 20.<br />

IT-V4 28


Bild 19: Hardware Implementation<br />

Bild 20: Real-Time Workshop<br />

IT-V4 29


Wenn alle Blöcke wie gewünscht verschaltet <strong>und</strong> alle Attribute korrekt eingestellt sind<br />

kann der Code erzeugt werden. Dies geschieht - bei geöffnetem Modell - mit der Tastenkombination<br />

”Strg+B“ oder im Menü unter ”Simulation → Configuration Parameters...“<br />

<strong>und</strong> dann unter ”Real-Time Workshop“ durch drücken des Buttons ”Generate code“.<br />

Während der Erzeugung des C-Codes wird der aktuelle Fortschritt im Hauptfenster von<br />

Matlab angezeigt. Nach dem Abschluss des Vorganges werden alle benötigten Dateien<br />

automatisch in einem neuen Ordner in Ihrem aktuellen Matlab-Verzeichnis gespeichert.<br />

Der Ordner hat den Namen ”AVE grt“. Das Kürzel ”grt“ steht <strong>für</strong> ’Generic Real-Time<br />

Workshop’. Ist der Code erzeugt, geht es darum, ihn - wie im vorhergehenden Abschnitt<br />

beschrieben - in die JACK-Anwendung <strong>und</strong> die Hardware-Kette einzubinden. Da das<br />

Kopieren der einzelnen Dateien <strong>und</strong> die Einstellung der einzelnen Komponenten relativ<br />

viel Zeit in Anspruch nimmt, wird diese <strong>Aufgabe</strong> im Praktikum von einem vorgefertigten<br />

Skript übernommen. Dieses Skript finden Sie im Praktikumsordner (”V4“) auf dem<br />

Desktop. Zum Ausführen des Skriptes, führen Sie den folgenden Befehl im Ordner ”V4“<br />

über die Konsole aus:<br />

./scriptV4<br />

Das Skript erledigt nun folgende <strong>Aufgabe</strong>n:<br />

• Starten der Oberfläche qjackctl → der JACK-Server muss dann jedoch von Ihnen<br />

noch gestartet werden (grüner Knopf)<br />

• Kompilierung des C-Codes <strong>für</strong> die JACK-Anwendung zusammen mit dem generierten<br />

Code aus Simulink<br />

• Ausführung des kompilierten Programms → angeschlossene graphische Benutzeroberfläche<br />

öffnet sich<br />

• Erstellung der Verbindungen der Ein- <strong>und</strong> Ausgänge der So<strong>und</strong>karte über JACK,<br />

siehe Bild 21<br />

• Start der kompilierten Echtzeit-Anwendung (JACK-Client)<br />

Bild 21: Verbindungen der Ein- <strong>und</strong> Ausgänge der So<strong>und</strong>karte über JACK<br />

IT-V4 30


5.7.1 Graphische Benutzeroberfläche<br />

Um die Effekte der auditiven virtuellen Umgebung in Echtzeit zu steuern, wurde hier<strong>für</strong><br />

eine kleine graphische Benutzeroberfläche (engl. Graphical User Interface - GUI) eingebaut.<br />

Über diese Benutzeroberfläche kann man den Direktschall, die frühen Reflektionen<br />

<strong>und</strong> den späten Nachhall ein- <strong>und</strong> ausschalten. Mit Hilfe dieser Funktionen ist es möglich<br />

sich einen akustischen Eindruck der einzelnen Effekte zu verschaffen. In Bild 22 sehen Sie<br />

die GUI, welche nach dem Ausführen des Skriptes erscheint.<br />

Bild 22: Graphische Benutzeroberfläche<br />

Wenn die Option ”All Processing Bypass“ aktiviert ist, sind automatisch alle anderen<br />

Optionen deaktiviert - erst sobald man diese Option deaktiviert kann man die anderen<br />

Effekte wirklich untersuchen.<br />

5.8 <strong>Aufgabe</strong>n: Echtzeit-Anwendung<br />

In diesem <strong>Aufgabe</strong>nteil verwenden Sie als Signaleingang einen CD-Player, welcher mit der<br />

So<strong>und</strong>karte verb<strong>und</strong>en ist. Die im Rechner verarbeiteten Signale hören Sie sich mit den<br />

Kopfhörern an, welche über einen Kopfhörerverstärker an die So<strong>und</strong>karte angeschlossen<br />

sind.<br />

1. Legen Sie die CD ”Versuch V4 - CD 1“ ein <strong>und</strong> stellen Sie ein Hörereignis aus der<br />

Tabelle 1 ein. Erzeugen Sie <strong>für</strong> diese Einstellung die Echtzeit-Anwendung <strong>und</strong> vergleichen<br />

Sie das Hörereignis mit der Simulation. Beschreiben Sie außerdem welche<br />

Veränderungen sich durch Ein- <strong>und</strong> Ausschalten der einzelnen Effekte ergeben.<br />

2. Wechseln Sie nun die CD im CD-Player <strong>und</strong> legen Sie die CD ”Versuch V4 - CD<br />

2“ ein. Auf dieser CD befindet sich ein ”trockenes“-Audiosignal einer Oper (ohne<br />

Hall- oder sonstige Effektanteile). Erstellen Sie nun durch Variation der Parameter<br />

<strong>für</strong> frühe Reflektionen <strong>und</strong> späten Nachhall ein Hörereignis, welches Ihrer Meinung<br />

nach dem eines Opernsaales am nächsten kommt. Tragen Sie die Parameterwerte<br />

(als Antwort 5.8.2) in die Versuchsauswertung ein.<br />

IT-V4 31


IT-V4 32<br />

Bild 23: Schätzung der HRIR unter Verwendung des NLMS-Algorithmus.<br />

White Noise Reference Input<br />

Microphone Signals<br />

Left<br />

Right<br />

HRIR Estimation<br />

Input<br />

Desired<br />

Step−size<br />

Input<br />

Desired<br />

Step−size<br />

stepSize<br />

Step−size<br />

Normalized<br />

LMS<br />

LMS Filter<br />

Normalized<br />

LMS<br />

LMS Filter1<br />

Output<br />

Error<br />

Wts<br />

Output<br />

Error<br />

Wts<br />

left<br />

Left Ear<br />

right<br />

Time<br />

Left<br />

Time<br />

Right<br />

Right Ear


Bild 24: Modell einer auditiven virtuellen Umgebung<br />

IT-V4 33


Bild 25: Echtzeit-Modell einer auditiven virtuellen Umgebung<br />

IT-V4 34


Literatur<br />

[1] Bernd Dürrer. Untersuchung zum Entwurf von Auditory Displays. PhD thesis, Ruhr-<br />

Universität Bochum, May 2001.<br />

[2] E. M. Wenzel, J. D. Miller, and J. S. Abel. So<strong>und</strong> lab: A real-time, software-based<br />

system for the study of spatial hearing. Proceedings of the 108th Convention of the<br />

Audio Engineering Society, February 2000.<br />

[3] H. Lehnert. Binaurale Raumsimulation. Shaker, Aachen, 1992.<br />

[4] J. Blauert. Spatial Hearing. MIT Press, Cambridge, MA, 1997.<br />

[5] K. Hartung. Modellalgorithmen zum Richtungshören, basierend auf den Ergebnissen<br />

psychoakustischer <strong>und</strong> neurophysiologischer Experimente mit virtuellen Schallquellen.<br />

Shaker, Aachen, 1999.<br />

[6] K. Genuit. Ein Modell zur Beschreibung von Außenohrübertragungsfunktionen. PhD<br />

thesis, RWTH Aachen, 1984.<br />

[7] R. Sottek. Modellierung kopfbezogener Impulsantworten. DAGA, 1998.<br />

[8] K. Sorkin and Elvers. An exploratory study of the use of movement-correlated cues<br />

in an auditory head-up display. Hum. Factors, 31(2):161–166, 1989.<br />

[9] M. R. Schroeder and B. S. Atal. Apparent so<strong>und</strong> source translator. US Patent<br />

3236949, 1966.<br />

[10] M. A. Gerzon. Ambisonics in multichannel braodcasting and video. J. Audio. Eng.<br />

Soc., 33(11):859–871, 1985.<br />

[11] V. Pulkki. Virtual so<strong>und</strong> source positioning using vector based amplitude panning.<br />

J. Audio. Eng. Soc., 45(6):456–466, 1997.<br />

[12] A. J. Berkhout, D. de Vries, and P. Vogel. Acoustic control by wave field synthesis.<br />

J. Acoust. Soc. Am., 93(5):2764–2778, 1993.<br />

[13] H. Strauss and J. Buchholz. Comparison of virtual so<strong>und</strong> source positioning with<br />

amplitude panning and ambisonic reproduction. Coll Papers 137th Meeting Ac. Soc.<br />

Am and 2nd Conv. EAA, 1999.<br />

[14] W. Pompetzki. Psychoakustische Verifikation von Computermodellen zur binauralen<br />

Raumsimulation. Shaker, Aachen, 1993.<br />

[15] H. Lehnert and M. Richter. Vereinfachung von binauralen impulsantworten zur<br />

auralisierung von rückwürfen. Fortschritte der Akustik – DAGA, pages 303–306,<br />

1995.<br />

[16] J. Sahrhage and M. Hunold. Optimierte realzeit-verfahren zur auditiven raumsimulation.<br />

Fortschritte der Akustik – DAGA, pages 544–545, 1998.<br />

IT-V4 35


[17] R. Heinz. Entwicklung <strong>und</strong> Beurteilung von computergestützten Methoden zur<br />

binauralen Raumsimulation. Shaker, Aachen.<br />

[18] W. M. Hartmann. Localization of so<strong>und</strong> in rooms. J. Acoust. Soc. Am., 74(5):1380–<br />

1391, 1983.<br />

[19] J. Blauert and W. Lindemann. Auditory spaciousness: Some further psychoacoustic<br />

analyses. J. Acoust. Soc. Am., 80(2):533–542, 1986.<br />

[20] R. Guski. Auditory localization: effects of reflecting surfaces. Perception, 19(6):819–<br />

830, 1990.<br />

[21] M. R. Schroeder. Natural So<strong>und</strong>ing Artificial Reverberation. Journal of the Audio<br />

Engineering Society, 10(3):219–223, 1962.<br />

[22] J. Moorer. About this Reverberation Business. Computer Music Journal, 3(2):13–18,<br />

1979.<br />

[23] J. Stautner and M. Puckette. Designing Multi-Channel Reverberators. Computer<br />

Music J., 6(1):52–65, 1982.<br />

[24] J. Sikorav. Implementation of Reverberators on Digital Signal Processors. In 80th<br />

AES Convention, Montreux, Swiss, Mar. 1986.<br />

[25] D. Griesinger. Practical Processors and Programs for Digital Reverberation. In 7th<br />

int. AES Convention, Toronto, Canada, May. 1989.<br />

[26] M. Barron. The subjective effects of first reflections in concert halls - the need for<br />

lateral reflections. J. of So<strong>und</strong> and Vibration, 15(4):475–494, 1971.<br />

[27] J.-M. Jot. Digital delay networks for designing artificial reverberators. In 90th AES<br />

Convention, Paris, France, 1991.<br />

[28] J.-M. Jot and L. Cerveau and O. Warusfel. Analysis and Synthesis of Room Reverberation<br />

Based on a Statistical Time-Frequency Model. In 103rd AES Convention,<br />

New York, NY, USA, 1997.<br />

[29] G. Enzner. Analysis and Optimal Control of LMS-type Adaptive Filtering for<br />

Continuous-Azimuth Acquisition of Head Related Impulse Responses. In Proc. IEEE<br />

International Conference on Acoustics, Speech, and Signal Processing (ICASSP), Las<br />

Vegas, USA, 2008.<br />

IT-V4 36


Versuch IT-V5: Ultraschallbildgebung -<br />

praktische Aspekte<br />

Inhaltsverzeichnis<br />

1 Einleitung 2<br />

2 Physikalische Gr<strong>und</strong>lagen 2<br />

2.1 Erzeugung von Schallwellen: Piezoelektrischer Effekt . . . . . . . . . . . . . 2<br />

2.2 Aufbau eines Schallwandlers . . . . . . . . . . . . . . . . . . . . . . . . . . . 2<br />

2.3 Reflexion <strong>und</strong> Brechung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4<br />

2.4 Ortsabbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5<br />

3 Vorbereitungsfragen 5<br />

4 Praktikumsaufgaben 6<br />

Literaturverzeichnis 8<br />

IT-V5 - 1


1 Einleitung<br />

Das menschliche Gehör kann Schall bis zu einer Frequenz von etwa 20 kHz wahrnehmen.<br />

Die Bezeichnung ’Ultraschall’ steht <strong>für</strong> Schallwellen oberhalb dieser Hörschwelle. Aus der<br />

Natur sind einige Lebewesen wie Fledermäuse oder Delphine bekannt, die Schallwellen mit<br />

Frequenzen weit oberhalb dieser Schwelle zur Orientierung einsetzen. Der Mensch hat eine<br />

Fülle von technischen Anwendungen des Ultraschalls entwickelt, wie die zerstörungsfreie<br />

Materialprüfung, das Echolot bei Schiffen oder Einparkhilfen an Fahrzeugen. Die wohl<br />

bekannteste Anwendung ist der medizinische Ultraschall, besonders in der Geburtshilfe.<br />

Alle diese Verfahren basieren auf dem Puls-Echo Prinzip: Ein Puls wird ausgesendet <strong>und</strong> die<br />

Laufzeit bis zum Eintreffen des Echos ausgewertet. Diese gibt Aufschluss über die Entfernung<br />

des reflektierenden Objekts. Doppler-Verfahren, also die Auswertung der Frequenzverschiebung<br />

des Echosignals, können zusätzlich Aufschluss über die Bewegungsgeschwindigkeit des<br />

Objektes geben.<br />

In den beiden Versuchen zur Ultraschalltechnik soll Ihnen ein praktischer Einblick in die<br />

gr<strong>und</strong>legenden Prinzipien der Abbildung mit Ultraschall gegeben werden. In diesem ersten<br />

Teil sollen zunächst die physikalischen Aspekte der Ultraschallerzeugung <strong>und</strong> -ausbreitung<br />

behandelt werden.<br />

2 Physikalische Gr<strong>und</strong>lagen<br />

2.1 Erzeugung von Schallwellen: Piezoelektrischer Effekt<br />

In der medizinischen Diagnostik liegen die Schallfrequenzen in der Regel im Bereich von<br />

1-10 MHz. Zum Senden <strong>und</strong> Empfangen dieser Wellen wird der direkte <strong>und</strong> inverse Piezoelektrische<br />

Effekt genutzt. Ultraschallwandler bestehen aus Materialien die bei Belastung<br />

durch Druck oder Zug eine elektrische Spannung erzeugen. Durch die mechanische Kraft<br />

verschieben sich im Material die Ladungsschwerpunkte, so dass ein Potentialunterschied<br />

entsteht. So können die Schallwellen empfangen <strong>und</strong> in ein elektrisches Signal umgewandelt<br />

werden. Zum Senden wird der inverse piezoelektrische Effekt genutzt: Durch Anlegen einer<br />

elektrischen Spannung verformt sich das Material mechanisch <strong>und</strong> erzeugt so eine Druckwelle.<br />

Die industriell eingesetzten Ultraschall-Piezoelemente bestehen zumeist aus Keramiken.<br />

Das am häufigsten eingesetzte Material ist Blei-Zirkonat-Titanat (PZT). Mit Hilfe dieser<br />

Materialien können also sowohl Pulse gesendet als auch empfangen werden. Piezoelektrische<br />

Materialien können zu mechanischen Schwingungen angeregt werden. Die Resonanzfrequenz<br />

ergibt sich aus den Materialkonstanten des Piezos <strong>und</strong> seinen geometrischen Abmessungen.<br />

2.2 Aufbau eines Schallwandlers<br />

Der vereinfachte Aufbau eines Einzelelement-Wandlers ist in Abbildung 1 dargestellt. Die<br />

rückwärtige Schicht, das sogenannte ’Backing’, dämpft die Schwingung, um einen möglichst<br />

kurzen Puls zu erzeugen. Die Anpassungsschicht vor dem Piezo-Element dient der Anpassung<br />

an weiches Gewebe oder Wasser, so dass der Übergang möglichst reflexionsfrei erfolgt.<br />

IT-V5 - 2


Elektroden<br />

Backing<br />

Piezo<br />

U<br />

Bild 1: Aufbau eines Schallwandlers<br />

Anpassungsschicht<br />

Wasser<br />

Das Schallfeld des Wandlers wird durch seine geometrischen Abmessungen definiert, wie in<br />

Abbildung 2 dargestellt. Die gestrichelten Linien stellen Punkte gleichen Drucks dar. Um<br />

die Ausdehnung des Schallfeldes zu kennzeichnen, wird in der Regel die Halbwertsbreite<br />

angegeben. Die Ausdehnung des Schallfeldes bestimmt die Auflösung des Abbildungssystems<br />

in lateraler Richtung. Die Auflösung ist gekennzeichnet durch den minimalen Abstand, den<br />

zwei Punkte haben müssen, um getrennt dargestellt werden zu können. Je geringer die<br />

Ausdehnung des Schallfeldes, um so kleiner wird dieser Abstand - also um so besser die<br />

Auflösung.<br />

lateral<br />

elevational<br />

Wandler<br />

axial<br />

Bild 2: Unfokussierter Schallwandler<br />

Eine geeignete Krümmung der Wandleroberfläche bewirkt eine Einschnürung des Feldes in<br />

einer bestimmten Tiefe. Die größte Schallintensität entsteht so an der Fokus-Position. Ein<br />

solcher Wandler wird daher als ’fokussiert’ bezeichnet. Abbildung 3 zeigt das entsprechende<br />

Schallfeld. Das Bild verdeutlicht, dass die Ausdehnung des Schallfeldes sehr stark über der<br />

Tiefe variiert. Somit ändert sich auch das Auflösungsvermögen der Ultraschallaufnahme mit<br />

der Tiefe.<br />

IT-V5 - 3


Wandler<br />

rf<br />

dlat<br />

2.3 Reflexion <strong>und</strong> Brechung<br />

Bild 3: Fokussierter Schallwandler<br />

Echos entstehen u. a. durch Reflexion an Grenzflächen zwischen Medien unterschiedlicher<br />

akustischer Impedanz. Die akustische Impedanz ist das Produkt aus Schallgeschwindigkeit<br />

<strong>und</strong> Dichte des jeweiligen Materials.<br />

Z = c · ρ (1)<br />

Die Grenzflächen können in medizinischen Anwendungen verschiedene Gewebetypen oder<br />

Einschlüsse bei der Materialprüfung sein.<br />

Der Reflexionskoeffizient der Druckamplitude berechnet sich aus<br />

Γp = Z2 − Z1<br />

Z2 + Z1<br />

Die Amplitude des Echos ändert sich somit in Abhängigkeit des Impedanzsprungs zwischen<br />

den beiden Medien. Der nicht reflektierte Teil dringt weiter ins Material ein. Dieser Anteil<br />

kann nun weitere Echos in größerer Tiefe verursachen, sodass auch in tiefer liegenden<br />

Schichten noch Aufnahmen gemacht werden können. Insbesondere bei menschlichem Gewebe<br />

sind die Impedanzsprünge klein genug, dass auch tieferliegendes Gewebe noch zu sehen ist.<br />

Medium 1 Medium 2<br />

Z 1 , c 1<br />

Bild 4: Reflexion<br />

IT-V5 - 4<br />

Z 2 , c 2<br />

(2)


Ähnlich wie in optischen Systemen ist die Reflexion abhängig vom Einfallswinkel. Ähnlich<br />

wie bei den Gesetzen <strong>für</strong> die optische Brechung gilt:<br />

Γ = Z2 cos(Θ1) − Z1 cos(Θ2)<br />

Z2 cos(Θ1) + Z1 cos(Θ2)<br />

sin(Θ1)<br />

sin(Θ2)<br />

Abbildung 5 veranschaulicht die Geometrie.<br />

2.4 Ortsabbildung<br />

ϑ<br />

= c1<br />

c2<br />

Medium 1 Medium 2<br />

1<br />

ϑ1 2<br />

Z 1 , c 1<br />

ϑ<br />

Z 2 , c 2<br />

Bild 5: Winkelabhängige Reflexion<br />

Um Gewebe abzubilden oder die Position eines Einschlusses zu bestimmen, muss jedem<br />

Echo eine Position zugeordnet werden. Wenn die Schallgeschwindigkeit bekannt ist, so kann<br />

diese aus der Laufzeit des Pulses berechnet werden:<br />

x = 1<br />

c · t (5)<br />

2<br />

Umgekehrt kann so auch die Schallgeschwindigkeit bestimmt werden, wenn der räumliche<br />

Abstand zwischen zwei Reflektoren bekannt ist.<br />

Das mit Hilfe des Piezoelements in elektrische Spannung gewandelte Signal muss zur weiteren<br />

Verarbeitung digitalisiert werden. Dies geschieht mit Hilfe eines Analog/Digitalwandlers,<br />

der das analoge Signal mit einer Abtastrate fs aufnimmt <strong>und</strong> in eine Binärzahl umwandelt.<br />

Die Aufnahme kann nun digital weiterverarbeitet werden, was Teil des nächsten Versuchs<br />

sein wird.<br />

3 Vorbereitungsfragen<br />

Die folgenden Fragen sollen von Ihnen vor dem Praktikumstermin bearbeitet werden. Sie<br />

werden während des Kolloquiums danach gefragt. Die schriftliche Beantwortung ist zudem<br />

Teil der Ausarbeitung.<br />

IT-V5 - 5<br />

(3)<br />

(4)


1. Reflexionskoeffizient: Wie groß ist der Reflexionskoeffizient eines idealen Reflektors?<br />

Wie können Sie mit Hilfe der Messung an einem idealen Reflektor die Reflexionskoeffizienten<br />

anderer Medien berechnen, auch wenn die Amplitude der einfallenden Welle<br />

unbekannt ist?<br />

2. Schallgeschwindigkeit: Woher resultiert der Faktor 1 in der Formel zur Positionsbe-<br />

2<br />

stimmung? Wie bestimmen Sie die Schallgeschwindigkeit in einem Medium aus dem<br />

Ultraschallecho?<br />

3. Fokussierung: Sie betrachten das Echo desselben Reflektors in verschiedenen Tiefen<br />

relativ zum Ultraschallwandler. Wie wird sich die Fokussierung auf die Amplitude des<br />

Echosignals auswirken?<br />

4. Abtastung: Sie haben ein näherungsweise bandbegrenztes Messsignal. Wie muss die<br />

Abtastrate <strong>für</strong> die Diskretisierung gewählt werden, damit alle Informationen erhalten<br />

bleiben?<br />

4 Praktikumsaufgaben<br />

Einrichten des Setups<br />

Befestigen Sie den Ultraschallwandler in der Halterung im Wasserbecken. Verbinden Sie den<br />

Wandler mit dem ’E’-Anschluss der US-Box <strong>und</strong> die US-Box mit dem PC. Öffnen Sie das<br />

Matlab Skript ’start_v1.m’ <strong>und</strong> starten Sie es. Sie haben nun eine graphische Oberfläche,<br />

mit deren Hilfe Sie Daten aufnehmen können. Zuvor müssen Sie die US-Box initialisieren<br />

<strong>und</strong> die Abtastrate korrekt einstellen.<br />

In der graphischen Oberfläche haben Sie mehrere Abtastraten (’Samplerate’) <strong>für</strong> die Aufnahme<br />

des Signals zur Auswahl. Zusätzlich haben Sie das Datenblatt des Ultraschallwandlers<br />

erhalten. Betrachten Sie das Spektrum des Wandlers. Welche Abtastrate müssten Sie wählen,<br />

damit keine Informationen verlorengehen? Wählen Sie die maximal mögliche Abtastrate <strong>für</strong><br />

die weiteren Aufnahmen.<br />

Nehmen Sie ein Testsignal auf, indem Sie auf ’Aufnahme’ klicken. Zunächst wird das Signal<br />

über die Sample-Zahl dargestellt. Für einige <strong>Aufgabe</strong>n benötigen Sie jedoch die Darstellung<br />

über der Zeit. Berechnen Sie den korrekten Zeitabstand zwischen zwei Abtastwerten <strong>und</strong><br />

tragen Sie ihn im Textfeld ein.<br />

Wenn Sie das Ultraschallsignal vergrößert darstellen wollen, besteht die Möglichkeit des<br />

’Zoom’. Darüber hinaus ist es möglich, die Grenzen des vergrößerten Bereichs mit Hilfe des<br />

’Freeze’-Buttons zu speichern. Im Normalfall werden lediglich die Begrenzungen der x-Achse<br />

gespeichert. Wenn allerdings die Checkbox vor der Betätigung des ’Freeze’-Button aktiviert<br />

wird, werden zudem auch die Werte der y-Achse gespeichert. Eine erneute Betätigung des<br />

’Freeze’-Buttons setzt die Begrenzungen wieder auf ihren Ursprungswert zurück. Es ist zu<br />

beachten, dass vor einer erneuten Speicherung der Begrenzungen eine neue ’Zoom’-Auswahl<br />

zu treffen ist. Außerdem ist es nicht möglich, den Zeitabstand zu ändern, während der<br />

IT-V5 - 6


’Freeze’-Button aktiviert ist.<br />

<strong>Aufgabe</strong>n<br />

1. Reflexionskoeffizient<br />

Legen Sie nacheinander die drei Materialien unter den Schallwandler. Achten Sie<br />

darauf, dass sich die Oberfläche immer parallel zur Schallwandleroberfläche befindet.<br />

Warum muss dies gewährleistest sein? Machen Sie <strong>für</strong> jeden Gegenstand eine<br />

Aufnahme <strong>und</strong> speichern Sie das vergrößerte Ultraschallsignal ab.<br />

Nehmen Sie an, das Metallstück sei ein idealer Reflektor. Berechnen Sie nun die<br />

Reflexionskoeffizienten der beiden anderen Materialien.<br />

2. Schallgeschwindigkeitsmessung<br />

Legen Sie den Plexiglas-Block unter den Schallwandler. Bestimmen Sie aus dem aufgenommenen<br />

Echo-Signal die Schallgeschwindigkeit in Plexiglas.<br />

3. Fokussierung<br />

Im einleitenden Text wurde über die Fokussierung des Schallwandlers gesprochen.<br />

Diese soll nun anhand von Messungen betrachtet werden. Hierzu setzen Sie das Drahtphantom<br />

unter den Schallwandler. Machen Sie 8 Aufnahmen des Drahtes bei denen<br />

Sie den Abstand vom Schallwandler variieren. Beginnen Sie im Abstand von ca. einem<br />

Zentimeter <strong>und</strong> enden Sie bei etwa 8 cm.<br />

Bestimmen Sie die Maxima bei jeder Tiefe <strong>und</strong> deren Position [in mm]. Tragen Sie diese<br />

mit Matlab in einer Graphik gegeneinander auf. Bestimmen Sie hieraus die ungefähre<br />

Fokustiefe des Schallwandlers.<br />

4. Laterale Änderung<br />

Positionieren Sie das Drahtphantom, so dass es in etwa im Fokus liegt. Stellen Sie es<br />

so, dass sich der Draht senkrecht zur Bewegungsrichtung der Achse befindet. Bewegen<br />

Sie den Wandler in Millimeterschritten über den Draht <strong>und</strong> nehmen Sie das Signal<br />

auf. Speichern Sie alle Aufnahmen. Wiederholen Sie diese Aufnahme etwa 5mm oberhalb<br />

<strong>und</strong> 5mm unterhalb des Fokus. Diese Daten werden Sie im zweiten Versuchsteil<br />

auswerten.<br />

IT-V5 - 7


Literatur<br />

[1] B. Angelsen. Ultraso<strong>und</strong> Imaging: Waves, Signals, and Signal Processing, volume 1.<br />

John Wiley & Sons, 2000.<br />

[2] B. A. Auld. Acoustic Fields and Waves in Solids. John Wiley and Sons, 1973.<br />

[3] H. Kuttruff. Physik <strong>und</strong> Technik des Ultraschalls. S. Hirzel Verlag, 1988.<br />

[4] R. Millner. Ultraschalltechnik. Physik Verlag, 1987.<br />

[5] Kino. G. S. Acoustic Waves. Prentice Hall, 1987.<br />

[6] G. Schmitz. Ultraschall in der Medizin. Vorlesungsskript, Lehrstuhl <strong>für</strong> Medizintechnik,<br />

Ruhr-Universität Bochum.<br />

IT-V5 - 8


Versuch IT-V6: Ultraschallbildgebung -<br />

Signalverarbeitung<br />

Inhaltsverzeichnis<br />

1 Einleitung 2<br />

2 Gr<strong>und</strong>lagen 2<br />

2.1 Einhüllende . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2<br />

2.2 B-Bild . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4<br />

3 Vorbereitungsfragen 5<br />

4 Praktikumsaufgaben 6<br />

4.1 Demodulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />

4.2 B-Bild . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />

Literaturverzeichnis 8<br />

IT-V6 - 1


1 Einleitung<br />

Sie haben im vorherigen Versuch die Gr<strong>und</strong>lagen der Ultraschallphysik kennengelernt <strong>und</strong><br />

Aufnahmen gemacht, die nun in digitaler Form vorliegen. In der zerstörungsfreien Prüfung<br />

reicht häufig die Betrachtung des hochfrequenten Echos <strong>für</strong> eine Beurteilung des Materials<br />

aus. Um jedoch aus diesen Echodaten vollständige Ultraschallbilder zu generieren, wie<br />

Sie Ihnen beispielsweise aus medizinischen Anwendungen bekannt sind, ist eine weitere<br />

Signalverarbeitung notwendig. In diesem Versuch werden Sie einige gr<strong>und</strong>legende Aspekte<br />

dieser Verarbeitung kennenlernen <strong>und</strong> diese auf die zuvor gemessenen Daten anwenden.<br />

2 Gr<strong>und</strong>lagen<br />

2.1 Einhüllende<br />

Wie Sie gesehen haben, zeigen die Aufnahmen mit dem Einzelelementwandler ein amplitudenmoduliertes<br />

sinusförmiges Signal. Das aufmodulierte Signal ist die sogenannte Einhüllende.<br />

Wenn man das Echo darstellt, ist jede Reflektion als Wellenpaket zu sehen.<br />

Zur Darstellung der Echointensität soll nun die Einhüllende des Signals gebildet werden.<br />

Eine solche Darstellung einer einzelnen Linie wird als A-Scan (Amplitude Scan) bezeichnet<br />

(vergleiche Abbildung 1).<br />

x(t)<br />

Echo<br />

Bild 1: Echo mit Hüllkurve<br />

Die Form des Ultraschallpulses ist durch die Übertragungsfunktion des Schallwandlers <strong>und</strong><br />

den elektrischen Eingangsimpuls bestimmt. Betrachtet man das Spektrum des Pulses, so ist<br />

zu erkennen, dass es eine gewisse Bandbreite um die Mittenfrequenz des Schallwandlers hat.<br />

Es kann daher näherungsweise als bandbegrenzt angenommen werden. Das Signal wird zur<br />

weiteren Verarbeitung abgetastet. Aus diesem Signal x[n] soll nun die Einhüllende berechnet<br />

werden. Abbildung 2 zeigt das Spektrum des reellen Eingangssignals.<br />

Die komplexe Einhüllende ist das ins Basisband verschobene analytische Signal zu dem<br />

gemessenen reellen Signal. Das analytische Signal enthält nur positive Frequenzanteile. Man<br />

erhält das analytische Signal im Frequenzbereich X(Ω), indem nur der positive Frequenzanteil<br />

von X(Ω) betrachtet wird. Die Amplitude wird mit 2 multipliziert um die Signalenergie<br />

zu erhalten.<br />

IT-V6 - 2<br />

t


−ω 0<br />

−ω 0<br />

|X(ω)|<br />

ω 0<br />

Bild 2: Spektrum des reellen Messsignals<br />

X + ⎧<br />

⎨ X(Ω) Ω = 0<br />

(Ω) = 2X(Ω)<br />

⎩<br />

0<br />

0 < Ω < π<br />

−π < Ω < 0<br />

|X + (ω)|<br />

ω 0<br />

Bild 3: rechtsseitiges Spektrum des analytischen Signals<br />

Das Spektrum Xe der komplexen Einhüllenden entspricht diesem Spektrum, wenn es um ω0<br />

in Richtung Nullpunkt verschoben wird. Im Zeitbereich entspricht dies einer Multiplikation<br />

mit e −jω0t . In einer Hardware-Implementierung würde das Signal zur Vereinfachung in einen<br />

Sinus- <strong>und</strong> Kosinusanteil zerlegt, welche separat transformiert würden. Da hier die Berechnung<br />

mit Matlab durchgeführt wird, beschränken wir uns auf die komplexe Schreibweise.<br />

Die Frequenzverschiebung im Zeitbereich lautet also<br />

−2ω 0<br />

x BB(t) = x(t) · e −jω0t<br />

|X(ω-ω 0 )|<br />

ω s −2ω 0<br />

Bild 4: Verschiebung der Mittenfrequenz<br />

IT-V6 - 3<br />

ω<br />

ω<br />

ω s<br />

(1)<br />

(2)


Dieses Signal enthält jedoch noch die negativen Spektral-Anteile. Für das abgetastete Signal<br />

ergeben sich zusätzlich die durch periodische Wiederholung entstandenen Anteile (siehe<br />

Abbildung 4). Durch Filterung mit einem geeigneten Tiefpassfilter wird nur der gewünschte<br />

Anteil berücksichtigt:<br />

xe(t) = (2x(t)e −jω0t ) ∗ hT P (t) (3)<br />

Das Spektrum der komplexen Einhüllenden ist in Abbildung 5 dargestellt.<br />

Bild 5: Spektrum der Einhüllenden<br />

|2X e (ω-ω 0 )|<br />

Für die digitale Berechnung sind diese Zeitverläufe diskret. Der Tiefpassfilter wird durch<br />

einen diskreten FIR (finite impulse response) Filter mit den Koeffizienten hn realisiert.<br />

Real <strong>und</strong> Imaginärteil des analytischen Signals sind über die Hilberttransformation verb<strong>und</strong>en.<br />

Eine andere Möglichkeit, die Einhüllende zu bestimmen, ist direkt die Hilbert-<br />

Transformierte des Signals zu betrachten. Wenn das Signal x(t) als kosinusförmiges Trägersignal<br />

mit der Frequenz ω0 angesehen werden kann, welches mit einer Einhüllenden moduliert<br />

ist, die sich im Vergleich zu ω0 langsam verändert, so ist die Hilberttransformierte gerade<br />

der entsprechende Sinus.<br />

x(t) = A(t) · cos(ω0t) (4)<br />

ˆx(t) = HT {x(t)} = A(t) · sin(ω0t) (5)<br />

Die Addition von jˆx(t) zu x(t) ergibt gerade das analytische Signal. Die Einhüllende ergibt<br />

sich dann einfach aus dem Betrag dieses Signals.<br />

2.2 B-Bild<br />

x + (t) = A(t) · (cos(ω0t) + j sin(ω0t)) (6)<br />

= A(t)e jω0t<br />

xe(t) = |x + (t)| (8)<br />

Aus den hochfrequenten Daten erhält man mit den oben beschriebenen Methoden den<br />

Amplitudenverlauf einer einzelnen Linie. Um ein vollständiges 2-dimensionales Ultraschallbild<br />

zu erhalten, müssen nun mehrere A-Scans nacheinander durchgeführt werden. Das<br />

IT-V6 - 4<br />

ω<br />

(7)


Schallbündel wird hierbei verschoben, so dass nebeneinander liegende Linien aufgenommen<br />

werden. Jede einzelne Linie wird wie oben beschrieben demoduliert. Anschließend werden die<br />

Linien zu einem Gesamtbild zusammengefügt. Ein solches Bild wird als B-Bild bezeichnet. B<br />

steht hier <strong>für</strong> ’Brightness’. Im vorangegangenen Versuch wurde eine solche Aufnahme durch<br />

das Verschieben des Einzelelementwandlers realisiert.<br />

Für bildgebende Anwendungen bestehen Ultraschallwandler in der Regel aus einem Array<br />

von einzelnen Elementen. Mit dieser Anordnung kann die mechanische Verschiebung durch<br />

eine elektronische Verschiebung ersetzt werden: Die Einzelelemente werden in Gruppen<br />

zeitversetzt angeregt <strong>und</strong> so mehrere Linien aufgenommen. Abbildung 6 veranschaulicht<br />

das Prinzip.<br />

Einzel-<br />

Element-<br />

Wandler<br />

US-Wandler<br />

Scanrichtung<br />

3 Vorbereitungsfragen<br />

Bild 6: Ultraschallarray<br />

B-Bild<br />

Die folgenden Fragen sollen von Ihnen vor dem Praktikumstermin bearbeitet werden. Sie<br />

werden während des Kolloquiums danach gefragt. Die schriftliche Beantwortung ist zudem<br />

Teil der Ausarbeitung. Sie werden in diesem Praktikum selbständig Matlab Skripte<br />

schreiben. Hierzu benötigen Sie gr<strong>und</strong>legendes Wissen im Umgang mit dem Matlab Editor<br />

<strong>und</strong> der graphischen Ausgabe. Die speziellen Befehle, die im Praktikum benötigt werden,<br />

werden angegeben. Falls Sie über keinerlei Erfahrung in der Programmierung mit Matlab<br />

verfügen, lesen Sie sich zur Vorbereitung den Einführungstext durch, den Sie am Ende des<br />

letzten Versuchs erhalten haben. Zudem wird erwartet, dass Sie in der Lage sind die obenn<br />

beschriebenen Gr<strong>und</strong>lagen mit eigenen Worten wiederzugeben.<br />

IT-V6 - 5


1. Sie regen den Ultraschallwandler mit einem kurzen, breitbandigen elektrischen Impuls<br />

an. Wodurch ergibt sich das Spektrum des Signals?<br />

2. Mit welcher Frequenz muss das Signal demoduliert werden?<br />

3. Welchen Unterschied erwarten Sie zwischen der Hüllkurvendetektion mittels Hilbert-<br />

Transformation <strong>und</strong> mit Tiefpassfilterung?<br />

4. Welche Auswirkung hat die Anzahl der Filterkoeffizienten?<br />

4 Praktikumsaufgaben<br />

Einrichten des Setups<br />

Öffnen Sie das Matlab Skript ’start_v2.m’. Sie haben nun eine graphische Oberfläche<br />

vor sich, mit der Sie die Daten aus dem vorherigen Versuch laden können <strong>und</strong> sie im<br />

Frequenzbereich analysieren. Laden Sie zunächst den Datensatz der Metallplatte.<br />

Sie müssen nun den Frequenzbereich <strong>und</strong> die Länge der FFT richtig einstellen. Welches<br />

ist die maximale Frequenz? Welches ∆f ergibt sich hieraus? Tragen Sie den Wert in das<br />

Textfeld ein <strong>und</strong> klicken Sie dann auf ’Spektrum’.<br />

4.1 Demodulation<br />

1. Wie im Einleitungstext beschrieben müssen die Signale demoduliert werden, um das<br />

Ultraschallbild darzustellen. In diesem <strong>Aufgabe</strong>nteil soll dies implementiert werden.<br />

Gehen Sie dazu wie oben beschrieben vor. Verwenden Sie zur Realisierung des Filters<br />

die Matlab Funktion ’fir1’.<br />

2. Berechnen Sie das Filter <strong>für</strong> die Koeffizienten-Anzahlen 32, 64 <strong>und</strong> 128.<br />

3. Stellen Sie die Filter im Frequenzbereich dar. Beschriften Sie alle Achsen korrekt.<br />

Worin unterscheiden sich die Filter?<br />

4. Führen Sie die Demodulation mit Hilfe der Hilbert-Transformierten durch. Verwenden<br />

Sie hierzu die Matlab Funktion ’hilbert’. Beachten Sie, dass diese Funktion direkt<br />

das analytische Signal ausgibt! Vergleichen Sie das Ergebnis mit dem der gefilterten<br />

Demodulation <strong>für</strong> die höchste Koeffizientenzahl.<br />

4.2 B-Bild<br />

1. Führen Sie die Demodulation <strong>für</strong> alle Signale aus <strong>Aufgabe</strong> 4.4 des vorherigen Versuchs<br />

durch. Wählen sie als Variablenbezeichnung <strong>für</strong> das demodulierte Signal ’demod’.<br />

Speichern Sie die Ergebnisse <strong>für</strong> alle Aufnahmen ab.<br />

IT-V6 - 6


2. Sie sollen drei Bilder generieren, die jeweils die lateral verschobenen Linien nebeneinander<br />

darstellen. Mit Hilfe des Skripts ’erstelle Matrix’ können sie die einzelnen Linien<br />

aus mehreren Dateien in einer Matrix zusammenfassen. Schreiben Sie in Matlab ein<br />

Skript, mit dessen Hilfe Sie sich die Ergebnisse anzeigen lassen können. Skalieren Sie<br />

die x- <strong>und</strong> y-Achsen korrekt <strong>und</strong> beschriften Sie die einzelnen Bilder. Wählen Sie einen<br />

geeigneten Bildausschnitt <strong>und</strong> speichern Sie alle Bilder <strong>für</strong> Ihren Bericht ab.<br />

3. Sie haben nun je ein B-Bild <strong>für</strong> die verschiedenen Tiefen des Drahtes. Worin unterscheiden<br />

sich die Abbildungen des Drahtes? Erklären Sie die Unterschiede.<br />

IT-V6 - 7


Literatur<br />

[1] B. Angelsen. Ultraso<strong>und</strong> Imaging: Waves, Signals, and Signal Processing, volume 2.<br />

John Wiley and Sons, 2000.<br />

[2] A. Fettweis. Elemente nachrichtentechnischer Systeme. J. Schlembach Verlag, 2004.<br />

[3] H. G. Göckler. Digitale Signalverarbeitung. Vorlesungsskript, AG Digitale Signalverarbeitung,<br />

Ruhr-Universität Bochum.<br />

[4] H. G. Göckler. Signale <strong>und</strong> Systeme. Vorlesungsskript, AG Digitale Signalverarbeitung,<br />

Ruhr-Universität Bochum.<br />

IT-V6 - 8


Literatur<br />

[1] B. Angelsen. Ultraso<strong>und</strong> Imaging: Waves, Signals, and Signal Processing, volume 2.<br />

John Wiley and Sons, 2000.<br />

[2] A. Fettweis. Elemente nachrichtentechnischer Systeme. J. Schlembach Verlag, 2004.<br />

[3] H. G. Göckler. Digitale Signalverarbeitung. Vorlesungsskript, AG Digitale Signalverarbeitung,<br />

Ruhr-Universität Bochum.<br />

[4] H. G. Göckler. Signale <strong>und</strong> Systeme. Vorlesungsskript, AG Digitale Signalverarbeitung,<br />

Ruhr-Universität Bochum.<br />

IT-V6 - 8


Literatur<br />

[1] B. Angelsen. Ultraso<strong>und</strong> Imaging: Waves, Signals, and Signal Processing, volume 2.<br />

John Wiley and Sons, 2000.<br />

[2] A. Fettweis. Elemente nachrichtentechnischer Systeme. J. Schlembach Verlag, 2004.<br />

[3] H. G. Göckler. Digitale Signalverarbeitung. Vorlesungsskript, AG Digitale Signalverarbeitung,<br />

Ruhr-Universität Bochum.<br />

[4] H. G. Göckler. Signale <strong>und</strong> Systeme. Vorlesungsskript, AG Digitale Signalverarbeitung,<br />

Ruhr-Universität Bochum.<br />

IT-V6 - 8


EP h f)<br />

λ <br />

<br />

EP h = h · f <br />

c = λ · f <br />

c h <br />

h = 6,626 · 10 −34


Bandlücke (E g )<br />

Leitungsband (LB)<br />

Valenzband (VB)


Optische Ausgangsleistung<br />

Vorwiegend spontane<br />

Emission<br />

Vorwiegend stimulierte<br />

Emission<br />

Diodenstrom


Schutzschicht<br />

Mantel (n 2 )<br />

Kern (n 1 )


α max<br />

θ c<br />

<br />

<br />

<br />

<br />

<br />

<br />

Θc <br />

<br />

<br />

<br />

<br />

n1 < n2<br />

Θc = arcsin( n2<br />

n1<br />

θ c<br />

n 2<br />

n 1<br />

<br />

) <br />

<br />

<br />

<br />

= n · sin(αmax) <br />

<br />

n ≈ 1 αmax <br />

nLuft ≈ 1


F<br />

α<br />

Linse Faser<br />

f<br />

<br />

<br />

1<br />

sin(αmax) = n1 · sin(90 − Θc) <br />

1<br />

· sin(αmax) = cos(Θc) <br />

n2 · sin<br />

1<br />

2 (αmax) = cos 2 (Θc) = 1 − sin 2 (Θc) = 1 − n22 n2 1<br />

n1<br />

sin 2 (αmax) =<br />

<br />

<br />

n2 1 − n2 2 = <br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

α


optimal Faser zu tief in Halterung Faserende verschmutzt<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

• <br />

• <br />

• <br />


Laserdiode<br />

Glasfaser<br />

<br />

Photodiode<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

V


n1 = 1,48 n2 = 1,46 <br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

Θc n1 sin(Θ1) =<br />

n2 sin(Θ2)


Versuch IT-V8: Amplitudenmodulation<br />

Inhaltsverzeichnis<br />

1 Einleitung 2<br />

2 Gr<strong>und</strong>lagen der Amplitudenmodulation 3<br />

3 Verschiedene Formen der Amplitudenmodulation 8<br />

3.1 Zweiseitenbandmodulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

3.2 Zweiseitenbandmodulation mit unterdrücktem Träger . . . . . . . . . . . . . 9<br />

3.3 Einseitenbandmodulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />

4 Übertragungseigenschaften von Systemen 14<br />

5 Kurzwellenausbreitung 17<br />

6 <strong>Aufgabe</strong>n 18<br />

Literaturverzeichnis 28<br />

IT-V8 - 1


1 Einleitung<br />

Die möglichst verzerrungs- <strong>und</strong> störungsfreie Übermittlung verschiedenartiger Signale von<br />

einem Ort zum anderen ist eine der Hauptaufgaben, mit denen man sich in der Nachrichtentechnik<br />

beschäftigt. Dieser Übermittlung von Signalen begegnet man täglich, z.B. beim<br />

Telefonieren, Fernsehen oder Radiohören.<br />

Die Übermittlung der Signale geschieht durch Übertragungskanäle, die von sehr verschiedenartiger<br />

Beschaffenheit sein können. Kabel, Hohlleiter oder der freie Raum können solche<br />

Übertragungskanäle bilden.<br />

Häufig ist es so, dass sich das Signal in seiner ursprünglichen Form gar nicht <strong>für</strong> die<br />

direkte Übertragung eignet. Nimmt man z.B. ein Telefonsignal, dessen Frequenzspektrum<br />

zwischen 300 Hz <strong>und</strong> 3,4 kHz liegt, so lässt sich dieses Signal über eine Paralleldrahtleitung<br />

direkt übertragen; wollte man aber dieses Signal über eine Antenne abstrahlen, so müsste<br />

diese Antenne eine Länge von etwa 1000 km haben, wenn die niedrigste Frequenz noch mit<br />

einem vernünftigen Wirkungsgrad abgestrahlt werden sollte. Eine <strong>Aufgabe</strong> der Modulation<br />

ist es also, eine Nachricht durch Frequenzverschiebung übertragbar zu machen.<br />

Die Bandbreite der Übertragungskanäle ist im Allgemeinen viel größer als die <strong>für</strong> die<br />

Übertragung eines Signals notwendige Bandbreite. Es ist nämlich in den meisten Fällen<br />

möglich, Signale, die ein unendliches Frequenzspektrum haben, in ihrer Bandbreite zu<br />

begrenzen, ohne dass ein unangemessener Informationsverlust auftritt.<br />

Eine weitere <strong>Aufgabe</strong> der Modulation ist es also, das Frequenzspektrum unterschiedlicher<br />

Signale so zu verschieben, dass eine optimale Ausnutzung eines Übertragungskanals möglich<br />

ist. Die verschobenen Frequenzspektren dürfen sich dabei nicht überlappen, da die ursprünglichen<br />

Signale sonst nicht mehr zurückgewonnen werden können. Ein entsprechendes System<br />

nennt man Frequenzmultiplexsystem.<br />

Auf eine weitere Möglichkeit mehrere Signale in einem Kanal zu übertragen, das Zeitmultiplexsystem,<br />

wollen wir hier nicht näher eingehen.<br />

2 Gr<strong>und</strong>lagen der Amplitudenmodulation<br />

Um das Prinzip der Amplitudenmodulation zu verstehen, betrachten wir den Fall, dass wir<br />

ein Nachrichtensignal f(t), mit f(t) reell, übermitteln wollen. Die Funktion cos(Ωt) ist der<br />

Träger. Durch die Multiplikation des Trägers mit [A + f(t)], wobei A ein Gleichanteil ist,<br />

erhält man folgendes Signal:<br />

s(t) = [A + f(t)] cos(Ωt) . (1)<br />

Das Frequenzspektrum des Signals f(t) erhalten wir durch die Fourier-Transformation<br />

∞<br />

F(jω) = F{f(t)} = f(t)e −jωt dt . (2)<br />

Das Signal f(t) im Zeitbereich hat also im Frequenzbereich das Spektrum F(jω).<br />

Bild 1 zeigt beispielhaft das Frequenzspektrum F(jω), wenn angenommen wird, dass<br />

F(jω) derart bandbegrenzt ist, dass <strong>für</strong> alle Frequenzen größer als ωm keine Spektralanteile<br />

vorhanden sind. Da <strong>für</strong> die Fourier-Transformierte F(jω) eines reellen Signals f(t)<br />

−∞<br />

IT-V8 - 2


ekanntlich<br />

−ωm<br />

F(jω)<br />

ωm<br />

Bild 1: Spektrum eines tiefpassbegrenzten Signals<br />

ω<br />

F(jω) = F ∗ (−jω) (3)<br />

gilt, folgt <strong>für</strong> die Transformation in den Zeitbereich<br />

f(t) = 1<br />

∞<br />

F(jω)e<br />

2π<br />

jωt dω = 1<br />

∞<br />

Re{F(jω)e<br />

π<br />

jωt }dω . (4)<br />

−∞<br />

Das Signal f(t) lässt sich somit aus dem Halbspektrum <strong>für</strong> positive oder negative Frequenzen<br />

herleiten. Die vollständige Information ist also in jedem Halbspektrum enthalten.<br />

Bestimmen wir nun das Spektrum des amplitudenmodulierten Signals s(t)<br />

0<br />

S(jω) = F{[A + f(t)] cos(Ωt)} . (5)<br />

Berücksichtigt man die Fourier-Transformierte einer Konstanten,<br />

A ◦−−• A 2πδ(ω) , (6)<br />

die Darstellung der Kosinusfunktion als Summe zweier Exponentialfunktionen,<br />

sowie die Regel von der Frequenzverschiebung,<br />

cos(Ωt) = 1 <br />

jΩt −jΩt<br />

e + e<br />

2<br />

, (7)<br />

x(t) ◦−−•X(jω) ⇐⇒ x(t)e jΩt ◦−−• X(jω − jΩ) , (8)<br />

so erhält man die Fourier-Transformierte<br />

S(jω) = πA [δ(ω − Ω) + δ(ω + Ω)] + 1<br />

[F(jω − jΩ) + F(jω + jΩ)] . (9)<br />

2<br />

S(jω) enthält also u.a. das Frequenzspektrum von f(t), welches aber um +Ω bzw.<br />

−Ω verschoben ist. Das geforderte Ziel, das Frequenzspektrum zu verschieben, wird also<br />

durch eine Multiplikation von Signal <strong>und</strong> Träger erreicht. Den Bereich Ω − ωm ≤ ω < Ω<br />

bei positiven Frequenzen nennt man unteres Seitenband, <strong>und</strong> den Bereich Ω < ω ≤ Ω + ωm<br />

oberes Seitenband. Der δ-Impuls bei ω = Ω ist durch die Trägerschwingung verursacht. Das<br />

ursprüngliche Signalhalbspektrum bei positiven Frequenzen ist jetzt das obere Seitenband<br />

<strong>und</strong> das ursprüngliche Signalhalbspektrum bei negativen Frequenzen das untere Seitenband,<br />

IT-V8 - 3


S(jω)<br />

Kehrlage<br />

Träger<br />

Regellage<br />

unteres oberes<br />

Seitenband<br />

Seitenband<br />

−Ω Ω<br />

−Ω − ωm −Ω + ωm Ω − ωm Ω + ωm<br />

Bild 2: Spektrum eines AM-Signals<br />

welches sich in Kehrlage befindet. Wie dem Bild 2 zu entnehmen ist, gilt spiegelbildlich <strong>für</strong><br />

negative Frequenzen dasselbe.<br />

Um den Träger zu unterdrücken, kann man in der Gleichung (9) noch A = 0 setzen.<br />

Ferner ist die Information, welche f(t) beinhaltet, in jedem Seitenband enthalten. Um die<br />

gewünschte Nachricht zu übertragen, hat man also die Möglichkeit entweder zwei Seitenbänder<br />

oder nur ein Seitenband zu senden. Die drei wichtigsten Modulationsarten bezeichnen<br />

wir als<br />

• Zweiseitenbandmodulation mit Träger,<br />

• Zweiseitenbandmodulation mit unterdrücktem Träger <strong>und</strong><br />

• Einseitenbandmodulation mit unterdrücktem Träger.<br />

Erstere stellt den allgemeinsten Fall eines amplitudenmodulierten Signals dar. Die beiden<br />

anderen Arten entstehen aus ihm jeweils durch Weglassen von Spektralanteilen.<br />

Zur Erläuterung der gef<strong>und</strong>enen Eigenschaften, betrachten wir nun das spezielle Signal<br />

f(t) = a cos(ω0t) ◦−−•F(jω) = aπ [δ(ω − ω0) + δ(ω + ω0)] .<br />

Aus (1) erhält man <strong>für</strong> das amplitudenmodulierte Signal<br />

s(t) = [A + a cos(ω0t)] cos(Ωt) = A cos(Ωt) + a<br />

2 cos(Ω + ω0)t + a<br />

2 cos(Ω − ω0)t (10)<br />

bzw. dessen Fourier-Transformierte<br />

S(jω) = Aπ [δ(ω − Ω) + δ(ω + Ω)] + a<br />

2 π [δ(ω − [Ω + ω0]) + δ(ω + [Ω + ω0])]<br />

+ a<br />

2 π [δ(ω − [Ω − ω0]) + δ(ω + [Ω − ω0])] .<br />

Es wird deutlich, dass wir das Signal f(t) um die Frequenz +Ω bzw. −Ω verschoben<br />

haben. Der zeitliche Verlauf <strong>und</strong> der Frequenzverlauf des resultierenden Signals s(t) sind<br />

in den Bildern 3 <strong>und</strong> 4 dargestellt. Der Signalanteil cos([Ω + ω0]t) befindet sich im oberen<br />

Seitenband <strong>und</strong> cos([Ω −ω0]t) befindet sich im unteren Seitenband. Das Verhältnis m = a/A<br />

bezeichnet man als den Modulationsgrad.<br />

IT-V8 - 4<br />

ω<br />

(11)


A + a<br />

1<br />

A + a<br />

A<br />

s(t)<br />

A + a cos(ω0t)<br />

Bild 3: AM-Signal im Zeitbereich<br />

S(jω)<br />

Aπδ(ω + Ω) Aπδ(ω − Ω)<br />

−Ω<br />

−Ω − ω0 −Ω + ω0<br />

Ω − ω0<br />

Ω Ω + ω0<br />

Bild 4: AM-Signal im Frequenzbereich<br />

cos(Ωt)<br />

Zur Ergänzung sei an dieser Stelle Folgendes bemerkt: Bei den obigen Betrachtungen zur<br />

Amplitudenmodulation wurde stets von einem Nachrichtensignal f(t) gesprochen, mit dem<br />

ein Träger moduliert wird <strong>und</strong> das eine gewisse Information enthält. Vom nachrichtentechnischen<br />

Standpunkt aus gesehen ist also eine Modulation mit einem Signal f(t) = a cos(ω0t)<br />

IT-V8 - 5<br />

t<br />

t<br />

ω


völlig wertlos, da ein solches Signal, dessen gesamter zeitlicher Verlauf vorhersagbar ist,<br />

keine Information beinhaltet.<br />

Wir haben bisher als Träger die Funktion cos(Ωt) benutzt. Da sich jede periodische<br />

reelle Funktion als eine Linearkombination von Sinus- <strong>und</strong> Kosinusfunktionen darstellen<br />

lässt, können wir unsere Ergebnisse mit einem allgemeiner definierten, periodischen Träger<br />

erweitern. Wir stellen diesen Träger p(t) als eine Linearkombination von Exponentialfunktionen<br />

exp(jnΩt) – also als Fourier-Reihe – dar<br />

mit<br />

p(t) =<br />

pn = 1<br />

T<br />

T/2<br />

∞<br />

n=−∞<br />

−T/2<br />

pne jnΩt<br />

(12)<br />

p(t)e −jnΩt dt . (13)<br />

Betrachten wir nun ein allgemeines Signal f(t), das diesen Träger moduliert<br />

s(t) = [A + f(t)]p(t) = [A + f(t)]<br />

∞<br />

n=−∞<br />

pne jnΩt . (14)<br />

Aufgr<strong>und</strong> der Beziehung (8) besteht das Spektrum S(jω) dieses Signals s(t) aus den um nΩ<br />

mit n ∈ Z verschobenen Spektren von A + f(t)<br />

S(jω) =<br />

∞<br />

n=−∞<br />

2Aπpnδ(ω − nΩ) + pnF(jω − jnΩ) . (15)<br />

Wie in Gl.(15) zu erkennen ist, können wir jetzt durch die geeignete Wahl des Trägers p(t)<br />

das Spektrum S(jω) verändern. So geht <strong>für</strong><br />

<br />

1/2 <strong>für</strong> n = ±1<br />

pn =<br />

0 sonst<br />

die Gleichung (15) in (9) über, d.h., wir erhalten durch Herausfiltern aller unerwünschten<br />

Frequenzanteile ein normales amplitudenmoduliertes Signal, siehe Bild 2. Andererseits ist<br />

es durch die Wahl eines allgemeineren Trägers wie in Gleichung (12) möglich, die technische<br />

Realisierung von Modulatoren zu vereinfachen. Diesen Aspekt werden wir im nächsten<br />

Abschnitt noch etwas genauer kennenlernen.<br />

3 Verschiedene Formen der Amplitudenmodulation<br />

3.1 Zweiseitenbandmodulation<br />

Modulation<br />

Um ein Frequenzspektrum S(jω) gemäß der Gleichung (9) zu erhalten, muss die Multiplikation<br />

zwischen Träger <strong>und</strong> Signal verwirklicht werden. Eine Möglichkeit zeigt Bild 5. Das Signal<br />

IT-V8 - 6


e(t) <strong>und</strong> der Träger A cos(Ωt) werden zunächst addiert. Durch die nichtlineare Kennlinie der<br />

Diode enthält u0(t) unter anderem das gewünschte Produkt, wie wir im Folgenden zeigen<br />

werden.<br />

Für die Diode gilt<br />

<br />

i(t) = IS e uD(t)/UT<br />

<br />

<br />

uD(t)<br />

− 1 = IS +<br />

UT<br />

1<br />

<br />

2<br />

uD(t)<br />

+ . . . , (16)<br />

2 UT<br />

wobei UT die Temperaturspannung <strong>und</strong> IS der Sperrsättigungsstrom ist. Berücksichtigt man<br />

nur die ersten zwei Terme der Potenzreihe, so ergibt sich näherungsweise <strong>für</strong> u0(t)<br />

<br />

uD(t)<br />

u0(t) = Ri(t) ≈ RIS + 1<br />

<br />

2<br />

uD(t)<br />

. (17)<br />

2<br />

e(t)<br />

A cos(Ωt)<br />

i(t)<br />

UT<br />

uD(t)<br />

D<br />

R<br />

UT<br />

u0(t)<br />

Bild 5: Erzeugung von Modulationsprodukten mit einer Diode<br />

Ist der Widerstand R sehr klein, gilt also uD(t) ≈ A cos(Ωt) + e(t), so erhält man mit<br />

dieser Approximation <strong>für</strong> u0(t):<br />

u0(t) = RIS<br />

UT<br />

= RIS<br />

UT<br />

[A cos(Ωt) + e(t)] + RIS<br />

2U2 [A cos(Ωt) + e(t)]<br />

T<br />

2<br />

A cos(Ωt) + RIS<br />

e(t) +<br />

UT<br />

RISA 2<br />

4U 2 T<br />

[1 + cos(2Ωt)] + RIS<br />

2U 2 T<br />

e 2 (t) + RIS<br />

U2 Ae(t) cos(Ωt) .<br />

T<br />

In der Ausgangsspannung ist also, verursacht durch die Nichtlinearität der Diodenkennlinie,<br />

das gewünschte Produkt enthalten (unterstrichen), vgl. Gleichung (1).<br />

Wird in der Gleichung (16) die Potenzreihe weiter fortgesetzt, so erhält man noch<br />

weitere Anteile <strong>für</strong> u0(t). Um nur die Trägerschwingung Ω <strong>und</strong> die beiden Seitenbänder<br />

zu bekommen, wird dem Modulator ein Bandpass nachgeschaltet. Unter der Voraussetzung,<br />

dass Ω > 3ωm <strong>und</strong> ωm die Grenzfrequenz von e(t) ist, erhalten wir eine Ausgangsspannung<br />

u0(t) mit einem Spektrum U(jω), welches dem im Bild 2 gezeigten Spektrum entspricht.<br />

Allgemein sind folgende Schritte zur Modulation mit einer nichtlinearen Kennlinie notwendig:<br />

1. Überlagerung von Signalspannung (z.B. Sprache) <strong>und</strong> Trägerspannung.<br />

2. Aussteuerung einer nichtlinearen Kennlinie.<br />

3. Entfernen unerwünschter Modulationsprodukte durch Bandpassfilterung.<br />

Als nichtlineare Kennlinie kann außer der Strom-Spannungs-Kennlinie der Diode z. B. auch<br />

die Steuerkennlinie eines Transistors oder einer Röhre verwendet werden.<br />

IT-V8 - 7


Demodulation<br />

Die Demodulation eines amplitudenmodulierten Signals mit Träger erfolgt am einfachsten<br />

durch eine Hüllkurvendetektion. Dieses Verfahren nutzt aus, dass das AM-Signal die Trägerschwingung<br />

beinhaltet <strong>und</strong> ist in der R<strong>und</strong>funktechnik weit verbreitet (hier gilt Ω ≫ ωm).<br />

Die Gleichrichtung des AM-Signals an einer Diode entspricht der Multiplikation mit<br />

einem Rechtecksignal, das mit der Frequenz der Trägerschwingung die Werte 1 <strong>und</strong> 0<br />

annimmt. Das Produktsignal enthält dann wieder Spektralanteile im Bereich |ω| < ωm,<br />

also dort, wo das Spektrum des modulierenden Signals e(t) lag. Durch einen geeigneten<br />

Bandpass werden die höheren Frequenzen <strong>und</strong> die Gleichspannung (verschobener Träger)<br />

ausgefiltert, so dass nur noch das niederfrequente Nutzsignal übrig bleibt, siehe u2(t) im<br />

Bild 6. Damit das Signal nicht verzerrt wird, muss der Modulationsgrad m ≤ 1 sein.<br />

D<br />

u1(t)<br />

u2(t)<br />

Hochfrequenzunterdrückung<br />

u1(t) u2(t)<br />

C1<br />

R1<br />

C2<br />

Gleichspannungsunterdrückung<br />

T<br />

2<br />

T t<br />

Bild 6: Schaltung zur Demodulation durch Gleichrichtung (auch Spitzen- bzw. Hüllkurvengleichrichtung<br />

genannt)<br />

IT-V8 - 8<br />

R2<br />

t


3.2 Zweiseitenbandmodulation mit unterdrücktem Träger<br />

Im Abschnitt 3.1 haben wir den Fall behandelt, dass der Träger <strong>und</strong> die beiden Seitenbänder<br />

übertragen werden, obwohl der Träger keinen Informationsgehalt hat. Nachteilig dabei ist,<br />

dass der Träger den größten Teil der Sendeleistung verbraucht. Selbst bei einem Modulationsgrad<br />

von m = 1 muss 66 % der Gesamtleistung als Trägerleistung aufgebracht werden.<br />

Wenn der Träger unterdrückt wird 1 , muss er im Empfänger künstlich wiederhergestellt<br />

werden, wenn Hüllkurvendetektion verwendet werden soll.<br />

Modulation<br />

Um den Träger zu unterdrücken, ist es nicht zweckmäßig eine Bandsperre zu nehmen, die bei<br />

der Trägerfrequenz sperrt. Sie müsste sehr schmal sein, um keine benachbarten Frequenzen<br />

zu stören. Meistens verwendet man Modulatoren, welche den Träger bereits unmittelbar<br />

unterdrücken, d.h., die Größe A aus der Gleichung (15) tritt nicht auf.<br />

e(t)<br />

R<br />

S<br />

u0(t)<br />

Bild 7: Modulation mit einem Rechtecksignal<br />

Eine einfache Schaltung zeigt Bild 7. Der Träger wird hierbei durch eine Rechteckfunktion<br />

beschrieben, die sich dadurch ergibt, dass der Schalter S periodisch geschlossen <strong>und</strong><br />

geöffnet wird. Gemäß den Gleichungen (12) <strong>und</strong> (13) ergibt sich <strong>für</strong> den Träger<br />

∞<br />

p(t) = pne<br />

n=−∞<br />

jnΩt ⎧<br />

⎨ 1/2 <strong>für</strong> n = 0<br />

mit pn = 1/[jnπ] <strong>für</strong> n ungerade<br />

⎩<br />

0 <strong>für</strong> n gerade<br />

bzw.<br />

p(t) = 1<br />

<br />

2<br />

+ sin(Ωt) +<br />

2 π<br />

1<br />

<br />

1<br />

sin(3Ωt) + sin(5Ωt) + . . .<br />

3 5<br />

. (18)<br />

Um zu verdeutlichen, was der Modulator nach Bild 7 bewirkt, setzen wir e(t) = a cos(ω0t).<br />

Damit ergibt sich <strong>für</strong> die Ausgangsspannung<br />

u0(t) = p(t)e(t) = a<br />

2 cos(ω0t) + a<br />

π [sin(Ω + ω0)t + sin(Ω − ω0)t] + . . .<br />

1 In der angelsächsischen Literatur verwendet man <strong>für</strong> die Zweiseitenbandmodulation mit unterdrücktem<br />

Träger das Akronym "‘DSB"’ (Double Side Band).<br />

IT-V8 - 9


Die Ausgangsspannung enthält keine sinusförmigen Funktionen mit den Frequenzen nΩ,<br />

also Vielfache der Gr<strong>und</strong>schwingung Ω des Rechteckträgers. Durch ein geeignetes Filter<br />

lassen sich nun z.B. die Anteile a [sin(Ω + ω0)t + sin(Ω − ω0)t] /π herausfiltern. Wie man<br />

aus einem Vergleich dieses Ergebnisses mit Gleichung (10) sowie den Bildern 3 <strong>und</strong> 4<br />

feststellt, entspricht dies einer Übertragung der beiden Seitenbänder mit unterdrücktem<br />

Träger. Um zu verdeutlichen, dass der Modulator im Bild 7 den Träger p(t) <strong>und</strong> das Signal<br />

1<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

p(t)<br />

e(t)<br />

u0(t)<br />

T 2T 3T 4T 5T 6T<br />

Bild 8: Modulation eines Rechteckträgers mit einem beliebigen Signal e(t)<br />

e(t) multipliziert, betrachten wir ein allgemeines Signal im Bild 8. Man erkennt hier, dass<br />

u0(t) = p(t)e(t) ist.<br />

Das Frequenzspektrum eines mit einem bandbegrenzten Signal e(t) modulierten Rechteckträgers<br />

ergibt sich aus den Gleichungen (15) <strong>und</strong> (18).<br />

Wie im Bild 9 zu erkennen ist, enthält das Spektrum noch Anteile die nicht gebraucht<br />

werden. Die benötigten Spektralanteile, z. B. E(jω − jΩ) <strong>und</strong> E(jω + jΩ), können durch<br />

einen Bandpass ausgefiltert werden. Das auf diese Weise erhaltene amplitudenmodulierte<br />

Signal sei s2(t).<br />

IT-V8 - 10<br />

t<br />

t<br />

t


U0(jω)<br />

Spektrum <strong>für</strong> DSB<br />

−3Ω −Ω −ωm 0 ωm Ω 3Ω<br />

−Ω − ωm −Ω + ωm Ω − ωm Ω + ωm<br />

Demodulation<br />

Bild 9: Spektrum U0(jω) des Signals u0(t) = p(t)e(t)<br />

Enthält das AM-Signal keinen Träger, so ist eine Demodulation durch Hüllkurvendetektion<br />

nicht möglich. Wie im Bild 10 dargestellt, kann das ursprüngliche Signalspektrum aber<br />

dadurch zurückgewonnen werden, dass man das amplitudenmodulierte Signal s2(t) zunächst<br />

noch einmal mit<br />

p(t) =<br />

∞<br />

n=−∞<br />

pne jnΩt<br />

multipliziert <strong>und</strong> anschließend mit einem Tiefpass filtert. Der Träger muss also im Empfänger<br />

generiert werden. Man bezeichnet dieses Verfahren als synchrone Demodulation. Das<br />

erhaltene Signal s3(t) enthält wiederum die verschobenen Spektralanteile<br />

∞<br />

n=−∞<br />

pnS2(jω − jnΩ) =<br />

∞<br />

n=−∞<br />

qnE(jω − jnΩ).<br />

Der im Bild 10 eingefügte Tiefpass hat eine Grenzfrequenz ωm < ωg < Ω − ωm, so dass <strong>für</strong><br />

alle |ω| > ωg die Ausgangsspannung Null wird. Auf diese Weise wird erreicht, dass das<br />

ursprüngliche, nur in seiner Amplitude veränderte Signalspektrum wiedergewonnen wird.<br />

Die synchrone Demodulation ist nicht unkritisch, denn die Frequenz <strong>und</strong> die Phasenlage des<br />

Trägers muss im Empfänger sehr genau nachgebildet werden, sonst kommt es zu signalverfälschenden<br />

Effekten.<br />

s2(t)<br />

p(t)<br />

s3(t)<br />

Tiefpass<br />

Bild 10: Demodulation eines AM-Signals<br />

IT-V8 - 11<br />

e ′ (t)<br />

ω


3.3 Einseitenbandmodulation<br />

Je mehr Nachrichten übertragen werden, um so größer ist der Bedarf an Bandbreite. Die<br />

erforderliche Bandbreite <strong>für</strong> eine Information wird durch die höchste darin vorkommende<br />

Frequenz <strong>und</strong> durch die Modulationsart bestimmt. Erstere liegt jedoch meist fest, daher<br />

kann Bandbreite nur durch ein geeignetes Modulationsverfahren eingespart werden. Dies ist<br />

z. B. die Einseitenbandmodulation 2 . Hierbei wird nur ein Seitenband übertragen, wobei der<br />

Träger entweder vollständig, mit verringerter Amplitude oder überhaupt nicht mitgesendet<br />

wird. Es wird also auf red<strong>und</strong>ante Anteile des Frequenzspektrums verzichtet. Der Bedarf an<br />

Bandbreite ist gegenüber der Zweiseitenbandmodulation um die Hälfte gesunken. Um ein<br />

SSB-Signal zu erzeugen gibt es zwei Methoden:<br />

1. Filtermethode: Eines der beiden Seitenbänder wird herausgefiltert.<br />

2. Phasenmethode: Ein Seitenband wird durch eine Phasendrehung <strong>und</strong> Addition ausgelöscht.<br />

Allerdings wird in diesem Praktikum nicht auf das letztgenannte Verfahren eingegangen.<br />

Modulation <strong>und</strong> Demodulation sind identisch wie bei der Zweiseitenbandmodulation<br />

ohne Träger. Für beide Arten der Amplitudenmodulation lässt sich ein gemeinsames Signalflussbild,<br />

welches im Bild 11 dargestellt ist, <strong>für</strong> den gesamten Signalweg angeben. Lediglich<br />

der verwendete Bandpass bestimmt, welche Modulationsart vorliegt. Es wird im Übrigen<br />

von einer störungsfreien Übertragung über den Kanal ausgegangen.<br />

e(t) e ′ s1(t) s2(t)<br />

Übertra-<br />

s2(t) s3(t)<br />

Modulator Bandpass<br />

De-<br />

Tiefpass (t)<br />

Modulator<br />

gungskanal<br />

Bild 11: Modulation, Übertragung <strong>und</strong> Demodulation eines Signals<br />

4 Übertragungseigenschaften von Systemen<br />

Ein nachrichtentechnisches Übertragungssystem kann, egal ob es sich um eine Kabelverbindung<br />

oder eine Antennenübertragung handelt, durch seine Übertragungsfunktion H(jω)<br />

beschrieben werden, siehe Bild 12.<br />

x(t) H(jω) y(t)<br />

Bild 12: Übertragungssystem mit Eingangssignal x(t) <strong>und</strong> Ausgangssignal y(t)<br />

2 In der angelsächsischen Literatur wird als Akronym "‘SSB"’ (Single Side Band) verwendet.<br />

IT-V8 - 12


Von besonderer Bedeutung ist die Darstellung von H(jω) in der Form<br />

H(jω) = e −Γ(jω) = e −A(ω)−jB(ω) = |H(jω)|e −jB(ω) , (19)<br />

wobei man A als die Dämpfung <strong>und</strong> B als die Phase des Systems bezeichnet.<br />

Im Folgenden soll untersucht werden, welchen Einfluss der Phasenverlauf bei konstanter<br />

Dämpfung auf die Übertragungseigenschaften des Systems hat. Wir wollen da<strong>für</strong> als<br />

Eingangssignal x(t) ein amplitudenmoduliertes Signal mit Träger annehmen.<br />

Übertragungssysteme, die eine verzerrungsfreie Übertragung ermöglichen, haben u.a.<br />

einen linearen Phasenverlauf. Handelt es sich bei diesen Übertragungssystemen um Filter,<br />

die nur ein begrenztes Frequenzspektrum passieren lassen, so braucht die lineare Phase, wie<br />

es im Bild 13 veranschaulicht wird, nur im Durchlassbereich des Filters gefordert zu werden.<br />

−Ω − ωS −Ω −Ω + ωS<br />

B0<br />

B(ω)<br />

−B0<br />

Ω − ωS Ω Ω + ωS ω<br />

Bild 13: Phasenverlauf eines Übertragungssystems mit linearer Phase im relevanten Bereich<br />

Da wir nur reelle Systeme betrachten wollen <strong>und</strong> <strong>für</strong> diese Systeme<br />

H(jω) = H ∗ (−jω) (20)<br />

gilt, vgl. Gleichung (3), muss die Phase eine ungerade Funktion der Frequenz ω sein, d.h.,<br />

Ein linearer Phasenverlauf lässt sich also als<br />

<br />

B0 + ωt0 <strong>für</strong> ω > 0<br />

B(ω) =<br />

−B0 + ωt0 <strong>für</strong> ω < 0<br />

schreiben.<br />

Betrachten wir nun ein allgemeines AM–Signal x(t) mit<br />

B(ω) = −B(−ω) . (21)<br />

(22)<br />

x(t) = [A + f(t)] cos(Ωt) , (23)<br />

IT-V8 - 13


wobei f(t) gemäß Bild 1 tiefpassbegrenzt ist. Für die Fourier-Transformierte X(jω) dieses<br />

Signals erhält man gemäß der Gleichung (9)<br />

X(jω) = πA [δ(ω − Ω) + δ(ω + Ω)] + 1<br />

[F(jω − jΩ) + F(jω + jΩ)] (24)<br />

2<br />

<strong>und</strong> das Ausgangssignal des Übertragungssystems lautet<br />

y(t) = F −1 {X(jω)e −jB(ω) } , (25)<br />

wenn |H(jω)| = e−A(ω) = 1 gesetzt wird. Setzt man nun Gleichung (24) in Gleichung (25)<br />

ein <strong>und</strong> nimmt eine lineare Phase des Übertragungssystems gemäß Gleichung (22) an, so<br />

erhält man<br />

Y (jω) = 1<br />

2 F(jω − jΩ) e−jB0−jωt0 1<br />

+ F(jω + jΩ) e+jB0−jωt0<br />

2 (26)<br />

+ πA δ(ω − Ω) e −jB0−jΩt0 + πA δ(ω + Ω) e +jB0+jΩt0 ,<br />

wobei noch die Ausblendeigenschaft der δ-Funktion verwendet wurde. Wegen<br />

folgt daraus<br />

<strong>und</strong> schließlich<br />

f(t − t0) e jΩ[t−t0] ◦−−•F(jω − jΩ) e −jωt0 (27)<br />

y(t) = 1<br />

2 f(t − t0) e jΩ[t−t0]−jB0 + 1<br />

2 f(t − t0) e −jΩ[t−t0]+jB0<br />

+ A<br />

2 ejΩ[t−t0]−jB0 + A<br />

2 e−jΩ[t−t0]+jB0<br />

<br />

y(t) = [A + f(t − t0)] cos Ω t − t0 − B0<br />

<br />

Ω<br />

(28)<br />

. (29)<br />

Wie sich herausstellt, erscheint die Einhüllende des AM–Signal am Ausgang des Übertragungssystems<br />

um die Zeit t0 verzögert, während der Träger cos(Ωt) um die Zeit t0 + B0/Ω<br />

verzögert wird.<br />

Benutzt man die Definitionen <strong>für</strong> die Phasen- <strong>und</strong> die Gruppenlaufzeit eines Systems<br />

τph(ω) = B(ω)<br />

ω<br />

bzw. τgr(ω) = ∂B(ω)<br />

∂ω<br />

, (30)<br />

so ergibt sich <strong>für</strong> den Fall einer – nach Gleichung (22) definierten – linearen Phase<br />

τph(Ω) = t0 + B0<br />

Ω <strong>und</strong> τgr = t0 = konst. . (31)<br />

Somit erhalten wir also eine Zeitverschiebung des Trägers um die Phasenlaufzeit <strong>und</strong> des<br />

modulierenden Signals um die Gruppenlaufzeit, wie es im Bild 14 dargestellt ist:<br />

y(t) = [A + f(t − τgr)] cos(Ω[t − τph(Ω)]) . (32)<br />

IT-V8 - 14


2<br />

1<br />

−1<br />

−2<br />

2<br />

1<br />

−1<br />

−2<br />

x(t)<br />

y(t)<br />

τph<br />

Bild 14: Phasen– <strong>und</strong> Gruppenlaufzeit am Beispiel eines AM–Signals<br />

5 Kurzwellenausbreitung<br />

Man unterscheidet zwischen zwei Wegen zur drahtlosen Ausbreitung elektromagnetischer<br />

Energie. Sie werden mit Bodenwellenausbreitung <strong>und</strong> Raumwellenausbreitung bezeichnet.<br />

Bodenwellen werden von den Feldern gebildet, die sich an der Erdoberfläche fortsetzen.<br />

Sie sind <strong>für</strong> Kurzwellen <strong>und</strong> Signale höherer Frequenzen praktisch bedeutungslos, da deren<br />

hochfrequente Wechselströme kaum in die Erdoberfläche eindringen, <strong>und</strong> somit nach<br />

kurzem Übertragungsweg bereits stark gedämpft werden. Bei der Raumwellenausbreitung<br />

wird die elektromagnetische Energie unter verschiedenen Winkeln in die Atmosphäre, deren<br />

elektrische Beschaffenheit <strong>für</strong> die Energieausbreitung verantwortlich ist, abgestrahlt.<br />

Die Ausbreitung der Kurzwellen über große Entfernungen bei relativ kleiner Sendeleistung<br />

ist auf die Reflexionen an der Ionosphäre zurückzuführen. Die ultraviolette Strahlung<br />

der Sonne bewirkt eine Ionisierung der höheren Schichten der Atmosphäre, indem Elektronen<br />

aus den Gasatomen <strong>und</strong> -molekülen herausgeschlagen werden. Während die Luft gewöhnlich<br />

ein Nichtleiter ist, wird sie in der ionisierten Form zum Leiter, dessen Leitfähigkeit vom<br />

Ionisierungsgrad abhängt.<br />

Zur Überbrückung großer Entfernungen werden Kurzwellen von der Sendeantenne je<br />

nach Frequenz unter einem bestimmten Winkel abgestrahlt. An der Ionosphäre reflektiert,<br />

gelangen sie zurück zur Erde, so dass eine große Sprungstrecke überw<strong>und</strong>en wird. Ein solcher<br />

Reflexionssprung kann mehrere Male wiederholt werden, wobei die Wellen zwischen Erde<br />

<strong>und</strong> Ionosphäre hin <strong>und</strong> her reflektiert werden.<br />

τgr<br />

IT-V8 - 15<br />

t<br />

t


Die Feldstärke am Empfangsort ist nicht konstant, da sich die Ionisationsdichte <strong>und</strong> die<br />

Höhe der Ionosphäre ständig ändern. Beim Empfänger äußert sich dies als fortlaufendes<br />

Ansteigen <strong>und</strong> Abfallen der Eingangsspannung, das als Schw<strong>und</strong> oder Fading typisch <strong>für</strong><br />

den Kurzwellenempfang ist.<br />

Je nach Ursache unterscheidet man zwischen Absorptionsschw<strong>und</strong>, Interferenzschw<strong>und</strong><br />

<strong>und</strong> Polarisationsschw<strong>und</strong>.<br />

Beim Absorptionsschw<strong>und</strong> schwankt die Raumwellenausbreitung über sehr große Bandbreiten,<br />

wobei die Sendeenergie periodisch in den unteren Schichten der Ionosphäre absorbiert<br />

wird.<br />

Der Interferenz- oder Selektivschw<strong>und</strong> ist auf die unterschiedlichen Ausbreitungswege der<br />

Raumwellen zurückzuführen. Am Empfangsort haben die Teilkomponenten des reflektierten<br />

Feldes eine Phasendifferenz, die zur Anhebung oder auch zur Kompensation der Feldstärke<br />

führen kann. Im Gegensatz zum Absorptionsschw<strong>und</strong> wird beim Selektivschw<strong>und</strong> nur eine<br />

relativ schmale Bandbreite von 50 Hz bis einigen 100 Hz betroffen, wobei dieses ”Loch” über<br />

den Übertragungsbereich hinwegwandert.<br />

Bei der Amplitudenmodulation mit Träger kann es passieren, dass der Modulationsgrad<br />

durch die Dämpfung des Trägers aufgr<strong>und</strong> des Selektivschw<strong>und</strong>es größer als eins wird. Wird<br />

dann im Empfänger ein Hüllkurvendemodulator [Mäus76] verwendet, so kommt es zu starken<br />

Verzerrungen. Hier sind Übertragungssysteme mit unterdrücktem Träger überlegen.<br />

Beim Polarisationsschw<strong>und</strong> dreht sich die Polarisationsebene des elektromagnetischen<br />

Feldes, die von der Form der Sendeantenne abhängt, durch Unregelmäßigkeiten der Ionosphäre<br />

oder durch Hindernisse (hohe Gebäude, Hochspannungsleitungen o.ä.) in Antennennähe.<br />

Da die Polarisationsebene der Empfangsantenne konstant ist, schwankt die<br />

resultierende Empfangsspannung mit der Periodendauer der auftretenden Felddrehung am<br />

Empfangsort.<br />

6 <strong>Aufgabe</strong>n<br />

Im folgenden Versuch wird das Verhalten der Amplitudenmodulation mit einer Rechteckfunktion<br />

als Träger untersucht. Als Signale verwenden wir<br />

• ein Sinussignal (<strong>Aufgabe</strong>n 1 <strong>und</strong> 2)<br />

• ein Rechtecksignal (<strong>Aufgabe</strong> 3) <strong>und</strong><br />

• ein allgemeines Sprach- bzw. Musiksignal (<strong>Aufgabe</strong> 4).<br />

Realisierung der Modulatoren<br />

Um eine Rechteckfunktion als Träger zu erhalten, wird ein Modulator nach Bild 7 verwendet.<br />

Der Schalter S kann z.B. durch einen Feldeffekttransistor (FET) realisiert werden, siehe<br />

Bild 15.<br />

Für das Verständnis der Wirkungsweise eines Feldeffekttransistors als Schalter betrachten<br />

wir einen Feldeffekttransistor vom Typ 3N153 (MOSFET). Im Bild 16 ist der Widerstand<br />

RDS zwischen Drain (D) <strong>und</strong> Source (S) in Abhängigkeit von der zwischen Gate (G) <strong>und</strong><br />

Source liegenden Spannung UGS aufgetragen.<br />

IT-V8 - 16


PSfrag<br />

e(t)<br />

R<br />

uGS(t)<br />

G<br />

D<br />

S<br />

u0(t)<br />

Bild 15: Realisierung eines Ein/Aus-Schalters mit einem FET<br />

10 8<br />

10 6<br />

10 4<br />

RDS<br />

Ω<br />

10 2<br />

−10 −7,5 −5 −2,5 0 +2,5 +5<br />

Bild 16: Typische Kennlinie eines MOSFET<br />

UGS/V<br />

Es müssen folgende Bedingungen erfüllt sein, damit der Feldeffekttransistor als Schalter<br />

eingesetzt werden kann:<br />

1. Für den Aus- <strong>und</strong> Ein-Zustand müssen Punkte auf der Kennlinie gewählt werden, in<br />

denen dRDS/dUGS klein ist. Dort ist RDS dann bei Schwankungen von UGS nahezu<br />

konstant.<br />

2. Es muss gelten: e(t) ≪ UGS, damit e(t) keinen Einfluss auf UGS hat.<br />

3. Das Übergangsgebiet zwischen den Punkten der Kennlinie, an denen der Feldeffekttransistor<br />

hoch- bzw. niederohmig ist, muss in möglichst kurzer Zeit durchfahren<br />

werden.<br />

Das Prinzip des verwendeten Modulators zeigt Bild 17. Bei geöffnetem Schalter S2 arbeitet<br />

der Modulator im Gegentaktbetrieb, <strong>und</strong> bei geschlossenem Schalter S2 im Eintaktbetrieb.<br />

Der ideale Operationsverstärker hat einen unendlich großen Eingangswiderstand <strong>und</strong> es gilt<br />

ua(t) = ud(t).<br />

Vorbereitungsaufgabe 6.1:<br />

1. Zeichnen Sie den zeitlichen Verlauf von p(t) <strong>und</strong> ua(t) = p(t)ue(t) <strong>für</strong><br />

IT-V8 - 17


ue<br />

a) Eintaktbetrieb<br />

S2<br />

b) Gegentaktbetrieb<br />

1 kΩ<br />

1 kΩ<br />

ud<br />

−<br />

+<br />

1<br />

Ω = 2π<br />

T<br />

Bild 17: Modulator<br />

600 Ω<br />

bei sinusförmigem Eingangssignal ue(t) = a sin(ωst) mit Ω ≫ ωs nach dem im Bild 17<br />

dargestellten Prinzip (siehe auch Abschnitt 3.2).<br />

Bei dem Modulator wird ein CMOS–IC mit integrierten elektronischen Schaltern<br />

benutzt. Für diese Schalter gilt:<br />

<br />

= 200 Ω <strong>für</strong> UST = 15 V<br />

RD =<br />

(33)<br />

> 10 MΩ <strong>für</strong> UST = 0 V ,<br />

wobei RD der Durchlasswiderstand eines Schalters ist. Im Folgenden wird angenommen,<br />

dass RD → ∞ ist <strong>für</strong> UST = 0 V. Statt einer einzigen Steuerspannung UST<br />

benötigt der im Versuchsaufbau verwendete Modulator zwei Steuerspannungen UST1<br />

<strong>und</strong> UST2. Diese haben <strong>für</strong> Gegentaktbetrieb den Verlauf wie im Bild 18. Für Eintaktbetrieb<br />

wird UST2 = 15 V gesetzt. Um den nichtlinearen Schaltern Rechnung zu tragen,<br />

muss die Schaltung aus Bild 17 geändert werden. Bild 19 zeigt eine wirklichkeitsnähere<br />

Darstellung. Für den Eintaktbetrieb erhält man das Ersatzschaltbild 20.<br />

2. Geben Sie einen Ausdruck <strong>für</strong> die Ausgangsspannung ua(t) der Schaltung im Bild 20<br />

an <strong>für</strong><br />

a) RD = 0 Ω<br />

b) RD = 200 Ω.<br />

3. Berechnen Sie die Effektivwerte der Frequenzkomponenten von ua(t) bis einschließlich<br />

5Ω + ωs, wenn<br />

a) RD = 0 Ω<br />

b) RD = 200 Ω ist,<br />

<strong>und</strong> zwar <strong>für</strong> den Eintakt- <strong>und</strong> den Gegentaktbetrieb.<br />

IT-V8 - 18<br />

ua


15 V<br />

0 V<br />

15 V<br />

0 V<br />

UST1<br />

UST2<br />

T 2T 3T 4T 5T t<br />

Bild 18: Verlauf der Steuerspannungen bei Gegentaktbetrieb<br />

ue<br />

a sin(ωst)<br />

S2<br />

1 kΩ<br />

1 kΩ<br />

RD<br />

RD<br />

Ω = 2π<br />

T<br />

Bild 19: Realer Modulator<br />

Ω = 2π<br />

T<br />

−<br />

+<br />

RD<br />

1<br />

600 Ω<br />

1 kΩ<br />

Bild 20: Ersatzschaltung <strong>für</strong> den realen Modulator<br />

ua(t)<br />

4. Im Versuch beträgt die Frequenz der Gr<strong>und</strong>schwingung des modulierten Rechtecksignals<br />

F = Ω/(2π) = 50 kHz, die Frequenz des modulierenden Sinussignals fs =<br />

ωs/(2π) = 4 kHz <strong>und</strong> die Amplitude des Sinusssignals a = √ 21000 mV. Füllen Sie mit<br />

den berechneten Werten die vorbereiteten Spalten in der Tabelle 1 <strong>für</strong> RD = 0 Ω aus<br />

IT-V8 - 19<br />

ua


<strong>und</strong> zeichnen Sie das Spektrum des Ausgangssignals im Bereich |ω| < 6Ω <strong>für</strong> Eintakt<strong>und</strong><br />

Gegentaktbetrieb.<br />

Eintaktbetrieb Gegentaktbetrieb<br />

Amplituden (eff.) in mV Amplituden (eff.) in mV<br />

Frequenz in kHz gemessen berechnet Fehler gemessen berechnet Fehler<br />

4 ωs<br />

46 Ω − ωs<br />

50 Ω<br />

54 Ω + ωs<br />

96 2Ω − ωs<br />

100 2Ω<br />

104 2Ω + ωs<br />

146 3Ω − ωs<br />

150 3Ω<br />

154 3Ω + ωs<br />

196 4Ω − ωs<br />

200 4Ω<br />

204 4Ω + ωs<br />

246 5Ω − ωs<br />

250 5Ω<br />

254 5Ω + ωs<br />

Messaufgabe 6.1:<br />

Tabelle 1: Tabelle zur <strong>Aufgabe</strong> 1<br />

Schalten Sie den Modulator <strong>und</strong> alle weiteren Geräte ein, bevor Sie Signalanschlüsse verbinden.<br />

Das Eingangssignal soll eine sinusförmige Spannung mit der Amplitude a = √ 2 1000 mV<br />

<strong>und</strong> der Frequenz fs = 4 kHz sein, die einem Funktionsgenerator entnommen wird.<br />

1. Es soll nun zunächst der zeitliche Verlauf des modulierten Signals beobachtet werden.<br />

Verbinden Sie hierzu den Ausgang des Modulators mit einem Oszillographen <strong>und</strong><br />

stellen Sie gleichzeitig das Eingangs- <strong>und</strong> das Ausgangssignal des Modulators dar, <strong>für</strong><br />

a) Eintaktbetrieb <strong>und</strong><br />

b) Gegentaktbetrieb.<br />

Vergleichen Sie in Ihrer Auswertung Ihre Beobachtungen mit dem erwarteten Ergebnis<br />

aus der Versuchsvorbereitung.<br />

2. In diesem <strong>Aufgabe</strong>nteil wird das Frequenzspektrum des modulierten Sinussignals gemessen.<br />

Das hierzu verwendete selektive Voltmeter misst den Effektivwert der Spannung<br />

eines Signales bei einer ganz bestimmten Frequenz bzw. in einem sehr schmalen<br />

IT-V8 - 20


Frequenzbereich. Mit einem qualitativ sehr hochwertigen <strong>und</strong> schmalbandigem Bandpass<br />

werden zu diesem Zweck im Messgerät Signalanteile bei anderen Frequenzen durch<br />

Filterung entfernt <strong>und</strong> nur der Effektivwert des Restsignals gemessen.<br />

Verbinden Sie den Ausgang des Modulators mit dem selektiven Voltmeter <strong>und</strong> messen<br />

Sie <strong>für</strong> Eintakt- <strong>und</strong> Gegentaktbetrieb das Spektrum der Ausgangsspannung. Vervollständigen<br />

Sie die Tabelle 1.<br />

Vergleichen Sie in ihrer Auswertung quantitativ die gemessenen Werte mit den in<br />

der Vorbereitung berechneten Werten <strong>für</strong> die ersten fünf nicht verschwindenden Frequenzkomponenten<br />

des Ausgangsspektrums <strong>und</strong> ermitteln Sie — wo dies möglich<br />

ist — den relativen Fehler der Messwerte. Welche Unterschiede weisen die Spektren<br />

der Ausgangsspannung bei Eintakt- <strong>und</strong> Gegentaktbetrieb auf? Warum? Erklären<br />

Sie, warum auch bei Frequenzen, bei denen kein Spektralanteil im Ausgangssignal<br />

vorhanden sein sollte, trotzdem ein von Null verschiedener Wert gemessen wird.<br />

Beachten Sie, dass Leistungsanpassung zwischen dem Modulator <strong>und</strong> dem Voltmeter<br />

vorliegt, da RaMod = ReMess = 600 Ω ist; welche Auswirkung hat dies auf die gemessenen<br />

Effektivwerte der Spektralanteile der Ausgangsspannung?<br />

Um aus dem Ausgangssignal des Modulators ein Ein- bzw. Zweiseitenband-Sendesignal zu<br />

gewinnen, stehen zwei Bandpässe zur Verfügung. Diese filtern aus dem Frequenzspektrum<br />

ganz bestimmte Modulationsprodukte heraus. Der Dämpfungs- <strong>und</strong> Phasenverlauf beider<br />

Filter findet sich am Ende dieser Unterlagen.<br />

Das erhaltene Ein- bzw. Zweiseitenband-Sendesignal soll nun wieder zurückgewonnen<br />

werden. Zu diesem Zweck wird der Aufbau aus der <strong>Aufgabe</strong> 1 nach Bild 11 erweitert.<br />

Die Demodulation des gesendeten Signals erfolgt mit einer Schaltung, die mit dem bereits<br />

verwendeten Modulator identisch ist (Bild 19). Idealerweise erfolgt die Demodulation mit<br />

einem Rechtecksignal, das den gleichen Verlauf hat, wie das zur Modulation verwendete. Die<br />

Demodulation wird durch die erneute Zuführung des Trägers im Empfänger <strong>und</strong> anschließende<br />

Tiefpassfilterung erreicht. Es handelt sich also um eine synchrone Demodulation.<br />

Ziel dieser <strong>Aufgabe</strong> ist es, zu untersuchen, wie sich eine Frequenzverschiebung bzw. eine<br />

Phasenverschiebung zwischen dem bei der Modulation zugeführten Träger <strong>und</strong> dem bei der<br />

Demodulation zugeführten Träger auswirkt. Für die Berechnung der Vorbereitungsaufgaben<br />

nehmen Sie zur Vereinfachung als Träger das Signal p(t) = cos(Ωt) <strong>und</strong> als Eingangssignal<br />

e(t) = a sin(ωst) an. Im praktischen Teil dieser <strong>Aufgabe</strong> werden dann die Ergebnisse verifiziert,<br />

indem die Phasenlage oder die Frequenz des dem Demodulator zugeführten Trägers<br />

verändert <strong>und</strong> das Ergebnis auf dem Oszillographen beobachtet wird.<br />

Vorbereitungsaufgabe 6.2:<br />

1. Geben Sie einen Ausdruck <strong>für</strong> die Ausgangsspannung e ′ (t) des Tiefpasses bei der Zweiseitenbandmodulation<br />

an. Der dem Demodulator zugeführte Träger habe gegenüber<br />

dem bei der Modulation benutzten Träger<br />

a) unterschiedliche Frequenz (∆Ω)<br />

b) unterschiedliche Phase (∆Φ).<br />

2. Wiederholen Sie diese beiden Rechnungen <strong>für</strong> die Einseitenbandmodulation.<br />

IT-V8 - 21


3. Erläutern Sie qualitativ die Ergebnisse aus den beiden vorangegangenen <strong>Aufgabe</strong>nteilen<br />

<strong>für</strong> die Fälle unterschiedlicher Frequenz <strong>und</strong> unterschiedlicher Phase. Was <strong>für</strong> ein<br />

Oszillographenbild erwarten Sie <strong>für</strong> diese zwei Fälle (Skizze!)?<br />

Messaufgabe 6.2:<br />

1. Bauen Sie Schaltung nach Bild 11 auf <strong>und</strong> prüfen Sie die Ergebnisse aus der Vorbereitungsaufgabe<br />

mit dem Oszillographen nach.<br />

Als Signal soll nun eine Rechteckschwingung betrachtet werden, die den im Bild 21 gezeigten<br />

Verlauf hat.<br />

ê<br />

e(t)<br />

−2π 0 2π 4π 6π 8π ωRt<br />

Bild 21: Rechtecksignal als modulierendes Eingangssignal<br />

Das Rechtecksignal im Bild 21 wird in einem Modulator mit einem Träger p(t) = cos(Ωt)<br />

multipliziert, wobei ωR ≪ Ω gilt. Es sei vorausgesetzt, dass die Rechteckschwingung durch<br />

die ersten vier von Null verschiedenen Glieder ihrer Fourier-Reihe (also den Frequenzenanteilen<br />

bei 0, ωR, 3ωR <strong>und</strong> 5ωR) genügend genau gekennzeichnet ist.<br />

Vorbereitungsaufgabe 6.3:<br />

1. Geben Sie einen Ausdruck <strong>für</strong> das Ausgangssignal des Modulators an. Zeichnen Sie<br />

das Spektrum des Ausgangssignals.<br />

Dem Modulator ist nun ein Bandpass nachgeschaltet, der nur Signalanteile im Frequenzbereich<br />

Ω < ω < Ω + 6ωR durchlässt (dies entspricht einem Filter <strong>für</strong> die Einseitenbandmodulation).<br />

Die Phase des Bandpasses ist B(ω). Es soll im Folgenden das Signal e ′ (t)<br />

untersucht werden, das durch synchrone Demodulation (Multiplikation mit cos(Ωt + Φ))<br />

<strong>und</strong> anschliessende Tiefpassfilterung (Grenzfrequenz Ω) des SSB-Signals entsteht.<br />

2. Bestimmen Sie das Ausgangssignal e ′ (t) des Tiefpasses <strong>für</strong> ein allgemeines B(ω) <strong>und</strong><br />

eine allgemeine Phase Φ des Trägers im Demodulator.<br />

3. Bestimmen Sie das Ausgangssignal e ′ (t) des Tiefpasses, wenn der verwendete Bandpass<br />

eine lineare Phase B(ω) = B0+ωt0 <strong>für</strong> ω > 0 besitzt. Wie groß muss der Phasenwinkel<br />

Φ sein, damit das Rechtecksignal bis auf einen Gleichanteil zeitverschoben um t0<br />

wiedergewonnen werden kann?<br />

IT-V8 - 22


4. Es wird nun eine nichtlineare Phase B(ω) angenommen, mit B(Ω + ωR) = B0 + (Ω +<br />

ωR)t0, B(Ω +3ωR) = B0 +2(Ω +3ωR)t0 <strong>und</strong> B(Ω +5ωR) = B0 +3(Ω +5ωR)t0. Es gilt<br />

weiterhin das Φ der vorangegangenen <strong>Aufgabe</strong>. Zeigen Sie, wie sich die nichtlineare<br />

Phase beim Ausgangssignal bemerkbar macht.<br />

Messaufgabe 6.3:<br />

In praktischen Teil dieser <strong>Aufgabe</strong> wird der gleiche Schaltungsaufbau verwendet wie in der<br />

<strong>Aufgabe</strong> 2 (Bild 11). Das Rechtecksignal wird dem Funktionsgenerator entnommen. Die<br />

Gr<strong>und</strong>frequenz ωR des Rechtecks soll 400 Hz betragen.<br />

1. Stellen Sie durch geeignete Bandpässe DSB- <strong>und</strong> SSB-Betrieb her <strong>und</strong> beobachten Sie<br />

das demodulierte Signal auf dem Oszillographen. Verändern Sie wie in der vorangegangenen<br />

Messaufgabe die Frequenz <strong>und</strong> die Phase des dem Demodulator zugeführten<br />

Trägers gegenüber der Frequenz bzw. Phase des dem Modulator zugeführten Trägers.<br />

Skizzieren Sie die Ergebnisse <strong>und</strong> diskutieren Sie diese. Welche Abweichungen vom<br />

idealen Kurvenverlauf treten auf. Warum?<br />

Geben Sie eine Erklärung, warum am Ausgang des Tiefpasses bei der Einseitenbandmodulation<br />

keine Rechteckschwingung auftritt. Beachten Sie hierbei den Phasenverlauf<br />

des Filters. Diskutieren Sie das Ergebnis im Vergleich mit der Zweiseitenbandmodulation<br />

<strong>und</strong> dem Phasenverlauf des entsprechenden Filters (Bilder 22 – 25).<br />

Messaufgabe 6.4:<br />

Als Signalquelle wird jetzt ein CD-Spieler benutzt. Der Versuchsaufbau bleibt ansonsten<br />

gleich (Bild 11).<br />

1. Stellen Sie DSB-Betrieb her, <strong>und</strong> variieren Sie die Frequenz bzw. die Phase des dem<br />

Demodulator zugeführten Trägers gegenüber der Frequenz bzw. Phase des dem Modulator<br />

zugeführten Trägers. Erklären Sie die auftretenden Effekte.<br />

2. Führen Sie den Versuch 1 entsprechend <strong>für</strong> SSB-Betrieb durch.<br />

3. Wie würden Sie die Empfindlichkeit von Sprache <strong>und</strong> Musik gegenüber Phasen- bzw.<br />

Frequenzabweichungen des Trägers bei der Demodulation beurteilen? Unterscheiden<br />

Sie dabei die beiden Betriebsarten DSB <strong>und</strong> SSB.<br />

IT-V8 - 23


80<br />

70<br />

60<br />

50<br />

40<br />

30<br />

20<br />

10<br />

A/dB<br />

0<br />

0 20 40 60 80 100 120 140 160<br />

600<br />

550<br />

500<br />

450<br />

400<br />

350<br />

300<br />

250<br />

Bild 22: Dämpfungsverlauf des 35 − 65kHz-Bandpasses<br />

B/ ◦<br />

200<br />

30 35 40 45 50 55 60 65 70<br />

Bild 23: Phasenverlauf des 35 − 65kHz-Bandpasses<br />

IT-V8 - 24<br />

f/kHz<br />

f/kHz


2500<br />

2000<br />

1500<br />

1000<br />

500<br />

80<br />

70<br />

60<br />

50<br />

40<br />

30<br />

20<br />

10<br />

A/dB<br />

0<br />

0 20 40 60 80 100 120 140 160<br />

B/ ◦<br />

Bild 24: Dämpfungsverlauf des 50 − 65kHz-Bandpasses<br />

0<br />

30 35 40 45 50 55 60 65<br />

Bild 25: Phasenverlauf des 50 − 65kHz-Bandpasses<br />

IT-V8 - 25<br />

f/kHz<br />

f/kHz


Literatur<br />

[Fett04] A. Fettweis: Elemente nachrichtentechnischer Systeme. Schlembach, Wilburgstetten,<br />

2004.<br />

[Mäus76] R. Mäusl: Modulationsverfahren in der Nachrichtentechnik. Hüthig, Heidelberg,<br />

1976.<br />

[Mäus88] R. Mäusl: Analoge Modulationsverfahren. Hüthig, Heidelberg, 1988.<br />

[Prok75] E. Prokott: Modulation <strong>und</strong> Demodulation. Hüthig, Heidelberg, 1975.<br />

[Stad80] E. Stadler: Modulationsverfahren. Vogel, Würzburg, 1980.<br />

IT-V8 - 26


Versuch IT-V9: Gruppenlaufzeitentzerrung<br />

Inhaltsverzeichnis<br />

1 Eigenschaften von Übertragungssystemen 2<br />

1.1 Definition von Dämpfung <strong>und</strong> Phase . . . . . . . . . . . . . . . . . . . . . . 2<br />

1.2 Verzerrungsfreie Übertragung . . . . . . . . . . . . . . . . . . . . . . . . . . 2<br />

1.3 Phasenlaufzeit <strong>und</strong> Gruppenlaufzeit . . . . . . . . . . . . . . . . . . . . . . . 6<br />

1.4 Bedingungen der verzerrungsfreien Übertragung . . . . . . . . . . . . . . . . 9<br />

1.5 Problemstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

2 Reaktanz-Allpassschaltung 12<br />

2.1 Einführung <strong>und</strong> Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />

2.2 Übertragungsfunktion eines Reaktanz-Allpasses . . . . . . . . . . . . . . . . 12<br />

2.3 Elementarglieder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />

2.4 Zur Realisierung von Reaktanz-Allpassschaltungen . . . . . . . . . . . . . . . 15<br />

3 Technisch sinnvolle Gruppenlaufzeit-Approximation 17<br />

3.1 Angaben <strong>für</strong> Gruppenlaufzeit-Approximation . . . . . . . . . . . . . . . . . . 17<br />

3.2 Gruppenlaufzeitentzerrung anhand von Laufzeitkarten . . . . . . . . . . . . . 19<br />

4 Vorbereitung 20<br />

5 Messaufgaben 22<br />

5.1 Messung der Phasen- <strong>und</strong> Gruppenlaufzeit . . . . . . . . . . . . . . . . . . . 22<br />

5.2 Messung der Verzögerungs- <strong>und</strong> Anstiegszeit . . . . . . . . . . . . . . . . . . 22<br />

5.3 Hausaufgabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />

Literaturverzeichnis 27<br />

IT-V9 - 1


1 Eigenschaften von Übertragungssystemen<br />

1.1 Definition von Dämpfung <strong>und</strong> Phase<br />

Ein Eingangssignal x(t) ◦−−• X(jω) eines linearen, konstanten, streng stabilen Systems S,<br />

wie im Bild 1 gezeigt, liefert ein Ausgangssignal y(t) ◦−−• Y (jω). Dieses lineare konstante<br />

System S ist charakterisiert durch seine Übertragungsfunktion H(jω).<br />

X(jω)<br />

H(jω) Y (jω)<br />

S<br />

Bild 1: Lineares konstantes System<br />

Es gilt Y (jω) =H(jω)X(jω). Man definiert nun ein Übertragungsmaß Γ (jω) durch die<br />

Beziehung<br />

H(jω) =e −Γ (jω) . (1)<br />

Das Übertragungsmaß Γ (jω) lässt sich aufspalten in seinen Realteil A(ω) <strong>und</strong> seinen Imaginärteil<br />

B(ω)<br />

Γ (jω) =A(ω)+jB(ω) . (2)<br />

A(ω) ist die Dämpfung <strong>und</strong> B(ω) die Phase des Systems bei einer bestimmten Frequenz ω.<br />

Es gilt<br />

<br />

1<br />

A(ω) =ln<br />

=<br />

|H(jω)|<br />

1<br />

2 ln<br />

<br />

1<br />

|H(jω)| 2<br />

<br />

(3)<br />

sowie<br />

<br />

1<br />

B(ω) =arg = − arg {H(jω)} . (4)<br />

H(jω)<br />

Dämpfung <strong>und</strong> Phase kennzeichnen vollständig die Übertragungseigenschaften des Systems<br />

S. SowohldieDämpfungA(ω) als auch die Phase B(ω) sind im Allgemeinen Funktionen der<br />

Frequenz ω. Ihr Verlauf über der Frequenz ist <strong>für</strong> die sogenannten linearen Verzerrungen<br />

(Dämpfungs- <strong>und</strong> Phasenverzerrungen) maßgebend, die ein Eingangssignal x(t) bei der<br />

Filterung durch das Systems S erfährt. Hierbei bedeutet ein positives B(ω), dass bei einem<br />

sinusförmigen Eingangssignal mit der konstanten Frequenz ω>0 das Ausgangssignal y(t)<br />

nur von aktuellen oder vergangenen Werten des Eingangssignals x(t) abhängt (Kausalität).<br />

1.2 Verzerrungsfreie Übertragung<br />

Damit ein Signal x(t) durch ein System S vollständig getreu übertragen wird, d. h., damit<br />

x(t) =y(t) bzw. X(jω) =Y (jω) (5)<br />

gilt, müssen wir folgende Forderungen an die Dämpfung A(ω) bzw. an die Phase B(ω)<br />

stellen:<br />

IT-V9 - 2


1. Die Dämpfung durch das System S muss <strong>für</strong> alle im Spektrum von x(t) enthaltenen<br />

Frequenzen gleich null sein. Jeder Spektralanteil X(jω) des Signals x(t) muss also<br />

ungedämpft das System S durchlaufen, damit sich die Beträge der Spektralanteile<br />

X(jω) <strong>und</strong> Y (jω) nicht unterscheiden:<br />

A(ω) =0.<br />

2. Alle sinusförmigen Teilschwingungen des Eingangssignals müssen jeweils in Phase mit<br />

den entsprechenden Teilschwingungen des Ausgangssignals sein, oder anders ausgedrückt<br />

darf ein sinusförmiges Eingangssignal x(t) durch das System S zeitlich nicht<br />

verzögert werden:<br />

B(ω) =0.<br />

Obige Forderungen nennt man die Bedingungen der idealen Übertragung. In der Praxis ist es<br />

natürlich nicht möglich, diese Bedingungen streng zu erfüllen. Jedes reale Übertragungssystem<br />

ist naturgemäß mit Verlusten behaftet <strong>und</strong> enthält induktive <strong>und</strong> kapazitive Elemente,<br />

die unvermeidlich eine Dämpfung <strong>und</strong> gegebenenfalls eine Verzögerung des Signals zur Folge<br />

haben. Weiterhin kann jede Übertragung eines Signals nur mit endlicher Geschwindigkeit<br />

erfolgen, was ebenfalls mit einer zeitlichen Verzögerung verb<strong>und</strong>en ist. Eine gewisse Verzögerung<br />

des Eingangssignals <strong>und</strong> der darin enthaltenen Information ist in der Praxis tragbar,<br />

solange sie einen vom jeweiligen Fall abhängigen Höchstwert nicht überschreitet. Wichtig<br />

ist, dass durch eine zeitliche Verzögerung <strong>und</strong> Dämpfung des zu übertragenden Signals der<br />

Informationsinhalt im Allgemeinen nicht verändert wird. Wir ersetzen daher die Forderung<br />

aus Gleichung (5), die wir an ein ideales Übertragungssystem gestellt haben, durch die<br />

realistischere Forderung<br />

y(t) =Kx(t − t0) , (6)<br />

wobei K <strong>und</strong> t0 positive Konstanten sind. Ein Übertragungssystem S, beidemdieseBeziehung<br />

zwischen Eingangssignal x(t) <strong>und</strong> Ausgangssignal y(t) gilt, bezeichnen wir als ein<br />

verzerrungsfreies System. Für das Übertragungssystem S erhält man durch Transformation<br />

in den Frequenzbereich<br />

Y (jω) =K e −jωt0 X(jω) . (7)<br />

Die Übertragungsfunktion H(jω) eines verzerrungsfreien Systems lautet folglich<br />

<strong>und</strong> entspricht einer konstanten Dämpfung<br />

<strong>und</strong> einer proportional zu ω ansteigenden Phase<br />

H(jω) =K e −jωt0 (8)<br />

A = − ln(K) (9)<br />

B(ω) =ωt0 . (10)<br />

IT-V9 - 3


− ln(K)<br />

A(ω)<br />

Bild 2: Konstanter Dämpfungsverlauf A(ω) im Falle A>0<br />

B(ω)<br />

Bild 3: Lineare Phase durch den Nullpunkt verlaufend mit t0 als Geradensteigung<br />

x<br />

Kx<br />

x(t)<br />

y(t)<br />

t0<br />

Bild 4: Eingangs- <strong>und</strong> Ausgangssignal eines verzerrungsfreien Systems<br />

Die Forderungen an die Dämpfung <strong>und</strong> an die Phase eines verzerrungsfreien Systems sind<br />

in den Bildern 2 <strong>und</strong> 3 veranschaulicht.<br />

Die Ausgangsfunktion y(t) stimmt mit der Eingangsfunktion x(t) überein, ist gegen<br />

diese jedoch um einen Faktor K gedämpft <strong>und</strong> um die Zeitkonstante t0 verzögert. Den<br />

Zusammenhang stellt Bild 4 dar.<br />

Ist das Eingangssignal x(t) frequenzbegrenzt, so genügt es, die Forderungen <strong>für</strong> ein<br />

verzerrungsfreies System in dem zu x(t) gehörigen Frequenzband Δω zu erfüllen, siehe hierzu<br />

Bild 5 .<br />

IT-V9 - 4<br />

ω<br />

t0<br />

t<br />

t<br />

ω<br />

ω


a) b)<br />

A(ω)<br />

B(ω)<br />

Δω<br />

Δω<br />

ω<br />

ω<br />

A(ω)<br />

B(ω)<br />

Bild 5: Dämpfungs- <strong>und</strong> Phasenverlauf bei frequenzbegrenzten Systemen:<br />

a) Bandpass<br />

b) Tiefpass<br />

Auch bei einem Übertragungssystem mit Bandpasscharakter lässt sich angenähert eine<br />

mit der Frequenz linear ansteigende Phase B(ω) realisieren. Die Phasenbedingung <strong>für</strong> die<br />

verzerrungsfreie Übertragung verlangt aber außerdem noch, dass die zu B(ω) gehörige<br />

Gerade durch den Nullpunkt geht. Dieses bedeutet <strong>für</strong> einen Bandpass, dass sich die Phase,<br />

wie im Bild 6 gezeigt, in dem Übertragungsbereich Δω an eine in ihrer Verlängerung durch<br />

den Nullpunkt gehende Gerade anschmiegt.<br />

B(ω)<br />

Bild 6: Anschmiegung der Phase im Durchlassgebiet an eine Ursprungsgerade<br />

Diese Forderung lässt sich jedoch nur selten erfüllen, da man in der Praxis meist überhaupt<br />

keine Kontrolle über den Schnittpunkt der verlängerten Geraden mit der Ordinate<br />

hat. Die Bedingung B(ω) =ωt0 muss daher durch die allgemeinere Bedingung<br />

Δω<br />

Δω<br />

Δω<br />

B(ω) =ωt0 + B0 <strong>für</strong> ω>0 (11)<br />

ersetzt werden, in der B0 eine Konstante ist, was im Bild 7 veranschaulicht ist.<br />

IT-V9 - 5<br />

ω<br />

ω<br />

ω


B0<br />

B(ω)<br />

ω<br />

t0<br />

Δω<br />

Bild 7: Lineare Phase nicht durch den Nullpunkt verlaufend<br />

Um nunmehr Aussagen bezüglich der Verzerrungsfreiheit eines Übertragungssystems<br />

machen zu können, sollen die Begriffe Phasenlaufzeit <strong>und</strong> Gruppenlaufzeit eingeführt werden.<br />

Hierbei interessiert vor allem, ob die Konstante B0 irgendwelchen Einschränkungen<br />

unterliegt.<br />

1.3 Phasenlaufzeit <strong>und</strong> Gruppenlaufzeit<br />

Wenn die Dämpfung A(ω) in dem betrachteten Frequenzband Δω konstant ist unterscheidet<br />

man zwischen zwei verschiedenen Arten von Laufzeiten<br />

1. Die Phasenlaufzeit tph, welche ein einzelnes sinusförmiges Signal benötigt, um eine<br />

Leitung oder ein Zweitor, allgemein ein System S, zu durchlaufen.<br />

2. Die Gruppenlaufzeit tgr, welche die Verzögerung der im Signal enthaltenen Information<br />

(bei Amplituden–, Phasen- <strong>und</strong> Frequenzmodulation) darstellt.<br />

Alle nun folgenden Betrachtungen haben nur dann Gültigkeit, wenn die Dämpfung A(ω) in<br />

dem betrachteten Frequenzband Δω konstant ist.<br />

Der Verlauf der Phase B(ω) eines Systems S sei innerhalb eines interessierenden Frequenzbereichs<br />

Δω gegeben. Dann ist die Phasenlaufzeit tph <strong>für</strong> irgendein sinusförmiges Signal<br />

x(t) mit einer Frequenz ω, z.B.ω0, definiert durch<br />

tph(ω) = B(ω)<br />

<strong>für</strong> ω = 0, (12)<br />

ω<br />

was im Bild 8 dargestellt ist.<br />

Wie in Bild 9 gezeigt, bedeutet die Phasenlaufzeit tph die Zeit, um die das ebenfalls<br />

sinusförmige Ausgangssignal y(t) gegenüber dem Eingangssignal x(t) verzögert wird.<br />

Dass bei der Übertragung eines einzelnen sinusförmigen Signals eine Phasenlaufzeit<br />

entsteht, folgt beispielsweise unmittelbar aus der Vorstellung, dass auf einer Leitung (als<br />

System S) eine räumliche Spannungswelle mit endlicher Geschwindigkeit fortschreitet <strong>und</strong><br />

am Leitungsende eine Wechselspannung erzeugt, die gegenüber der Spannung am Eingang<br />

nacheilt. Bei einem idealen Phasengang der Form B(ω) =ωt0 ist die Phasenlaufzeit tph = t0<br />

also <strong>für</strong> alle ω im betrachteten Frequenzbereich konstant. Hat B(ω) die realistischere Form<br />

aus Gleichung (11), so beträgt die Phasenlaufzeit<br />

tph(ω) = B(ω)<br />

ω = t0 + B0<br />

<strong>für</strong> ω = 0, (13)<br />

ω<br />

IT-V9 - 6<br />

ω


B (ω0)<br />

B(ω)<br />

Δω<br />

ω0<br />

Bild 8: Zur Definition der Phasenlaufzeit<br />

sie ist also eine Funktion der Frequenz ω, d. h. Signale unterschiedlicher Frequenzen erfahren<br />

unterschiedliche Verzögerungen.<br />

Mit einer einzigen Frequenz läßt sich bekanntlich keine Information übertragen. Ein<br />

reales Signal besteht immer aus unendlich vielen Frequenzen. Hat die Phase die Form<br />

B(ω) =ωt0 +B0, so werden die im Eingangssignalspektrum enthaltenen Sinusschwingungen<br />

unterschiedlich verzögert. Man könnte daher annehmen, daß <strong>für</strong> B0 = 0 eine sinnvolle<br />

Übertragung weitgehend unmöglich wäre. Jedoch ist dies <strong>für</strong> B0 = nπ,wobein eine beliebige<br />

ganze Zahl ist, <strong>und</strong> bei modulierten Signalen x(t) nicht der Fall.<br />

• Für B0 = nπ ist e jB0 =[−1] n , so dass sich nur eine Vorzeichenumkehr, also keine<br />

betragsmäßige Änderung in Bezug auf B0 =0ergibt.<br />

• Bei modulierten Signalen ergibt sich zwar eine erhebliche Verzerrung der Augenblickswerte<br />

des Signals x(t), dennoch bleibt der informationstragende Teil, das ist<br />

bei Amplitudenmodulation die Einhüllende des Signals x(t), siehe Bild 10, bis auf die<br />

Zeitverzögerung t0 vollständig erhalten.<br />

x(t)<br />

y(t)<br />

Bild 9: Ein um die Phasenlaufzeit verzögertes sinusförmiges Signal y(t)=x(t − tph)<br />

IT-V9 - 7<br />

tph<br />

ω<br />

t<br />

t


tgr<br />

x(t)<br />

y(t)<br />

Bild 10: Verzögerung einer einzigen Sinusschwingung <strong>und</strong> einer Einhüllenden bei Amplitudenmodulation<br />

Wir müssen daher eine Unterscheidung treffen zwischen der Laufzeit tph einer einzigen<br />

Sinusschwingung <strong>und</strong> der Laufzeit tgr einer in einem modulierten Signal enthaltenen Information,<br />

wie z. B. in Form der Einhüllenden bei Amplitudenmodulation.<br />

Die Zeitverzögerung des Informationsinhaltes eines (amplituden–, frequenz- oder phasen–)<br />

modulierten Signals wird als die Gruppenlaufzeit tgr bezeichnet <strong>und</strong> ist durch<br />

tgr(ω) = dB(ω)<br />

(14)<br />

dω<br />

definiert. Dieser Zusammenhang ist im Bild 11 <strong>für</strong> den Fall eines amplitudenmodulierten<br />

Signals dargestellt.<br />

Die Gruppenlaufzeit tgr ist also die Steigung der Phase B(ω) im Punkte ω des interessierenden<br />

Frequenzbereichs Δω <strong>und</strong> unterscheidet sich im Allgemeinen von der Phasenlaufzeit.<br />

Unter der Voraussetzung eines konstanten Dämpfungsverlaufs A(ω) im Übertragungsbereich<br />

muss tgr aus Kausalitätsgründen immer größer als Null sein<br />

tgr(ω) = dB(ω)<br />

> 0 <strong>für</strong> alle ω. (15)<br />

dω<br />

Oft wird der Begriff der Gruppenlaufzeit nur im Zusammenhang mit der Verzögerung<br />

einer Einhüllenden bei Amplitudenmodulation benutzt. Dem Begriff der Gruppenlaufzeit<br />

kommt jedoch bei allen modulierten Signalen x(t) eine allgemeinere Bedeutung zu. Die<br />

tph<br />

IT-V9 - 8<br />

t<br />

t


B (ω0)<br />

B(ω)<br />

Δω<br />

Bild 11: Zur Definition der Gruppenlaufzeit tgr (ω0)=tanα<br />

Gruppenlaufzeit entspricht der Verzögerung der im Signal enthaltenen Information. Daraus<br />

folgt, dass der Begriff der Gruppenlaufzeit nicht nur auf amplituden-, sondern auch auf<br />

frequenz- <strong>und</strong> phasenmodulierte Signale anwendbar ist [Fett77]. Bild 12 zeigt eine konstante<br />

Gruppenlaufzeit tgr im Übertragungsfrequenzbereich. Dies ist Voraussetzung der verzerrungsfreien<br />

Übertragung.<br />

t0<br />

tgr<br />

Δω<br />

Bild 12: Konstante Gruppenlaufzeit im interessierenden Frequenzbereich<br />

Eine konstante Gruppenlaufzeit entspricht einem linearen Phasenverlauf B(ω)<br />

B(ω) =ωt0 + B0<br />

ω0<br />

α<br />

ω<br />

ω<br />

<strong>für</strong> ω>0.<br />

In diesem Fall fällt die Gruppenlaufzeit tgr also mit t0 zusammen<br />

tgr(ω) = dB(ω)<br />

= t0.<br />

dω<br />

Die Konstante B0 ist beliebig wählbar.<br />

Im folgenden Abschnitt sollen alle in den vorausgehenden Betrachtungen gewonnenen<br />

Erkenntnisse zur verzerrungsfreien Übertragung eines Signals noch einmal kurz zusammengefasst<br />

werden.<br />

1.4 Bedingungen der verzerrungsfreien Übertragung<br />

Man unterscheidet zwischen verzerrungsfreier Übertragung der Augenblickswerte eines Signals<br />

<strong>und</strong> verzerrungsfreier Übertragung des Informationsinhaltes eines modulierten Signals.<br />

Bedingung bezüglich des Dämpfungsverlaufs A(ω) ist in beiden Fällen eine im gesamten<br />

Übertragungsfrequenzbereich konstante Dämpfung. Nur unter dieser Voraussetzung haben<br />

die Bedingungen an den Phasenverlauf B(ω) bzw. an die Gruppenlaufzeit tgr(ω) Gültigkeit.<br />

IT-V9 - 9


• Für eine verzerrungsfreie Übertragung der Augenblickswerte eines Signals muss die<br />

Phasenkurve des Systems S im Übertragungsbereich eine Gerade sein. Ferner muss<br />

die gedachte Verlängerung der Phasenkurve die Ordinatenachse bei einem Vielfachen<br />

von π schneiden:<br />

B(ω) =ωt0 + B0 <strong>für</strong> ω>0, mit B0 = ±nπ <strong>und</strong> n =0, 1, 2,...<br />

Da die Gruppenlaufzeit die Ableitung der Phase B(ω) nach ω ist, folgt<br />

tgr = dB(ω)<br />

dω = t0 .<br />

Es muss u. a. also eine konstante Gruppenlaufzeit herrschen.<br />

• Für eine verzerrungsfreie Übertragung des Informationsinhaltes eines modulierten Signals<br />

genügt – ohne jede Zusatzbedingung – eine konstante Gruppenlaufzeit im Übertragungsbereich,<br />

d. h., die Phase B(ω) muss linear in ω sein:<br />

B(ω) =ωt0 + B0, <strong>für</strong> ω>0<br />

wobei B0 eine beliebige Konstante ist. Hieraus erhält man <strong>für</strong> die Gruppenlaufzeit<br />

tgr = dB(ω)<br />

dω = t0 .<br />

Es folgt ebenso eine konstante Gruppenlaufzeit.<br />

1.5 Problemstellung<br />

aS<br />

aD<br />

A/dB<br />

fg<br />

Bild 13: Prinzipieller Dämpfungsverlauf eines Cauer-Tiefpasses<br />

IT-V9 - 10<br />

f


In diesem Praktikumsversuch geht es darum, die Frequenzabhängigkeit der Gruppenlaufzeit<br />

eines Cauer-Tiefpasses zu entzerren. Im Allgemeinen sind Cauer-Tiefpässe dadurch<br />

charakterisiert, dass sie entsprechend ihrem Filtergrad Rippel im Durchlassbereich bis zu<br />

einer maximalen Durchlassdämpfung <strong>und</strong> Rippel im Sperrbereich unter Einhaltung einer<br />

minimalen Sperrdämpfung haben. Im Übergangsbereich ist die Dämpfungsfunktion monoton<br />

steigend. Ein Beispiel eines solchen Cauer-Tiefpasses ist im Bild 13 gegeben.<br />

In diesem Versuch wird speziell die Frequenzabhängigkeit der Gruppenlaufzeit des Cauer-Tiefpasses<br />

C 07 05 57 betrachtet <strong>und</strong> entzerrt. Der Cauer-Tiefpass C 07 05 57 ist<br />

vom Filtergrad 7 <strong>und</strong> besitzt eine minimale Sperrdämpfung von 40.5dB,sowieeinemaximale<br />

Durchlassdämpfung von 0.01 dB. Eine Dämpfungsentzerrung entfällt, da der Cauer-<br />

Tiefpass bezüglich seines Dämpfungsverhaltens bereits optimal ausgelegt ist.<br />

A/dB<br />

50<br />

40<br />

30<br />

20<br />

10<br />

tgr/µs<br />

500<br />

400<br />

300<br />

200<br />

100<br />

0<br />

0 2 4 6 8 10 12<br />

Bild 14: Verlauf von Dämpfung <strong>und</strong> Gruppenlaufzeit des Cauer-Tiefpasses C 07 05 57<br />

tgr(fg)<br />

tgr<br />

fg<br />

Bild 15: Zur Gruppenlaufzeitentzerrung<br />

f<br />

f/kHz<br />

Im Allgemeinen genügen weder Dämpfungsverlauf A(ω) noch Phasenverlauf B(ω) eines<br />

Übertragungssystems den Bedingungen der verzerrungsfreien Übertragung. Um dennoch<br />

IT-V9 - 11


eine verzerrungsfreie Übertragung zu ermöglichen, kommt es darauf an, durch geeignete<br />

Netzwerke <strong>und</strong> Schaltungen den Dämpfungs- bzw. Phasenverlauf zu korrigieren. Diese<br />

Korrektur zur näherungsweisen Erfüllung der Bedingungen in Abschnitt 1.4 bezeichnet<br />

man als Entzerrung. Im Falle der Korrektur des Dämpfungsverlaufs spricht man von einer<br />

Dämpfungsentzerrung (Dämpfungsausgleich). Wird die Phase mit dem Ziel eines möglichst<br />

linearen Phasenverlaufs verändert, spricht man von einer Phasenentzerrung, wird<br />

sie im Hinblick auf konstante Gruppenlaufzeit korrigiert, wird der Vorgang als Gruppenlaufzeitentzerrung<br />

bezeichnet. Die Gruppenlaufzeit kann bei der Entzerrung aus Gründen<br />

der Kausalität nur erhöht werden. Den theoretischen Frequenzverlauf der Dämpfung <strong>und</strong><br />

der Gruppenlaufzeit sowie die Toleranzgrenzen zeigt Bild 14 . Wenn zur verzerrungsfreien<br />

Übertragung eines modulierten Signals, siehe Abschnitt 1.4, die Gruppenlaufzeit im Durchlassbereich<br />

0


Eine Übertragungsfunktion, die diese Bedingung erfüllt, ist durch den Quotienten zweier<br />

reeller, <strong>für</strong> p =jω zueinander konjugiert komplexer Polynome darstellbar. Da außerdem<br />

das Nennerpolynom <strong>für</strong> Reaktanzschaltungen ein Hurwitz-Polynom sein muss, ergibt sich<br />

<strong>für</strong> die Übertragungsfunktion eines Reaktanz-Allpasses in Abhängigkeit von der normierten<br />

komplexen Frequenz p = σ +jω:<br />

H(p) = g(−p)<br />

g(p)<br />

. (18)<br />

Hierbei ist g(p) ein reelles Hurwitz-Polynom vom Grad n. Folglich ist H(p) ebenfalls vom<br />

Grad n <strong>und</strong> durch die in der linken p-Halbebene liegenden n Nullstellen des Hurwitz-<br />

Polynoms g(p) bis auf eine Konstante bestimmt.<br />

2.3 Elementarglieder<br />

Eine realisierbare Übertragungsfunktion H(p) vom Grad n lässt sich bei Darstellung der<br />

Polynome durch ihre Nullstellen-Faktoren in der Form<br />

H(p) =<br />

n−2r <br />

σ=1<br />

−p + ασ<br />

p + ασ<br />

r<br />

p 2 − 2αϱp + γ 2 ϱ<br />

p<br />

ϱ=1<br />

2 +2αϱp + γ2 ϱ<br />

mit γ 2 ϱ = α2 ϱ + β2 ϱ (19)<br />

schreiben. Hierbei sind p0σ = −ασ reelle Pole <strong>und</strong> p0ϱ = −αϱ ± jβϱ konjugiert komplexe<br />

Polpaare. Die Übertragungsfunktion besteht dabei aus r Allpässen 2. Ordnung <strong>und</strong> n − 2r<br />

Allpässen 1. Ordnung. Die einzelnen Elementar-Allpässe sind verlustfreie Zweitore. Da die<br />

Dämpfung dieser Zweitore <strong>für</strong> alle Frequenzen gleich Null ist, ergeben sich ihre Reflektanzen<br />

zu Null, wenn die Torbezugswiderstände untereinander gleich <strong>und</strong> gleich den Abschlusswiderständen<br />

gewählt werden. Jeder einzelne Faktor der Produktdarstellung in Gleichung (19)<br />

lässt sich dann wegen der beiderseitigen Reflexionsfreiheit der Allpässe (vgl. [AS62]) durch<br />

einen einzelnen Elementar-Allpass realisieren. Die Kettenschaltung dieser Elementarglieder<br />

ergibt die Gesamtschaltung mit der Übertragungsfunktion nach Gleichung (19). Es ist daher<br />

zweckmäßig, die Eigenschaften <strong>und</strong> die Realisierung solcher Elementar-Zweitore näher zu<br />

erörtern.<br />

Elementar-Allpass vom Grad n =2<br />

Die dazugehörige Nullstellen- <strong>und</strong> Polverteilung von H(p) ist in Bild 16 dargestellt, wobei<br />

tan(ϕ) =β/α <strong>und</strong> cos(ϕ) =α/γ gilt. Für diesen Fall eines konjugiert komplexen Nullstellen-<br />

Paares von g(p) ist nach Gleichung (19)<br />

Die Polstellen von H(p) ergeben sich zu<br />

wobei α, γ > 0 vorausgesetzt wird. Da ferner<br />

H(p) = p2 − 2αp + γ2 p2 . (20)<br />

+2αp + γ2 p1,2 = −α ± jβ = −α ± j γ 2 − α 2 , (21)<br />

β = γ 2 − α 2 (22)<br />

IT-V9 - 13


β<br />

α<br />

γ<br />

ϕ<br />

jω<br />

Bild 16: Pol- <strong>und</strong> Nullstellenverteilung eines Allpasses 2. Grades<br />

positiv ist, muss γ>αgelten.<br />

Mit Gleichung (4) erhalten wir <strong>für</strong> die Phase<br />

B(ω) =− arg {H(jω)} =2arg γ 2 − ω 2 +j2αω .<br />

Für positive Frequenzen ω folgt somit<br />

<br />

2αω<br />

B(ω) = 2 arctan<br />

γ 2 − ω 2<br />

<br />

σ<br />

. (23)<br />

Differenzieren wir nun B(ω) nach der normierten Frequenz ω, so erhalten wir mit Gleichung<br />

(14) unter Berücksichtigung von<br />

die normierte Gruppenlaufzeit<br />

τ(ω) =tgr2πfg =<br />

d<br />

dω arctan F (ω) = F ′ (ω)<br />

1+F 2 (ω)<br />

=<br />

4α [γ2 + ω2 ]<br />

[γ2 − ω2 ] 2 +4α2 4α [γ<br />

=<br />

ω2 2 + ω2 ]<br />

[γ2 + ω2 ] 2 − 4β2ω 2<br />

2α<br />

[ω − β] 2 +<br />

+ α2 2α<br />

[ω + β] 2 .<br />

+ α2 Unter Definition eines Winkels ϕ zwischen dem Strahl vom Nullpunkt zum Pol p0 = −α+jβ<br />

<strong>und</strong> der negativen reellen Achse erhalten wir zwei zu betrachtende Fälle in der Kurve der<br />

Gruppenlaufzeit, vgl. Bild 16.<br />

Für den ersten Fall, dass<br />

2β − γ>0<br />

IT-V9 - 14<br />

(24)<br />

(25)


ist, folgt<br />

<strong>und</strong>somitergibtsich<br />

√ 3β>α<br />

ϕ>π/6 .<br />

Folglich können die Frequenzen, bei denen die Gruppenlaufzeit aus (25) maximal wird, zu<br />

ωmax = ± γ [2β − γ] (26)<br />

berechnet werden. Aus dieser Gleichung (26) ist die Fallunterscheidung ersichtlich, da der<br />

Wurzelausdruck das Vorzeichen bei ϕ = π/6 wechselt.<br />

Die Maxima der beiden Einzelkurven aus den Summanden der Gleichung (25) betragen<br />

<strong>für</strong> ϕ>π/6 jeweils<br />

τmax = 2<br />

α<br />

<strong>und</strong> treten bei den Frequenzen ω = ±β auf, während die Maxima der Summenkurve<br />

τmax =<br />

α<br />

β [γ − β]<br />

(27)<br />

<strong>für</strong> ϕ>π/6 (28a)<br />

bei den in Gleichung (26) berechneten Frequenzen auftreten. Das relative Minimum liegt<br />

bei ω =0<strong>und</strong> hat den Wert<br />

τmin = 4α<br />

. (29)<br />

γ2 Für diesen Fall ist im Bild 17 der prinzipielle Frequenzverlauf der Gruppenlaufzeit als obere<br />

Kurve angegeben. Die beiden unteren Kurven sind die Verläufe der beiden Summanden von<br />

Gleichung (25), deren Addition den Gesamtverlauf in Bild 17 ergibt.<br />

Der zweite Fall, wobei ϕ ≤ π/6 ist, beinhaltet nur ein Maximum der Gruppenlaufzeit<br />

bei der Frequenz ω =0:<br />

τmax = 4α<br />

γ 2 <strong>für</strong> ϕ ≤ π/6 . (28b)<br />

2.4 Zur Realisierung von Reaktanz-Allpassschaltungen<br />

Ist die Übertragungsfunktion H(p) eines Elementargliedes mit ihren Parametern αν <strong>und</strong> γν<br />

gemäß der Gleichung (19) bekannt, so lässt sie sich durch eine Reihe äquivalenter Reaktanz-<br />

Allpassschaltungen realisieren, deren normierte Schaltelemente in Abhängigkeit von den Polstellenparametern<br />

gegeben sind. Es würde zu weit führen, alle möglichen Allpässe anzuführen,<br />

welche dieselbe Übertragungsfunktion H(p) realisieren. Ausführliche Darstellungen sind<br />

in [AS62] <strong>und</strong> [AS63] zu finden. In diesem Kapitel werden die Schaltungen vom Grad n =2<br />

erläutert, die im Praktikumsversuch zur Gruppenlaufzeitentzerrung des Cauer-Tiefpasses<br />

IT-V9 - 15


τmax<br />

τmin<br />

F<br />

−β 0 ωm<br />

τ<br />

τmax<br />

Bild 17: Prinzipieller Frequenzverlauf der Gruppenlaufzeit<br />

herangezogen werden. Jedes passive, symmetrische Zweitor kann durch eine Brückenschaltung<br />

mit paarweise gleichen Brückenwiderständen (hier speziell Reaktanz-Eintore) realisiert<br />

werden. Die symmetrische Brückenschaltung hat den Nachteil, dass sie nur erdsymmetrisch<br />

aufgebaut werden kann (dies ist wegen der bei hohen Frequenzen notwendigen Abschirmung<br />

meist unerwünscht) <strong>und</strong> dass relativ viele Schaltelemente nötig sind. Beide Nachteile<br />

lassen sich vermeiden, wenn man die Brückenschaltung in äquivalente erdunsymmetrische<br />

Schaltungen umrechnet. Auf diese Weise erhält man die in Bild 18 <strong>und</strong> Bild 19 gezeigten<br />

Schaltungen.<br />

L1<br />

ω2<br />

C1<br />

M<br />

Bild 18: Erdunsymmetrische Realisierung eines Elementarallpasses 2. Grades<br />

Die Schaltung nach Bild 18 setzt voraus, dass die Spulen L1 fest gekoppelt sind (k =1).<br />

Die Realisierbarkeit dieser Schaltung unterliegt keiner Einschränkung hinsichtlich der Pol-<br />

L2<br />

C2<br />

IT-V9 - 16<br />

L1<br />

ω


C3<br />

ω4<br />

L3<br />

C4<br />

L4<br />

C3<br />

Bild 19: Alternative Realisierung des Elementarallpasses 2. Grades<br />

stellenlage der Übertragungsfunktion. Die Elemente ergeben sich zu<br />

L1 = α<br />

γ 2 , L2 = 1<br />

4α , M =4L1 , C1 = 1<br />

4α<br />

Die Resonanzfrequenz ist<br />

ω2 = γ =<br />

1<br />

√ .<br />

L2C2<br />

<strong>und</strong> C2 = 4α<br />

.<br />

γ2 3 Technisch sinnvolle Gruppenlaufzeit-Approximation<br />

3.1 Angaben <strong>für</strong> Gruppenlaufzeit-Approximation<br />

Natürlich ist es nicht möglich durch eine nachgeschaltete Allpasskette einen exakt konstanten<br />

Gruppenlaufzeitverlauf über den gesamten Durchlassbereich des Tiefpasses zu realisieren.<br />

Die Gruppenlaufzeit des Gesamtsystems in Abhängigkeit von der Frequenz wird –<br />

bei endlichem Aufwand – immer gewisse Abweichungen von dem angestrebten konstanten<br />

Verlauf aufweisen. Eine Gruppenlaufzeitentzerrung stellt also eine Approximationsaufgabe<br />

dar, nämlich den geforderten konstanten Frequenzverlauf der Gruppenlaufzeit mit einer<br />

vorgegebenen Genauigkeit zu approximieren. In diesem Abschnitt sollen qualitative Angaben<br />

<strong>für</strong> eine technisch sinnvolle Gruppenlaufzeitentzerrung gemacht werden. Insbesondere geht<br />

es darum, allgemeine Gesichtspunkte <strong>für</strong> eine aufwandsarme Laufzeitentzerrung anzugeben.<br />

Die Approximation einer über den Durchlassbereich des Tiefpasses konstanten Gruppenlaufzeit<br />

kann mit einer verschiedenen Zahl nachgeschalteter Allpassglieder durchgeführt werden.<br />

Es ist leicht einzusehen, dass der Aufwand an Allpässen steigt, je besser die Konstanz der<br />

Laufzeit eingehalten werden soll. Bild 20 veranschaulicht, wie mit wachsendem Aufwand an<br />

nachgeschalteten Allpassgliedern vom Grad 2 der Summenlaufzeitverlauf der Gesamtschaltung,<br />

bestehend aus dem Tiefpass C 07 05 57 <strong>und</strong> einer Allpasskette verbessert wird.<br />

Dabei ist die Nachbildung einer konstanten Gruppenlaufzeit nach der Methode der<br />

„kleinsten Fehlerquadrate“ verbessert worden. Je nach dem angewandten Aufwand steigt<br />

IT-V9 - 17


τg<br />

τ<br />

2 Allpassglieder<br />

ohne Allpassglied<br />

Bild 20: Gruppenlaufzeitentzerrung von C 07 05 57 mit 2 verschiedenem Allpassgliedern 2. Grades<br />

<strong>und</strong> konstanter Approximationsgrenze<br />

die Gruppenlaufzeit weiter an. Aus Gründen der Kausalität ist es nur möglich, die Gruppenlaufzeit<br />

aufzufüllen. Die entzerrte Laufzeit im Durchlassbereich schwankt dann um einen<br />

konstanten Wert. Ihr Verlauf ist cosinusförmig, <strong>und</strong> die Rippelperiode ist nahezu konstant.<br />

Diese Art der Approximation einer konstanten Laufzeit benötigt immerhin einige nachgeschaltete<br />

Allpassglieder, damit ein annähernd konstanter Verlauf der Gruppenlaufzeit bis<br />

zur Grenzfrequenz des Tiefpasses erreicht werden kann.<br />

Der Aufwand lässt sich jedoch erheblich reduzieren, wenn man eine andere Art der<br />

Gruppenlaufzeitapproximation anwendet. Untersuchungen in [Welz62] <strong>und</strong> [Antr65] haben<br />

ergeben, dass monoton gegen die Grenzfrequenz eines Tiefpasses zunehmende Abweichungen<br />

der Gruppenlaufzeitschwankungen keinen wesentlichen Nachteil <strong>für</strong> das Einschwingverhalten<br />

des gesamten entzerrten Systems haben. Der prinzipielle Verlauf der entzerrten Laufzeit ist<br />

in Bild 21 dargestellt.<br />

Im Folgenden ist unter Laufzeitbegrenzungslinien der Verlauf der Verbindungslinien der<br />

Gruppenlaufzeitmaxima bzw. -minima über dem entzerrten Durchlassbereich des Tiefpasses<br />

zu verstehen, siehe gestrichelte Linie in Bild 21. Trotz der Zunahme der Rippelamplitude<br />

gegen die Entzerrungsgrenze wird das Einschwingverhalten verbessert. Zusammenfassend<br />

lassen sich folgende qualitative Aussagen <strong>für</strong> eine technisch sinnvolle aufwandsarme Laufzeitentzerrung<br />

machen:<br />

a) Die entzerrte Laufzeit soll sich in einem möglichst großen Frequenzbereich, der sich<br />

möglichst bis zur Gruppenlaufzeitspitze des Tiefpasses erstreckt, innerhalb der Laufzeitbegrenzungslinien<br />

bewegen.<br />

b) Um diese Forderung zu erfüllen, ist <strong>für</strong> wachsende Frequenzen eine symmetrische<br />

Zunahme der Rippelamplitude bezüglich einer Konstanten, die sich als Symmetrielinie<br />

der Laufzeitbegrenzungslinien ergibt, zulässig.<br />

IT-V9 - 18<br />

fg<br />

f


τg + Δτ(ωg)<br />

τg + Δτ(0)<br />

τg<br />

τg − Δτ(0)<br />

τg − Δτ(ωg)<br />

τg(ω)<br />

Bild 21: Zunehmende Abweichung der Gruppenlaufzeitschwankungen<br />

3.2 Gruppenlaufzeitentzerrung anhand von Laufzeitkarten<br />

Die Gruppenlaufzeit des Tiefpasses C 07 05 57 soll im Durchlassbereich ohne großen Aufwand<br />

durch zwei Allpassglieder vom Grad n =2auf einen cosinusförmigen Verlauf mit zunehmender<br />

Rippelamplitude <strong>für</strong> wachsende Frequenzen entzerrt werden. Die Approximation<br />

einer solchen Gesamtgruppenlaufzeit erfolgt mithilfe von Laufzeitkarten. Laufzeitkarten (vgl.<br />

Bild 24) sind Diagramme, in denen die normierte Gruppenlaufzeit elementarer Allpassglieder<br />

(hier Grad n =2) <strong>für</strong> verschiedene Werte von α <strong>und</strong> γ als Parameter über der normierten<br />

Frequenz f aufgetragen ist. Anhand von Laufzeitkarten werden diejenigen Laufzeitkurven<br />

ermittelt, mit denen sich das Approximationsproblem (Einhalten der Laufzeitbegrenzungslinien)<br />

am Besten lösen lässt. Aus den Parametern dieser Kurven kann man dann die<br />

Bauelement-Werte der Allpässe berechnen (s. Kap. 2.4). Die Approximation geht von der<br />

normierten Darstellung der Gruppenlaufzeit τ(f) des Tiefpasses <strong>und</strong> den Laufzeitbegrenzungslinien<br />

aus, innerhalb derer sich die entzerrte Laufzeit bewegen soll (Angaben hierüber<br />

in [Antr65]). Die Maßstäbe sind dieselben wie in den Laufzeitkarten. Der konstante Wert<br />

τg, um den die entzerrte Laufzeit schwankt, wird zu<br />

τg = τ (fg) (fg = Grenzfrequenz des Tiefpasses)<br />

angenommen. Der eigentliche Approximationsvorgang wird zweckmässig in folgenden Schritten<br />

durchgeführt:<br />

1. Im Bereich niedriger Frequenzen sind nur geringe Schwankungen der entzerrten Laufzeit<br />

zulässig. Die Gruppenlaufzeit des Tiefpasses τ(f) verläuft in diesem Bereich relativ<br />

konstant <strong>und</strong> nimmt <strong>für</strong> wachsende Frequenzen monoton zu. Daraus folgt <strong>für</strong> die<br />

Laufzeitkurve τ1(f) des ersten Allpassgliedes, dass sie im Bereich niedriger Frequenzen<br />

möglichst konstant <strong>und</strong> <strong>für</strong> steigende Frequenzen monoton fallend verlaufen muss.<br />

IT-V9 - 19<br />

ωg<br />

ω


2. Nach Wahl der Laufzeitkurve τ1(f) zeichnet man den Summenlaufzeitverlauf<br />

τ1,ges(f) =τ(f)+τ1(f),<br />

was durch graphische Addition leicht möglich ist.<br />

3. An die Stelle des Minimums von τ1,ges(f) legt man das Maximum der Laufzeitkurve<br />

τ2(f) des zweiten Allpassgliedes.<br />

4. Man zeichnet den Gesamtlaufzeitverlauf<br />

τ2,ges(f) =τ(f)+τ1(f)+τ2(f)<br />

von Tiefpass plus Allpasskette (graphische Addition).<br />

Diese erste Näherungslösung kann noch verbessert werden, wenn man Laufzeitkarten mit<br />

Zwischenwerten von α <strong>und</strong> γ verwendet.<br />

Hinweis:<br />

Die optimalen Werte <strong>für</strong> α <strong>und</strong> γ lassen sich anstelle der graphischen Auswertung mit Laufzeitkarten<br />

auch rechnerisch mithilfe der Fehlerausgleichsrechnung bestimmen. Die Durchführung<br />

einer Gruppenlaufzeit-Approximation auf der Gr<strong>und</strong>lage der Methode der „kleinsten<br />

Fehlerquadrate“ würde jedoch den Rahmen dieses Praktikums sprengen.<br />

4 Vorbereitung<br />

Vorbereitungsaufgabe 4.1:<br />

Gegeben ist die Pol- <strong>und</strong> Nullstellenverteilung der Übertragungsfunktion H(p) eines Elementarallpasses<br />

vom Grad n =1gemäß Bild 22.<br />

Nullstelle<br />

Polstelle<br />

α<br />

jω<br />

Bild 22: Pol-Nullstellenverteilung eines Elementarallpasses 1. Grades<br />

1. Begründen Sie, warum es sich bei dieser Pol-Nullstellen-Konfiguration um einen Allpass<br />

handelt.<br />

2. Für diesen Fall eines reellen Poles berechne man<br />

α<br />

IT-V9 - 20<br />

σ


a) die Übertragungsfunktion H(p) mit H (0) = 1,<br />

b) die Phase B (ω),<br />

c) die Phasenlaufzeit ϑ (ω) <strong>und</strong><br />

d) die Gruppenlaufzeit τ (ω).<br />

Hinweis:<br />

Die Übertragungsfunktion ergibt sich in Abhängigkeit der Konstanten α.<br />

3. Der Verlauf der Gruppenlaufzeit τ (ω) ist über ω zu skizzieren. Dazu bestimme man<br />

a) das Maximum der Gruppenlaufzeit τmax <strong>und</strong><br />

b) lim τ (ω).<br />

ω→∞<br />

Vorbereitungsaufgabe 4.2:<br />

Bereiten Sie sich auf die folgenden Themenbereiche vor (nicht schriftlich), die Sie zu Beginn<br />

der Durchführung ihren Kommilitonen in Form eines Kurzreferates (3-5 Minuten) näherbringen<br />

sollen (Hilfsmittel Tafel). Die Themenvergabe erfolgt durch Auslosung.<br />

• Ideale, verzerrungsfreie <strong>und</strong> reale Übertragung von Signalen, Interpretation der Phasenbedingungen.<br />

• Definition <strong>und</strong> physikalische Bedeutung der Phasen- <strong>und</strong> Gruppenlaufzeit <strong>und</strong> die<br />

Anwendung auf verzerrungsfreie <strong>und</strong> reale Systeme.<br />

• Definition/Verwendung eines Allpasses, Pol-/ Nullstellenverteilung, Übertragungsfunktion<br />

<strong>und</strong> Realisierung.<br />

• Gruppenlaufzeiten von Allpässen 1. <strong>und</strong> 2. Ordnung.<br />

• Gr<strong>und</strong>prinzip einer technisch sinnvollen Gruppenlaufzeitentzerrung.<br />

IT-V9 - 21


5 Messaufgaben<br />

Mit den zur Verfügung stehenden Messgeräten können nur Phasenlaufzeiten gemessen werden.<br />

Überlegen Sie, wie sich die Gruppenlaufzeit näherungsweise aus der Phasenlaufzeit<br />

berechnen lässt.<br />

5.1 Messung der Phasen- <strong>und</strong> Gruppenlaufzeit<br />

1. Messen Sie die Phasenlaufzeit tph,1(f) des Tiefpasses im Durchlassbereich. Berechnen<br />

Sie den Verlauf der Gruppenlaufzeit tgr,1(f) <strong>und</strong> der normierten Gruppenlaufzeit<br />

τ1(f) =tgr,1(f)ωg. Tragen Sie die gef<strong>und</strong>enen Werte in die Tabelle 1 ein. Zeichnen Sie<br />

das gef<strong>und</strong>ene Ergebnis auf Millimeterpapier.<br />

2. Messen Sie die Phasenlaufzeit tph,2(f) der entzerrten Schaltung im Durchlassbereich.<br />

Berechnen Sie den Verlauf der Gruppenlaufzeit tgr,2(f) <strong>und</strong> der normierten Gruppenlaufzeit<br />

τ2(f). Tragen Sie die gef<strong>und</strong>enen Werte in die Tabelle 2 ein. Zeichnen Sie das<br />

gef<strong>und</strong>ene Ergebnis auf Millimeterpapier.<br />

5.2 Messung der Verzögerungs- <strong>und</strong> Anstiegszeit<br />

a(t)<br />

1<br />

0.9<br />

0.1<br />

TV<br />

TA<br />

hü<br />

Bild 23: Sprungantwort mit Verzögerungszeit, Anstiegszeit <strong>und</strong> relativem Überschwingen<br />

Messen Sie die Sprungantwort des Tiefpasses mit <strong>und</strong> ohne Entzerrung. Vergleichen Sie<br />

die Verzögerungszeit TV <strong>und</strong> die Anstiegszeit TA sowie das relative Überschwingen hü (siehe<br />

Bild 23) bezüglich des Endwertes.<br />

IT-V9 - 22<br />

t


f in Hz tph,1 in µs Δtph,1 in µs tph,1 in µs f in Hz tgr,1 in µs τ1<br />

1000<br />

2000<br />

3000<br />

4000<br />

5000<br />

6000<br />

6500<br />

7000<br />

7500<br />

8000<br />

8500<br />

9000<br />

9250<br />

9500<br />

9750<br />

10000<br />

10250<br />

1500<br />

2500<br />

3500<br />

4500<br />

5500<br />

6250<br />

6750<br />

7250<br />

7750<br />

8250<br />

8750<br />

9125<br />

9375<br />

9625<br />

9875<br />

10125<br />

Tabelle 1: Messung der Laufzeit ohne Entzerrung<br />

IT-V9 - 23


f in Hz tph,2 in µs Δtph,2 in µs tph,2 in µs f in Hz tgr,2 in µs τ2<br />

1000<br />

2000<br />

3000<br />

4000<br />

5000<br />

6000<br />

6500<br />

7000<br />

7500<br />

8000<br />

8500<br />

9000<br />

9250<br />

9500<br />

9750<br />

10000<br />

10250<br />

1500<br />

2500<br />

3500<br />

4500<br />

5500<br />

6250<br />

6750<br />

7250<br />

7750<br />

8250<br />

8750<br />

9125<br />

9375<br />

9625<br />

9875<br />

10125<br />

Tabelle 2: Messung der Laufzeit mit Entzerrung<br />

IT-V9 - 24


5.3 Hausaufgabe<br />

Führen Sie anhand der in Abschnitt 3.2 gemachten Hinweise unter Zuhilfenahme der Laufzeitkarten<br />

in Bild 24 sowie der Gleichung (25) eine Laufzeitentzerrung des Tiefpasses mit<br />

zwei Allpässen durch. Geben Sie die Polstellenparameter α <strong>und</strong> γ der verwendeten Allpässe<br />

an. Zeichnen Sie das gef<strong>und</strong>ene Ergebnis auf Millimeterpapier.<br />

Werden die vorgegebenen Laufzeitbegrenzungslinien nach Bild 25 eingehalten?<br />

Geben Sie in Ihrer Auswertung neben den Messergebnissen auch den <strong>für</strong> die jeweilige<br />

Messung verwendeten Versuchsaufbau an.<br />

τmax<br />

10<br />

τmax<br />

0<br />

0<br />

10<br />

0<br />

0<br />

τ<br />

τ<br />

0.25<br />

0.3<br />

0.3<br />

0.4<br />

0.4<br />

0.5<br />

0.5<br />

0.6<br />

0.6<br />

0.7<br />

0.7<br />

Bild 24: Darstellung der normierten Gruppenlaufzeit der Allpassglieder 2. Ordnung in Abhängigkeit<br />

vom Polstellenparameter γ <strong>für</strong> α =0.2 (oben) <strong>und</strong> α =0.25 (unten) nach Gleichung<br />

(25).<br />

0.8<br />

0.8<br />

IT-V9 - 25<br />

0.9<br />

0.9<br />

1.0<br />

1.0<br />

1<br />

1<br />

1.4<br />

1.4<br />

f/fg<br />

f/fg


30<br />

20<br />

10<br />

0<br />

τ<br />

1 1.4 f/fg<br />

Bild 25: Laufzeitbegrenzungslinien der normierten Gruppenlaufzeit<br />

τg =15.2 ± 0.45exp(2.22 f/fg) als Funktion der normierten Frequenz f/fg<br />

IT-V9 - 26


Literatur<br />

[Antr65] K. Antreich: “Über den Einfluss von Laufzeitabweichungen von einem konstanten<br />

Wert auf das Impulsverhalten bei Tiefpassübertragungskanälen”. Frequenz 19,<br />

1965, S. 1–7.<br />

[AS62] K. Antreich, R. Saal: “Zur Realisierung von Reaktanz-Allpass-Schaltungen, Teil I”.<br />

Frequenz 16, 1962, S. 469–477.<br />

[AS63] K. Antreich, R. Saal: “Zur Realisierung von Reaktanz-Allpass-Schaltungen,<br />

Teil II”. Frequenz 17, 1963, S. 14–22.<br />

[Fett77] A. Fettweis: “On the significance of group delay in communication engineering”.<br />

Archiv <strong>für</strong> Elektronik <strong>und</strong> Übertragungstechnik 31(9), September 1977, S. 342–348.<br />

[Fett04] A. Fettweis: Elemente nachrichtentechnischer Systeme. Schlembach, Wilburgstetten,<br />

2004.<br />

[Welz62] M. Welzenbach: “Untersuchungen zur Gruppenlaufzeitentzerrung von Tiefpässen”.<br />

Frequenz 19, 1962, S. 33–40.<br />

IT-V9 - 27



• <br />

• <br />

• <br />


• <br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />


• <br />

<br />

Synthese <strong>und</strong> Abbildung auf ein FPGA 33 <br />

<br />

Schließlich kann das Projekt im nächsten Fenster durch Finish“ erstellt werden. ISE <br />

”<br />

hat beim Importieren der Quelldateien die Hierarchie der einzelnen Module automatisch<br />

<br />

erkannt:<br />

<br />

Abb. 4.9: Liste der Quelldateien im Projekt<br />

4.3 Pinbelegung <strong>und</strong> Abbildung auf das Ziel-FPGA<br />

Durch die VHDL-Modelle ist der innere Aufbau der Schaltung definiert. Es muss aber noch<br />

festgelegt werden, wie die Ein- <strong>und</strong> Ausgänge der Schaltung auf die Ein- <strong>und</strong> Ausgänge des<br />

FPGAs abgebildet werden. Zu diesem Zweck wird eine .ucf-Datei (User Constrains File)<br />

verwendet, die den Zusammenhang zwischen Name (Net) <strong>und</strong> Pin (Location) beschreibt:<br />

NET "clk" LOC = "A11"; # Takt (24 MHz)<br />

NET "resetn" LOC = "B6"; # Reset (active low)<br />

NET "push" LOC = "D7"; # Druckknopf 1<br />

NET "led" LOC = "A9"; # User LED<br />

TEMPERATURE = 85 # Temperatur in Celsius<br />

NET "clk" TNM_NET = "clk";<br />

TIMESPEC "TS_clk" = PERIOD "clk" 41.66667 ns HIGH 50 % # Takt definieren<br />

Des Weiteren können in dieser Datei auch die Umgebungstemperatur <strong>für</strong> die Schaltung sowie<br />

die Taktraten definiert werden. Die Datei kann von Hand oder durch das entsprechende<br />

Werkzeug von ISE erstellt werden. Die folgende Abbildung 4.10 zeigt die Pinbelegung der<br />

Eingabe- <strong>und</strong> Anzeigeelemente des Virtex-II Entwicklungsboards.<br />

Done<br />

Program<br />

A9<br />

D7<br />

User LED<br />

User 1<br />

Reset B6 A6 User 2<br />

Display 2 E9 C10 Display 1<br />

B4 A4<br />

E10<br />

E8<br />

B9<br />

E7<br />

C4<br />

A8<br />

B8<br />

C5 B5<br />

D10<br />

D9<br />

C9<br />

F10 F11<br />

F9<br />

A5 D6<br />

C6<br />

1 2 3 4 5 6 7 8<br />

Abb. 4.10: Pinbelegungdes Entwicklungsboards<br />

<br />

T1<br />

TCE<br />

O1<br />

OCE<br />

OTCLK<br />

ICE<br />

ICLK<br />

D<br />

CE<br />

Q<br />

D Q<br />

CE<br />

Pad<br />

Entwurf integrierter Schaltungen mit VHDL<br />

I<br />

D Q<br />

CE<br />

<br />

<br />

T<br />

IQ1


• <br />

<br />

<br />

<br />

<br />

• <br />

<br />

<br />

<br />

<br />

<br />

<br />

• <br />

<br />

<br />

<br />

<br />

<br />

◦ ◦ ◦ <br />

<br />

<br />

<br />

<br />

<br />

SHIFTIN<br />

F1<br />

F2<br />

F3<br />

F4<br />

BX<br />

G1<br />

G2<br />

G3<br />

G4<br />

BY<br />

CE<br />

CLK<br />

SHIFTOUT<br />

LUT<br />

LUT<br />

D Q<br />

CE<br />

D Q<br />

CE<br />

<br />

<br />

COUT<br />

X<br />

DX<br />

XQ<br />

F<br />

Y<br />

DY<br />

YQ<br />

CIN


• <br />

<br />

<br />

• <br />

<br />

<br />

• <br />

<br />

• <br />

<br />


vector1(0) vector1(2) vector1(3)<br />

1<br />

&<br />

1<br />

&<br />

1<br />

1<br />

&<br />

1<br />

1<br />

vector2(0)<br />

vector1(1) vector2(2)<br />

<br />

&<br />

1<br />

1<br />

vector2(1)<br />

• <br />

<br />

<br />

<br />

<br />

• <br />

<br />

<br />


○ <br />

○ <br />


ezeichnet. Erfolgt die Spreizung über das gesamte zur Verfügung stehende Fre-<br />

quenzband, wird das Codemultiplexverfahren auch Breitband-CDMA (WCDMA)<br />

genannt. Ein wesentlicher Vorteil von WCDMA-Systemen ist die geringere Anfällig-<br />

keit bzgl. Störungen auf dem Übertragungskanal.<br />

B<br />

FDMA<br />

Zeit<br />

Frequenz<br />

B<br />

TDMA<br />

B<br />

CDMA<br />

Zeit Code Zeit<br />

Frequenz<br />

Abbildung 2.2: Vielfachzugriffsverfahren FDMA, TDMA <strong>und</strong> CDMA.<br />

Frequenz<br />

Abbildung ○ 2.3 zeigt dengr<strong>und</strong>sätzlichen Ablauf einer Signalübertragung im Frequenzbereich<br />

○ auf einem gestörten Kanal. Das schmalbandige Nutzsignal<br />

BN wird<br />

sendeseitig ○ mit Hilfe der Spreizung auf eine um den Spreizfaktor SF erhöhte Bandbreite<br />

BS = SF · BN verteilt (Breitbandsignal) <strong>und</strong> anschließend auf dem Kanal<br />

übertragen. Dabei wird dem Spektrum ein unerwünschtes Störsignal hinzugefügt.<br />

Während bei der Entspreizung das Nutzsignal wieder seine ursprüngliche schmal-<br />

bandige Form annimmt, wird das Störsignal auf die Spreizbandbreite verteilt. Durch<br />

den erhöhten Signal-Rausch-Abstand (SNR) wird der Empfang des Nutzsignals ver-<br />

bessert. Da das Breitbandsignal unterhalb des Pegels von thermischen Rauschen<br />

liegen kann [4], wird seine Detektion ohne Kenntnis des Spreizcodes schwierig. Aus<br />

10 Direct-sequence-CDMA<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

8


...011101...<br />

...011101...<br />

Modulation Spreizung<br />

Demodulation<br />

I<br />

Q<br />

I<br />

Q<br />

Sender<br />

Korrelation<br />

Empfänger<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />


BPSK QPSK<br />

Im<br />

−a a<br />

Im<br />

a=1 a= 0,5<br />

Re<br />

8−PSK 16−QAM<br />

010<br />

−a<br />

0<br />

110<br />

a<br />

Im<br />

011 001<br />

111<br />

−a<br />

101<br />

1<br />

000<br />

a=1<br />

a<br />

100<br />

Re<br />

1011<br />

01<br />

a<br />

−a a<br />

00<br />

−a<br />

3a<br />

Im<br />

a<br />

1010 1000 0000<br />

−3a −a a 3a<br />

1110 1100 −a 0100<br />

1111<br />

1001<br />

1101<br />

−3a<br />

11<br />

10<br />

0001 0011<br />

Re<br />

a= 0,1<br />

0010<br />

0110<br />

0101 0111<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

Re


a <br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

L


Ps<br />

SNR|dB = 10· log<br />

<br />

Pn<br />

Ps Pn <br />

SNR|dB < 0 dB<br />

<br />

<br />

Psymb/Pn GP = L<br />

Psymb<br />

Pn<br />

= Pchip<br />

Pn<br />

+ 10 log GP = SNR|dB + 10 log GP<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

s c<br />

s[n] = {+1 + j, −1 + j}<br />

c[n] = {−1, +1, −1, +1}<br />

x[n] <br />

c1 c2 <br />

x[n] = {−j, +2 − j, −2 + j, +j, +2 + j, +j, − j, − 2 − j}<br />

c1[n] = {+1, −1, +1, −1}<br />

c2[n] = {+1, +1, −1, −1}


x <br />

x <br />

x c1 c2 <br />

y[0] =<br />

3<br />

x[i] · c[i]<br />

i=0<br />

<br />

<br />

<br />

<br />

<br />

<br />

○ <br />

<br />

<br />

<br />

<br />

MATLAB ®<br />

RS232-<br />

Schnittstelle<br />

Schnittstellensteuerung<br />

CDMA‐Transceiver<br />

1<br />

0<br />

D6<br />

Modulation<br />

QPSK<br />

16-QAM<br />

1<br />

0<br />

B4<br />

Demodulation<br />

1<br />

0<br />

B4<br />

QPSK<br />

16-QAM<br />

Spreizung<br />

1<br />

0<br />

C4<br />

4<br />

256<br />

1<br />

0<br />

A4<br />

1<br />

0<br />

Korrelation<br />

1<br />

0<br />

A4<br />

4<br />

256<br />

<br />

<br />

C4<br />

AWGN-<br />

Kanal<br />

FPGA<br />

A5 B5 C5 SNR<br />

0 0 0 0<br />

0 0 1 2,5<br />

0 1 1 5<br />

1 0 0 7,5<br />

1 0 1 10<br />

1 1 0 12,5<br />

1 1 1 15


○ <br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

Ps Pn

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!