23.11.2012 Aufrufe

Klangsynthese und Physical Modeling - Brothers in Music

Klangsynthese und Physical Modeling - Brothers in Music

Klangsynthese und Physical Modeling - Brothers in Music

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Diplomarbeit<br />

Henri Hagenow


Digitale Synthese komplexer Wellenformen zur Simulation<br />

akustischer, elektrischer <strong>und</strong> optischer Eigenzustände<br />

mehrdimensionaler Systeme<br />

Diplomarbeit<br />

von<br />

Henri Hagenow<br />

Optisches Institut der Technischen Universität Berl<strong>in</strong><br />

AG Prof. A. D<strong>in</strong>g<br />

Berl<strong>in</strong><br />

August 2001


visit www.syreen.de or www.ota-q.de or www.brothers-<strong>in</strong>-music.de and have fun!


Da schwebt hervor Musik mit Engelschw<strong>in</strong>gen,<br />

Verflicht zu Millionen Tön um Töne,<br />

Des Menschen Wesen durch <strong>und</strong> durch zu dr<strong>in</strong>gen,<br />

zu überfüllen ihn <strong>in</strong> ewger Schöne,<br />

Das Auge netzt sich, fühlt im höhern Sehnen,<br />

Den Götterwert der Töne wie der Träne.<br />

J. W. v. Goethe<br />

(Trilogie der Leidenschaften. Aussöhnung, 1823/24)


Professor:<br />

Prof. Dr. Adalbert D<strong>in</strong>g<br />

Danksagung:<br />

An dieser Stelle möchte ich mich bei me<strong>in</strong>er Mutter bedanken, die mir die f<strong>in</strong>anzielle<br />

Unterstützung zukommen ließ <strong>und</strong> es mir ermöglichte, me<strong>in</strong> Studium nach me<strong>in</strong>en eigenen<br />

Vorstellungen zu bestreiten – dies gilt natürlich auch für Stefan <strong>und</strong> Claus: Vielen Dank!<br />

Für die seelische Unterstützung danke ich me<strong>in</strong>er Fre<strong>und</strong><strong>in</strong> Jenny, die so viel Gedult hatte<br />

<strong>und</strong> für die ich <strong>in</strong> den letzten Monaten leider viel zu wenig Zeit hatte.<br />

Me<strong>in</strong> Dank gilt auch Herrn Professor Adalbert D<strong>in</strong>g, der mir dieses sehr am Herzen<br />

liegende Thema stellte, dank auch für die fachliche Unterstützung. Diese Arbeit hat mir viel<br />

Spaß gemacht!<br />

Vielen Dank auch an die Firma ‚Native Instruments‘, die mir ihre Software ‚Reaktor‘<br />

unentgeldlich zur Verfügung gestellt hat.


DIPLOMARBEIT HENRI HAGENOW<br />

Inhaltsverzeichnis<br />

1. E<strong>in</strong>leitung.........................................................................................................................................1<br />

2. Überblick über verschiedene Klansynthesearten................................................................4<br />

2.1 Klangoptimierte Schallaufzeichnungen <strong>und</strong> Sampl<strong>in</strong>g........................................................5<br />

Onl<strong>in</strong>e-Version 1.0<br />

2.1.1 Sampl<strong>in</strong>g- <strong>und</strong> Wavetable-Synthese...................................................................5<br />

2.1.2 Granular-Synthese..............................................................................................6<br />

2.2 Abstrakte Algorithmen.........................................................................................................8<br />

2.2.1 Synthese durch Frequenzmodulation.................................................................8<br />

2.2.2 Waveshap<strong>in</strong>g-Synthese....................................................................................12<br />

2.3 Spektrale Modelle.............................................................................................................14<br />

2.3.1 Additive Synthese.............................................................................................14<br />

2.3.2 Resynthese.......................................................................................................17<br />

2.3.2.1 Signalanalyse........................................................................................21<br />

2.3.3 Subtraktive Synthese........................................................................................22<br />

2.4 Physikalische Modelle.......................................................................................................24<br />

2.4.1 Modellierung von Musik<strong>in</strong>strumenten mit digitalen Wellenleitern......................25<br />

2.5 Hybridsynthese.................................................................................................................26<br />

2.6 Abwägender Vergleich......................................................................................................26<br />

3. Der Wellenleiter............................................................................................................................28<br />

3.1 Die freischw<strong>in</strong>gende unendlich lange ideale Saite............................................................28<br />

3.1.1 Die Wanderwellenlösung..................................................................................29<br />

3.1.2 Die Digitalisierung der Wanderwellen...............................................................31<br />

3.2 Die verlustbehaftete e<strong>in</strong>dimensionale Wellengleichung...................................................34<br />

3.2.1 Frequenzabhängige Verluste............................................................................36<br />

3.2.2 Die dispersive e<strong>in</strong>dimensionale Wellengleichung.............................................37<br />

3.2.3 Die digitale verlustbehaftete steife Saite...........................................................39<br />

3.3 Alternative Wellenvariablen..............................................................................................41<br />

3.3.1 Kraftwellen........................................................................................................41<br />

3.3.2 Leistungswellen................................................................................................44<br />

3.4 Streuung <strong>und</strong> Reflexion an Impedanzdiskont<strong>in</strong>uitäten.....................................................44<br />

3.5 Die e<strong>in</strong>gespannte Saite....................................................................................................44<br />

3.5.1 Starre Begrenzungen.......................................................................................45<br />

3.5.2 Bewegliche Begrenzungen...............................................................................45<br />

3.5.3 Die Anregung der starr begrenzten idealen Saite.............................................48<br />

3.5.4 Die äußere Anregung........................................................................................51


DIPLOMARBEIT HENRI HAGENOW<br />

Onl<strong>in</strong>e-Version 1.0<br />

3.5.5 Die gedämpfte angezupfte Saite.......................................................................52<br />

3.5.5.1 Frequenzabhängige Dämpfung...............................................................54<br />

3.5.6 Saitensteifigkeit.................................................................................................55<br />

3.5.7 Dynamische Saitenbegrenzungen....................................................................55<br />

3.5.8 Die Reflexions-Transferfunktion........................................................................58<br />

3.6 Kopplungsersche<strong>in</strong>ungen.................................................................................................59<br />

3.6.1 Longitud<strong>in</strong>ale Wellen.........................................................................................61<br />

3.6.2 Torsionswellen..................................................................................................62<br />

3.7 Kopplung der Saiten über den Steg..................................................................................62<br />

3.7.1 Kopplung zweier Saiten....................................................................................63<br />

4. Analogien zu optischen Systemen.............................................................................................65<br />

4.1 Wellenformsynthese <strong>in</strong> der Optik durch ‚Puls Shap<strong>in</strong>g‘ ultrakurzer Laserpulse................65<br />

5. Digitale Implementierung virtuell-elektronischer Schaltungen zur Simulation<br />

mehrdimensionaler akustischer Systeme.........................................................................67<br />

5.1 Implementierung des Wellenleitermodells e<strong>in</strong>er Viol<strong>in</strong>e..........................................67<br />

5.1.1 Das Geigenmodell.............................................................................................68<br />

5.1.2 Die Implementierung des Modells der starr e<strong>in</strong>gespannten Saite.....................68<br />

5.1.3 Das Makro ‚Lagrange-Interpolat.‘ .....................................................................73<br />

5.1.4 Das Tonhöhenmakro.........................................................................................76<br />

5.1.5 Frequenzabhängige Dämpfung <strong>und</strong> Dispersion................................................77<br />

5.1.6 Die stetige äußere Anregung durch das Makro ‚Bogen‘...................................79<br />

5.1.7 Kopplungsersche<strong>in</strong>ungen..................................................................................80<br />

5.1.8 Das Resonanzsystem.......................................................................................81<br />

5.1.9 Zusammenfassende Betrachtung.....................................................................84<br />

5.2 Implementierung verschiedener Modelle zur digitalen Synthese e<strong>in</strong>es<br />

Flötentones.....................................................................................................................86<br />

5.2.1 Simulation e<strong>in</strong>es Flötentones mit den Metoden der additiven Synthese...........86<br />

5.2.1.1 Die Analyse des realen Flötentones..................................................86<br />

5.2.1.2 Implement. e<strong>in</strong>er ‚additiven Flöte‘ auf Basis der Analysedaten.........89<br />

5.2.1.2.1 Die Teilton-Makros.............................................................90<br />

5.2.1.2.2 Das Amplitudenhüllkurven-Makro ‚HK‘..............................91<br />

5.2.1.2.3 Die stochastische Variation der Amplitudenhüllkurve........98<br />

5.2.1.2.4 Das Makro ‚Modulator‘.......................................................98


DIPLOMARBEIT HENRI HAGENOW<br />

Onl<strong>in</strong>e-Version 1.0<br />

5.2.1.2.5 Das Makro ‚SimpleMod‘...................................................100<br />

5.2.1.2.6 Die erweiterte L<strong>in</strong>e-Segment Approximation...................100<br />

5.2.1.2.7 Das Teilton-Oszillatormakro ‚S<strong>in</strong>e‘..................................101<br />

5.2.1.2.8 Das Makro ‚FM-Ramp‘.....................................................103<br />

5.2.1.2.9 Das Datene<strong>in</strong>gabemakro ‚Ansteuerung‘..........................104<br />

5.2.1.2.10 Das Rauschgenerator-Makro ‚Noiz‘...............................106<br />

5.2.1.2.11 Ansteuerung <strong>und</strong> Spielbarkeit........................................107<br />

5.2.1.2.12 Zusammenfassende Betrachtungen..............................108<br />

5.2.2 Generierung e<strong>in</strong>es Flötenklanges mit den Methoden der FM-Synthese......................108<br />

5.2.2.1 Die Modulstruktur des FM-Modells zur Erzeugung e<strong>in</strong>es Flötenklanges.....109<br />

5.2.2.2 Zusammenfassende Betrachtungen............................................................112<br />

5.2.3 Simulation der Flöte als digitaler Wellenleiter..............................................................112<br />

5.2.3.1 Das physikalische Modell der Flöte..............................................................112<br />

5.2.3.2 Implementierung der akustischen Röhre.....................................................113<br />

5.2.3.3 Implementierung e<strong>in</strong>es Registerloches........................................................115<br />

5.2.3.4 Implementierung von Tonlöchern.................................................................115<br />

5.2.3.5 Zusammenfassende Betrachtungen............................................................116<br />

5.2.4 Vgl. der drei benutzten Synthesemethoden zur Generierung des Flötentones...........117<br />

6. Zusammenfassung.........................................................................................................118<br />

7. Literaturverzeichnis.........................................................................................................119<br />

Anhang.............................................................................................................................................127<br />

A1 Die F<strong>in</strong>ite Differenzenapproximation.....................................................................................<br />

A2 Vergleich der digitalen Wellenleitersimulation mit der f<strong>in</strong>iten Differenzenapproximation......<br />

A3 Allpaßfilter zur Simulation von Dispersion <strong>in</strong> digitalen Wellenleitern.....................................<br />

A4 Weitere alternative Wellenvariablen......................................................................................<br />

A5 Leistungswellen im digitalen Wellenleiter..............................................................................<br />

A6 Verb<strong>in</strong>dungen zwischen Bereichen verschiedener Wellenimpedanz....................................<br />

A7 Symmetrische FIR-Filter zur Simulation frequenzabhängiger Dämpfung.............................<br />

A8 Die Kopplung von N Saiten...................................................................................................<br />

A9 Die Geigenmodelle von Helmholtz <strong>und</strong> Raman....................................................................<br />

A9.1 Das Geigenmodell von Helmholtz.........................................................................<br />

A9.2 Das Geigenmodell von Raman.............................................................................


DIPLOMARBEIT HENRI HAGENOW<br />

1. E<strong>in</strong>leitung<br />

In der Entwicklung der menschlichen Geschichte spielte die Simulation von Naturlauten <strong>und</strong><br />

der menschlichen Stimme e<strong>in</strong>e wesentliche Rolle. Die Entwicklung akustischer<br />

Musik<strong>in</strong>strumente <strong>und</strong> die Erzeugung musikalischer Töne hatte schon immer großen<br />

E<strong>in</strong>fluß auf die Entwicklung der Menschheit. Diese Entwicklung hat viele Instrumente<br />

hervorgebracht, die zunächst nur bei rituellen <strong>und</strong> religiösen Zeremonien, später auch bei<br />

politischen oder sozialen Gelegenheiten gespielt wurden.<br />

Lange vor der Entwicklung elektronischer <strong>und</strong> optischer Systeme ist versucht worden,<br />

sowohl die menschliche Stimme, als auch bestehende akustische Musik<strong>in</strong>strumente durch<br />

mechanisch zu bedienende akustische Blas<strong>in</strong>strumente zu simulieren. Bei den<br />

Kirchenorgeln war es durch zuschaltbare Register möglich, den Klang verschiedener<br />

akustischer Instrumente nachzubilden. In der zweiten Hälfte des 18. Jahrh<strong>und</strong>erts (1773)<br />

gelang es Ch. G. Kratzenste<strong>in</strong>, Professor der Physiologie <strong>in</strong> Kopenhagen, mit an<br />

Orgelpfeifen angeschlossenen Resonanzröhren Vokallaute zu generieren. Um diese Zeit<br />

hatte auch Wolfgang von Kempelen schon mit Versuchen begonnen, die ihn zum Bau e<strong>in</strong>er<br />

sprechenden Masch<strong>in</strong>e führten [Kempelen, 1791].<br />

Die Entwicklung der Elektrotechnik am Anfang des 20. Jahrh<strong>und</strong>erts führte schnell zur<br />

Entwicklung vieler elektro-akustischer <strong>und</strong> optisch gesteuerter Instrumente. Bei der<br />

Präsentation se<strong>in</strong>es Sphärophons stellte Jörg Mager 1926 den Bau von Musiktürmen <strong>in</strong><br />

Aussicht, die die Klangfarbe aller Instrumente <strong>und</strong> selbst der menschlichen Stimme<br />

nachahmen könnten [de la Motte, 1999]. Das erste Gerät, das Sprachschall auf<br />

elektrischem Wege hervorbr<strong>in</strong>gen konnte, war der von Homer Dudley entwickelte VODER,<br />

der 1939 der Öffentlichkeit vorgestellt wurde. Im 1950 von Frank Cooper <strong>in</strong> den Hask<strong>in</strong>s<br />

Labs konstruierten Pattern Playback modulierte e<strong>in</strong>e rotierende Scheibe mit 50<br />

konzentrischen Tonspuren e<strong>in</strong>en Lichtstrahl. Ähnlich e<strong>in</strong>er Filmspule mit Lichttonspur<br />

wurden hierdurch 50 Teiltöne mit e<strong>in</strong>er Gr<strong>und</strong>frequenz von 120 Hz erzeugt. Deren Licht<br />

wurde auf e<strong>in</strong> Spektrogram projiziert, das über Rollen am Lichtstrahl vorbeibewegt wurde.<br />

Das reflektierte Licht wurde e<strong>in</strong>er Photozelle zugeführt, mit der die Lichtschwankungen<br />

schließlich <strong>in</strong> Schalldruckschwankungen umgewandelt wurden. Die Reflektanz des Lichtes<br />

entsprach dem Schallpegel der Teiltöne.<br />

Musikalische Bedeutung erlangten nur wenige der vielen elektronischen Instrumente. Mit<br />

dem Trautonium komponierten Paul H<strong>in</strong>demith <strong>und</strong> Oskar Sala. Auch das Dynamophon von<br />

René Bertrand <strong>und</strong> das Aetherophon von Leon Therem<strong>in</strong> weckten kompositorisches<br />

Interesse. Vor allem für die Filmmusik wurden viele Stücke für elektronische<br />

Musik<strong>in</strong>strumente geschrieben, da die elektrischen Klangerzeuger für besondere Effekte<br />

Onl<strong>in</strong>e-Version 1.0<br />

1


DIPLOMARBEIT HENRI HAGENOW<br />

gut geeignet waren. In das Orchester e<strong>in</strong>gedrungen ist nur das Ondes Martenot, wirkte hier<br />

aber meist nur als begleitende Unterstützung der übrigen (klassischen) akustischen<br />

Instrumente. Die Erfolge der neuen elektrischen Instrumente lagen eher im Bereich der<br />

unterhaltenden Musik. Das Therem<strong>in</strong> zum Beispiel wurde zu e<strong>in</strong>em Performance-<br />

Instrument, das das Publikum durch die Darbietungen e<strong>in</strong>er Tänzer<strong>in</strong> entzückte, die durch<br />

ihre Bewegungen das Instrument steuerte.<br />

Die elektronischen Instrumente leisteten zwar ihren Beitrag zur modernen Musik, wurden<br />

aber hauptsächlich <strong>in</strong> der Unterhaltungsmusik e<strong>in</strong>gesetzt <strong>und</strong> prägen diese bis <strong>in</strong> die<br />

heutige Zeit. Seit der Entwicklung der modernen Halbleitertechnik s<strong>in</strong>d im zunehmenden<br />

Maße elektronische Instrumente entwickelt worden, die zunächst die elektrisch-<br />

mechanische Orgel (z.B. die Hammond-Orgel) ersetzen sollten, sich mit der Zeit aber zu<br />

eigenständigen Instrumenten entwickelten. Durch die mit der Computertechnik<br />

e<strong>in</strong>hergehende Entwicklung der Speichertechnik wurde es bald möglich gemacht, elektro-<br />

akustische Aufnahmen realer Klänge durch passende Interpolationstechniken (Sampl<strong>in</strong>g)<br />

den elektronischen Instrumenten zugänglich zu machen. Die Weiterentwicklung<br />

elektronischer Klangerzeuger hat sich mittlerweile fast vollkommen auf den Computer<br />

verlagert, wo nun softwarebasierte Musik<strong>in</strong>strumente mit Hilfe komplizierter Algorithmen<br />

Töne generieren, die nur noch schwer von denen echter Instrumente zu unterscheiden s<strong>in</strong>d.<br />

Diese Arbeit beschäftigt sich mit der digitalen Synthese komplexer Wellenformen, die bei<br />

der Anregung akustisch-mechanischer <strong>und</strong> optischer Systeme entstehen. Besonders<br />

ausführend werden Anregungen akustisch-mechanischer Systeme diskutiert, wie sie<br />

beispielsweise bei den mechanischen Systemen akustischer Musik<strong>in</strong>strumente auftreten.<br />

Als Beispiele werden zum e<strong>in</strong>en Saiten<strong>in</strong>strumente (Gitarre, Geige), zum anderen<br />

Blas<strong>in</strong>strumente (Flöte) behandelt. Hierbei orientiert sich der im Computer simulierte<br />

Syntheseprozess an den physikalischen Vorgängen <strong>in</strong> den natürlichen Instrumenten. E<strong>in</strong><br />

Überbegriff ist das sogenannte ‚physical model<strong>in</strong>g‘. Dieses Gebiet, speziell das der<br />

Wellenleitersynthese, wird <strong>in</strong> Kapitel 3 behandelt. Dem geht e<strong>in</strong> kurzer Überblick über<br />

verschiedene <strong>Klangsynthese</strong>-pr<strong>in</strong>zipien <strong>in</strong> Kapitel 2 voraus. In Kapitel 4 folgt e<strong>in</strong>e kurze<br />

Betrachtung der Möglichkeiten zur Wellenformsynthese <strong>in</strong> der Optik .<br />

In Kapitel 5 folgt die Diskussion <strong>und</strong> Beschreibung der digitalen Implementierung von<br />

physikalischen Instrumentenmodellen e<strong>in</strong>er Geige <strong>und</strong> e<strong>in</strong>er Flöte. Diese Modelle bestehen<br />

aus vone<strong>in</strong>ander getrennten Teilbereichen, die jeweils e<strong>in</strong>en bestimmten physikalischen<br />

Prozeß im realen Instrument idealisieren (z.B. Saitenschw<strong>in</strong>gung, Verlustersche<strong>in</strong>ungen,<br />

Kopplungseffekte, Resonanzsysteme, Schallabstrahlung). Die digitale Implementierung der<br />

erstellten Instrumentenmodelle erfolgt <strong>in</strong> der modularen Programmierumgebung der<br />

Onl<strong>in</strong>e-Version 1.0 2


DIPLOMARBEIT HENRI HAGENOW<br />

<strong>Klangsynthese</strong>software ‚Reaktor‘, die virtuell-analoge elektrotechnische Gr<strong>und</strong>schaltungen<br />

(wie z.B. Oszillatoren, Filter, Hüllkurven, Logikelemente) zur Verfügung stellt, welche<br />

beliebig verschaltet werden können. Mittels e<strong>in</strong>er geeigneten Parametrisierung lassen sich<br />

so Sig-nale generieren, deren Eigenschaften <strong>und</strong> Klang denen echter Instrumente sehr<br />

nahe kommen.<br />

Physikalische Echtzeit-Modelle <strong>in</strong> Synthesizern s<strong>in</strong>d erst mit der Entwicklung<br />

leistungsfähiger Rechner möglich geworden. Die Entwicklung softwarebasierter Synthesizer<br />

zur musikalischen Klanggestaltung hat die Implementierungen physikalischer Modelle<br />

wesentlich vere<strong>in</strong>facht. Solche Anwendungen s<strong>in</strong>d <strong>in</strong> den letzten Jahren immer<br />

bedeutender <strong>und</strong> häufiger geworden. Bei der Wahl der Synthesemethode für die<br />

physikalische Modellierung akustischer Musik<strong>in</strong>strumente erweist sich vor allem der ‚digitale<br />

Wellenleiter‘ (digital waveguide) als sehr effizient.<br />

Physikalische Modelle von Musik<strong>in</strong>strumenten haben gegenüber den bisher genutzten<br />

Klangerzeugungspr<strong>in</strong>zipien den Vorteil, daß sie mit den gleichen Kontrollparametern<br />

klanglich bee<strong>in</strong>flußbar s<strong>in</strong>d, wie ihre realen Vorbilder. Sie versprechen somit die höchste<br />

Klangqualität bei der Imitation akustischer Musik<strong>in</strong>strumente (im Folgenden auch<br />

Natur<strong>in</strong>strumente genannt).<br />

Seitdem der Mensch Musik macht, ist er auf der Suche nach musikalisch verwendbaren<br />

Klängen. Musik wird seit Tausenden von Jahren auf mechanischen Instrumenten erzeugt.<br />

Durch die Entdeckung der Elektrizität entstand e<strong>in</strong>e neue Möglichkeit zur musikalischen<br />

Klangerzeugung, die den Bau von vielen Musik<strong>in</strong>strumenten nach sich zog.<br />

Seitdem es elektronische Instrumente gibt, versuchen die Menschen, die Klangfarben<br />

altbekannter akustischer Musik<strong>in</strong>strumente zu simulieren. Durch die vorherige Analyse der<br />

zu simulierenden Instrumente <strong>und</strong> die darauffolgende Erstellung <strong>und</strong> Implementierung des<br />

Instrumentenmodells können die tonerzeugenden Mechanismen der natürlichen<br />

Instrumente besser verstanden werden. Durch die Implementierung vorhandener<br />

physikalischer Instrumentenmodelle können diese <strong>in</strong> ihrer Gültigkeit überprüft <strong>und</strong><br />

verbessert werden. E<strong>in</strong> besseres Verständnis der akustischen Instrumente ermöglicht es<br />

dem Musiker <strong>und</strong> dem Instrumentenbauer, gezielte Verbesserungen <strong>in</strong> Spieltechnik <strong>und</strong><br />

Bauweise vorzunehmen.<br />

Mitlerweile ist sogar e<strong>in</strong> kommerzieller Anreiz vorhanden; die Entwicklung leistungsfähiger<br />

Rechner ermöglichte die Entwicklung von softwarebasierten Synthesizern zur modernen<br />

Musikproduktion. Der Markt dieser Klangerzeuger explodiert förmlich. Synthesizer, die zur<br />

Klangerzeugung die selben Pr<strong>in</strong>zipien wie die Natur<strong>in</strong>strumente nutzen, s<strong>in</strong>d hoch im Trend<br />

<strong>und</strong> beschäftigen viele Elektrotechniker <strong>und</strong> Software<strong>in</strong>genieure.<br />

Onl<strong>in</strong>e-Version 1.0<br />

3


DIPLOMARBEIT HENRI HAGENOW<br />

2. Überblick über verschiedene Klansynthesearten<br />

Dieses Kapitel soll e<strong>in</strong>en kurzen Überblick über verschiedene digitale <strong>Klangsynthese</strong>arten<br />

verschaffen <strong>und</strong> klären, <strong>in</strong>wieweit diese zur digitalen Modellierung akustischer Klangkörper<br />

geeignet s<strong>in</strong>d. Die vielversprechensten Methoden für realistische Simulationen akustisch-<br />

mechanischer Systeme s<strong>in</strong>d hierbei die additive Synthese (Abschnitt 2.3.1) <strong>und</strong> das<br />

‚physical model<strong>in</strong>g‘ (Abschnitt 2.4).<br />

E<strong>in</strong> gutes <strong>Klangsynthese</strong>modell zeichnet sich vor allem durch e<strong>in</strong>e große Anzahl<br />

klangformender Parameter aus, welche direkte <strong>und</strong> für den Spieler <strong>in</strong>tuitive, leicht<br />

verständliche Klangveränderungen ermöglichen, <strong>und</strong> ihm so e<strong>in</strong>en direkten Zugriff auf die<br />

Basis-Klang-eigenschaften verschaffen.<br />

Serra [Serra, 1997] unterteilt die heutzutage gängigen Modelle <strong>in</strong> drei Basis-Modellierungs-<br />

arten: Instrumentale Modellierung, Spektrale Modellierung <strong>und</strong> Abstrakte Modellierung,<br />

wobei die Geme<strong>in</strong>samkeiten <strong>in</strong>nerhalb der drei Gruppen <strong>in</strong> der Parametrisierung der Klänge<br />

gesucht werden. Die Synthesearten der <strong>in</strong>strumentalen Modellierung parametrisieren den<br />

Klang an se<strong>in</strong>er Quelle, also dem Instrument selbst. E<strong>in</strong> Beispiel wäre z.B. die<br />

Wellenleitersynthese (Abschnitt 2.4.1). Die Methode der spektralen Modellierung versucht<br />

den Klang so zu parametrisieren, wie er bei der Basilliarmembran des Gehörs ankommt.<br />

Hier wären z.B. die additive Synthese (Abschnitt 2.3.1) <strong>und</strong> die Resynthese (Abschnitt<br />

2.3.2) zu nennen. Die abstrakte Modellierung versucht musikalisch s<strong>in</strong>nvolle Parameter <strong>in</strong><br />

e<strong>in</strong>er abstrakten Formel zu Verfügung zu stellen; e<strong>in</strong> Beispiel ist die Frequenzmodulation<br />

(Abschnitt 2.2.1). Tolonen [Tolonen et al., 1998] teilt die verschiedenen Methoden der<br />

digitalen <strong>Klangsynthese</strong> <strong>in</strong> vier verschiedene Klassen e<strong>in</strong>:<br />

- Abstrakte Algorithmen,<br />

- Sampl<strong>in</strong>g & klangoptimierte Aufnahmen,<br />

- Spektrale Modelle<br />

- Physikalische Modelle.<br />

Hierbei wird den Methoden der spektralen Modelle <strong>und</strong> der physikalischen Modelle große<br />

Aussichten auf zukünftige qualitativ hochwertige <strong>Klangsynthese</strong>algorithmen zugesprochen.<br />

Ihnen gilt das Interesse <strong>in</strong> der derzeitigen Forschung.<br />

Die meisten der hier vorgestellten <strong>Klangsynthese</strong>methoden werden nur kurz angesprochen.<br />

Die <strong>in</strong> der Instrumenten<strong>in</strong>dustrie zur Zeit am häufigsten genutzten Arten der <strong>Klangsynthese</strong><br />

Onl<strong>in</strong>e-Version 1.0 4


DIPLOMARBEIT HENRI HAGENOW<br />

s<strong>in</strong>d die sogenannte subtraktive Synthese (Abschnitt 2.3.3), die Frequenzmodulation <strong>und</strong><br />

das Sampl<strong>in</strong>g (Abschnitt 2.1.1).<br />

2.1 Klangoptimierte Schallaufzeichnungen <strong>und</strong> Sampl<strong>in</strong>g<br />

Die Entwicklung der Musik ist eng an die technischen Errungenschaften <strong>und</strong> Entdeckungen<br />

ihrer Zeit geknüpft. Vor allem seit der technischen Revolution des letzten Jahrh<strong>und</strong>erts<br />

experimentieren die Musiker mit den neuesten technologischen Entwicklungen.<br />

In den zwanziger Jahren des letzten Jahrh<strong>und</strong>erts wurden von Komponisten wie Milhaud,<br />

H<strong>in</strong>demith <strong>und</strong> Toch während ihrer Konzerte die ersten Experimente der Klangkomposition<br />

mit <strong>in</strong> der Abspielgeschw<strong>in</strong>digkeit variabler Phonographen gemacht [Roads, 1996]. Die<br />

Klangkünstler der von Pierre Schaeffer <strong>in</strong> den 50er Jahren gegründeten ‚musique concrète‘<br />

(z.B. Karlhe<strong>in</strong>z Stockhausen, Pierre Henry) arbeiteten u.a. mit isolierten Klangelementen<br />

aus Tonbandaufnahmen <strong>und</strong> echten Klängen.<br />

Im Bereich klangoptimierter Schallaufzeichnungen werden neue Klänge mittels<br />

gespeicherter <strong>und</strong> eventuell nachbearbeiteter Klangereignisse durch Variation sonst fester<br />

Parameter synthetisiert. In die hier vorgestellte Kategorie gehören u.a. Synthesearten wie<br />

Sampl<strong>in</strong>g, Wavetable-Synthese <strong>und</strong> Granular-Synthese.<br />

2.1.1 Sampl<strong>in</strong>g- <strong>und</strong> Wavetable-Synthese<br />

Beim sogenannten Sampl<strong>in</strong>g werden digital aufgezeichnete Signalformen (Samples) aus<br />

e<strong>in</strong>em Halbleiterspeicher ausgelesen <strong>und</strong> abgespielt 1 . Hierbei können sowohl Tonsignale<br />

echter Instrumente, als auch andere Schallereignisse digitalisiert werden. Im e<strong>in</strong>fachsten<br />

Fall werden e<strong>in</strong>zelne Wellenformen <strong>in</strong> digitalen Wellenformtabellen (Wavetables) abgelegt<br />

<strong>und</strong> mittels ‚table-lookup‘ <strong>und</strong> ‚po<strong>in</strong>ter-update‘ ausgelesen; man spricht dann von der Wave-<br />

table-Synthese. Unterschiedliche Tonhöhen werden durch Variation der Auslese-<br />

geschw<strong>in</strong>digkeit erzeugt. Nachteilig hierbei ist, daß bei e<strong>in</strong>er von der Orig<strong>in</strong>al-<br />

geschw<strong>in</strong>digkeit abweichenden Auslesung e<strong>in</strong>e Zeitkomprimierung bzw. -dehnung<br />

verursacht wird, die zu e<strong>in</strong>er Stauchung bzw. Dehnung des gesamten Spektrums führt. Dies<br />

verschiebt die Formantbereiche des Spektrums je nach Abweichung verschieden stark <strong>und</strong><br />

führt z.B. bei Sprachaufnahmen zum bekannten ‚Mickey Mouse‘-Effekt. Bei größeren<br />

1 Schon vor dem digitalen Sampl<strong>in</strong>g gab es Instrumente, die die Töne auf Bandkassetten speicherten<br />

<strong>und</strong> auf Tastendruck abspielten (z.B. das Mellotron, 1963; siehe ‚Electronic Instruments 1870-1990<br />

[http://www.obsolete.com/120_years/]).<br />

Onl<strong>in</strong>e-Version 1.0<br />

5


DIPLOMARBEIT HENRI HAGENOW<br />

Ton<strong>in</strong>tervallen entspricht die gehörte Klangfarbe dann nicht mehr der des<br />

Orig<strong>in</strong>al<strong>in</strong>strumentes. Die e<strong>in</strong>zige Möglichkeit, dies zu umgehen, ist die Speicherung e<strong>in</strong>es<br />

Tonsignals pro Halbton. Um das gespielte Instrument noch realistischer zu gestalten, müßte<br />

man noch zusätzliche Samples für verschieden gespielte Lautstärken (piano bis forte)<br />

e<strong>in</strong>b<strong>in</strong>den, da sich das Klangbild e<strong>in</strong>es Instrumentes mit der bespielten Dynamik verändert.<br />

Solche spieltechnisch bed<strong>in</strong>gten Klangvariationen lassen sich pr<strong>in</strong>zipiell auch mit Hilfe<br />

nachgeschalteter <strong>und</strong> dynamisch gesteuerter Tiefpaßfilter <strong>und</strong> Amplitudenhüllkurven<br />

simulieren.<br />

Der für e<strong>in</strong>e realistisch kl<strong>in</strong>gende Sampl<strong>in</strong>g-Synthese benötigte Speicherplatz ist erheblich.<br />

Zur Reduzierung des Speicherbedarfs gibt es neben der Verr<strong>in</strong>gerung der Anzahl der<br />

abspielbaren Samples <strong>und</strong> der Datenreduktion (Bitratenreduktion, Samplefrequenz-<br />

Reduktion, MPEG usw.) auch noch die Möglichkeit, die Länge der aufgezeichneten Klänge<br />

zu m<strong>in</strong>imieren <strong>und</strong> diesen E<strong>in</strong>griff mittels e<strong>in</strong>er periodischen Wiederholung bestimmter Teile<br />

aus dem quasistationären Klangbereich zu kaschieren (Loop<strong>in</strong>g). Während e<strong>in</strong> Ton<br />

gehalten wird, hört man immer wieder dieselbe Wiederholung, alle<strong>in</strong> die Amplituden- <strong>und</strong><br />

Filterhüllkurve kann nun noch den Klangverlauf bee<strong>in</strong>flussen. Die quasistationäre<br />

Klangphase kann so durch die Wiederholung e<strong>in</strong>es kurzen Segments zwischen den zwei<br />

sogenannten Loop-Punkten reproduziert werden. Nachdem der Ton beendet wird, endet<br />

auch die Wiederholung, <strong>und</strong> das Sample spielt die Ausklangphase des Tones. Ist der Loop<br />

zu kurz, entstehen Klangartefakte. Der Ton kl<strong>in</strong>gt künstlich, da die <strong>in</strong>strumentenspezifischen<br />

zeitveränderlichen Eigenschaften des Orig<strong>in</strong>alklanges verworfen werden.<br />

Die Sampl<strong>in</strong>g-Synthese kämpft schon immer um e<strong>in</strong>en Kompromiß zwischen Klangqualität<br />

<strong>und</strong> Speicherplatzverbrauch.<br />

Da bei dieser <strong>Klangsynthese</strong>methode mit digital aufgezeichneten Klängen gearbeitet wird,<br />

ist sie weitgehend ungeeignet, um mehrdimensionale Klangkörper, wie z.B. e<strong>in</strong>e Geige oder<br />

e<strong>in</strong>e Flöte, zu modellieren. In Komb<strong>in</strong>ation mit der Wellenleitersynthese führt der E<strong>in</strong>satz<br />

der Sampl<strong>in</strong>gtechnik bei der Simulation akustischer Systeme zu guten Ergebnissen<br />

(‚commuted synthesis‘; siehe Abschnitt 5.1.9).<br />

Mehr über Wavetable-Synthese <strong>und</strong> Sampl<strong>in</strong>g f<strong>in</strong>det sich <strong>in</strong> [Bristow-Johnson, 1996].<br />

2.1.2 Granular-Synthese<br />

Die Granularsynthese wurde vom ungarischen Physiker Dennis Gabor [Gabor, 1947] <strong>in</strong> den<br />

späten 40er Jahren entwickelt [Cavaliere&Piccialli, 1997; Roads, 1996]. Gabor stellte <strong>in</strong><br />

praktischen Experimenten fest, daß sich bei e<strong>in</strong>er bestimmten Komb<strong>in</strong>ation von vielen<br />

Onl<strong>in</strong>e-Version 1.0 6


DIPLOMARBEIT HENRI HAGENOW<br />

äußerst kurzen Klangschnipseln 2 , sogenannten ‚Audio-Gra<strong>in</strong>s‘, jeder beliebige Klang<br />

erzeugen läßt. Dieser Ansatz operiert ausschließlich im Zeitbereich <strong>und</strong> steht der weiter<br />

unten besprochenen Fouriermethode (Abschnitt 2.3.1) gegenüber, die mit der Komb<strong>in</strong>ation<br />

elementarer S<strong>in</strong>usschw<strong>in</strong>gungen im Frequenzbereich arbeitet. Gabors Hypothese wurde<br />

1980 mathematisch bewiesen [Bastiaans, 1980]. Sie be<strong>in</strong>haltet heutzutage e<strong>in</strong> weites Feld<br />

verschiedener Realisierungen, deren Geme<strong>in</strong>samkeit die Präsentation des Klangsignals<br />

durch ‚Klangatome‘ oder ‚Gra<strong>in</strong>s‘ ist. Das synthetisierte Klangsignal entsteht durch Addition<br />

dieser Elementare<strong>in</strong>heiten <strong>in</strong> der Zeitebene. E<strong>in</strong> Klang-Gra<strong>in</strong> kann hierbei e<strong>in</strong>e Dauer von<br />

e<strong>in</strong>er bis zu mehreren h<strong>und</strong>ert Millisek<strong>und</strong>en besitzen <strong>und</strong> die Wellenform des Gra<strong>in</strong>s kann<br />

e<strong>in</strong>e mit e<strong>in</strong>er Fensterfunktion multiplizierten S<strong>in</strong>usoide, e<strong>in</strong> aufgezeichnetes Signal oder e<strong>in</strong><br />

aus e<strong>in</strong>em physikalischen Modell e<strong>in</strong>es Klangproduktionsmechanismus entstandener<br />

Klangbauste<strong>in</strong> se<strong>in</strong> [Cavaliere&Piccialli]. E<strong>in</strong>e zeitliche Schwelle besteht bei e<strong>in</strong>er<br />

Gra<strong>in</strong>länge von 50 ms; das menschliche Ohr nimmt kürzere Gra<strong>in</strong>s als Kont<strong>in</strong>uum, längere<br />

h<strong>in</strong>gegen als e<strong>in</strong>zelne Abschnitte wahr.<br />

Die verschiedenen Granularsynthesetechniken lassen sich nach der Art klassifizieren, wie<br />

die klangbildenden Gra<strong>in</strong>s erzeugt werden (Asynchronous Granular Synthesis, Pitch<br />

Synchronous Granular Synthesis usw.). Im Rahmen dieser Arbeit kann aufgr<strong>und</strong> des<br />

Umfangs dieses sehr <strong>in</strong>teressanten Gebietes nicht weiter auf die Granularsynthese<br />

e<strong>in</strong>gegangen werden. Zudem sche<strong>in</strong>t diese Form der Klanggenerierung auf den ersten Blick<br />

weniger für e<strong>in</strong>e Wellenformsynthese zur Simulation der Eigenzustände akustischer<br />

Musik<strong>in</strong>strumente geeignet zu se<strong>in</strong>. Die Beschreibung e<strong>in</strong>es physikalischen Systems durch<br />

Parameter wie ‚Gra<strong>in</strong>dichte’ oder ‚Gra<strong>in</strong>länge‘ <strong>und</strong> die Veränderungen im synthetisierten<br />

Klangspektrum bei Variation dieser Systemparameter s<strong>in</strong>d nicht <strong>in</strong>tuitiv <strong>und</strong> daher<br />

ungeeignet, um akustische Instrumente mittels Granularsynthese nachzubilden <strong>und</strong> diese<br />

Modelle durch Instrumentalisten spielen zu lassen. Für Weiteres wird auf die oben<br />

aufgezeigte Literatur verwiesen.<br />

2 Die Klangpartikel bestehen aus kurzen Wellenpaketen verschiedenster Spektren (e<strong>in</strong>fache<br />

Wellenformen, Rauschen etc.). Die Länge der Tonpartikel liegt im Bereich 20-50 ms. Der zeitliche<br />

Abstand zwischen den e<strong>in</strong>zelnen Tonsegmenten wird mit 20-30 ms unter der zeitlichen Auflösung<br />

des menschliches Gehörs (10-50 ms) gehalten.<br />

Onl<strong>in</strong>e-Version 1.0<br />

7


DIPLOMARBEIT HENRI HAGENOW<br />

2.2 Abstrakte Algorithmen<br />

Im Folgenden werden Methoden zur Klangerzeugung vorgestellt, die auf abstrakten<br />

Algorithmen beruhen. Hierzu zählen die Synthese durch Frequenzmodulation <strong>und</strong> die<br />

Waveshap<strong>in</strong>g-Synthese.<br />

2.2.1 Synthese durch Frequenzmodulation<br />

Die Synthese durch Frequenzmodulation (FM-Synthese) ist e<strong>in</strong>e f<strong>und</strong>amentale digitale<br />

<strong>Klangsynthese</strong>technik, die e<strong>in</strong>e nichtl<strong>in</strong>eare Oszillatorfunktion verwendet. Es gibt<br />

verschiedene Ansätze von Methoden der <strong>Klangsynthese</strong> durch Frequenzmodulation, die<br />

aber alle nach dem Orig<strong>in</strong>alpr<strong>in</strong>zip der 1973 von J. Chown<strong>in</strong>g (Stanford University)<br />

e<strong>in</strong>geführten FM-Synthese funktionieren [Chown<strong>in</strong>g, 1973]. Die Theorie der<br />

Frequenzmodulation war schon Mitte der 20er Jahre bekannt <strong>und</strong> fand Anwendung <strong>in</strong> der<br />

Radiotechnik. Die Nutzung der Frequenzmodulation speziell zur <strong>Klangsynthese</strong> wurde vor<br />

den späten 60er Jahren noch nicht untersucht.<br />

Die zeitveränderliche spektrale Struktur natürlich erzeugter Klänge ist nur schwer mit<br />

l<strong>in</strong>earer Technik nachzubilden, so wie z.B. mittels additiver Synthese (Abschnitt 2.3.1).<br />

Chown<strong>in</strong>g fand heraus, daß man durch Frequenzmodulation mit nur zwei S<strong>in</strong>usoszillatoren<br />

komplexe Audio-Spektren erzeugen kann die sich problemlos <strong>in</strong> der Zeit variieren lassen.<br />

Bei der simpelsten Form der Frequenzmodulation s<strong>in</strong>d zwei S<strong>in</strong>usoszillatoren so mite<strong>in</strong>-<br />

ander verb<strong>und</strong>en, daß die Frequenz des e<strong>in</strong>en Oszillators (‚Träger‘) mit der Frequenz des<br />

anderen Oszillators (‚Modulator‘) moduliert wird. E<strong>in</strong> e<strong>in</strong>faches FM-Instrument ist <strong>in</strong> Abb.2.1<br />

dargestellt. Das Ausgangssignal y(n) des Instrumentes kann <strong>in</strong> digitalisierter Form<br />

dargestellt werden durch<br />

y( n)<br />

= A(<br />

n)<br />

⋅s<strong>in</strong>[<br />

2π<br />

⋅ f c + I(<br />

n)<br />

⋅s<strong>in</strong>(<br />

2π<br />

⋅nfm<br />

)]<br />

(<br />

2.<br />

1)<br />

Hierbei ist A(n) die Amplitude bzw. die Hüllkurve des Ausgangssignals. f c ist die<br />

Trägerfrequenz, I der Modulations<strong>in</strong>dex <strong>und</strong> f m die Modulationsfrequenz.<br />

Onl<strong>in</strong>e-Version 1.0 8


DIPLOMARBEIT HENRI HAGENOW<br />

Abb.2.1: Abgebildet ist e<strong>in</strong> simples FM-Instrument: Das Modulatorsignal<br />

y m(n) = I⋅s<strong>in</strong>(2π⋅f m) wird auf den Konstanten Steuerwert f c des Trägerfrequenze<strong>in</strong>gangs<br />

addiert <strong>und</strong> variiert diesen mit e<strong>in</strong>stellbarer Frequenz f m<br />

<strong>und</strong> Amplitude I.<br />

Ist I = 0 (‚Null-Modulation‘), gilt für das Ausgangssignal y(n) = A(n) ⋅s<strong>in</strong>(2π⋅f c⋅n). Es ist zu<br />

beachten, daß <strong>in</strong> der Abbildung die Frequenz moduliert wird, Gleichung (2.1) aber e<strong>in</strong>e<br />

Phasenmodulation 3 darstellt. Gleichung (2.1) läßt sich auch ausdrücken durch<br />

wobei J k die Besselfunktion k-ter Ordnung ist [Chown<strong>in</strong>g, 1973; De Pol, 1983]. Die<br />

Gleichung zeigt, daß das Signal y(n) im Frequenzbereich durch e<strong>in</strong>en Peak bei der<br />

Frequenz f c, sowie durch zusätzliche Peaks bei den Frequenzen f n± = f c ± n⋅f m , n = 1, 2, ...<br />

dargestellt wird (Abb.2.2). Die Frequenzen f n± werden ‚Seitenbänder‘ genannt.<br />

Abb. 2.2: Darstellung des Spektrums e<strong>in</strong>es mittels Frequenzmodulation erzeugten<br />

Signals.<br />

3 Die Frequenz ist die zeitliche Ableitung der Phase. Ist die Phase konstant, so ist die Frequenz<br />

gleich Null. Verändert sich Phase l<strong>in</strong>ear mit der Zeit, so ist die Frequenz konstant. Verändert sich die<br />

Phase quadratisch, so nennt man das entstehende Signal e<strong>in</strong> ‚Chirp-Signal‘, dessen Frequenz sich<br />

l<strong>in</strong>ear <strong>in</strong> der Zeit verändert.<br />

Onl<strong>in</strong>e-Version 1.0<br />

∑ ∞<br />

k = −∞<br />

y ( n)<br />

= J ( I)<br />

s<strong>in</strong> 2π<br />

⋅ ( f + f ⋅ nk)<br />

(<br />

2.<br />

2)<br />

k<br />

9<br />

c<br />

m


DIPLOMARBEIT HENRI HAGENOW<br />

E<strong>in</strong> Teil der Energie der Trägerschw<strong>in</strong>gung wird auf die Seitenfrequenzen f n± verteilt.<br />

Mittels Gleichung (2.2) lassen sich die Seitenbänder <strong>und</strong> damit die Partialtöne analytisch<br />

vorausbestimmen. E<strong>in</strong> harmonisches Spektrum erhält man, wenn Träger- <strong>und</strong><br />

Modulatorfrequenz im Verhältnis ganzer Zahlen zue<strong>in</strong>ander stehen: f c/ f m = N 1/N 2; N 1,2 ∈Ζ.<br />

Andernfalls ist das Spektrum des Ausgangssignals disharmonisch, was sich allerd<strong>in</strong>gs auch<br />

zur Formung von unharmonischen Klangspektren (z.B. Glocken, Gongs, Schlagzeug)<br />

nutzen läßt. Truax [Truax, 1977] diskutiert die Möglichkeit, die Frequenzverhältnisse <strong>in</strong><br />

spektrale Fami-lien e<strong>in</strong>zuteilen <strong>und</strong> so e<strong>in</strong>e Klangkomposition mittels Frequenzmodulation<br />

zu erleichtern.<br />

Neben der Wahl des Frequenzverhältnisses kann man zur Gestaltung der Wellenform auch<br />

den Modulations<strong>in</strong>dex I(n) verändern. Er bestimmt die Tiefe der Modulation <strong>und</strong> damit auch<br />

die Anzahl der wahrnehmbaren Seitenbänder, also der Obertöne des entstehende Klanges.<br />

Da die Energie für die entstehenden Seitenbänder von der Trägerfrequenz stammt, deren<br />

Tonhöhe den Gr<strong>und</strong>ton bestimmt, äußert sich das Wachsen des Modulations<strong>in</strong>dex <strong>in</strong> e<strong>in</strong>er<br />

Lautstärkereduzierung des Gr<strong>und</strong>tones. Im Extremfall ist der Gr<strong>und</strong>ton aus der Fülle der<br />

Obertöne nicht mehr heraushörbar.<br />

Bef<strong>in</strong>det sich die Trägerfrequenz im tiefen Frequenzbereich, also nahe des<br />

Frequenznullpunkts (z.B. 100 Hz) <strong>und</strong> ist die Modulationsfrequenz <strong>in</strong> der gleichen<br />

Größenordnung (z.B. ebenfalls 100 Hz), so werden die <strong>in</strong> den negativen Frequenzbereich<br />

fallenden Seitenbänder an der 0-Hz-Achse <strong>in</strong> den positiven Bereich zurückgespiegelt. Unter<br />

Berücksichtigung der Phasenlage der jeweiligen reflektierten Seitenbänder erfolgt dann<br />

e<strong>in</strong>e Überlagerung mit den nichtreflektierten Frequenzanteilen, was zur Auslöschung bzw.<br />

Verstärkung e<strong>in</strong>zelner Obertöne führen kann.<br />

E<strong>in</strong>e dynamische Steuerung des Klangspektrums kann man mit der zeitlichen Variation des<br />

Modulations<strong>in</strong>dex I(n) erreichen <strong>und</strong> so komplexe Klangverläufe realisieren. Der durch den<br />

Modulations<strong>in</strong>dex gesteuerte Obertongehalt läßt sich klanglich mit den Auswirkungen e<strong>in</strong>er<br />

Filterung des Klangsignals vergleichen (vgl. 2.3.3 subtraktive Synthese).<br />

Die Signalformung mittels Frequenzmodulation läßt sich durch die Verkopplung beliebig<br />

vieler Oszillatoren <strong>und</strong> Steuerungs-Hüllkurven zunehmend verkomplizieren, wobei e<strong>in</strong><br />

Oszillator gleichzeitig sowohl Träger- als auch Modulatorfunktion erfüllen kann.<br />

E<strong>in</strong>e gezielte Wellenformgestaltung ist anhand der schnell wachsenden <strong>und</strong> <strong>in</strong> ihrer<br />

Auswirkung schwer überschaubaren Parameterflut kaum zu realisieren. Selbst bei simplen<br />

FM-Systemen verändern sich die Amplitudenverhältnisse der Harmonischen<br />

ungleichmäßig, wenn man den Modulations<strong>in</strong>dex variiert, um den Obertongehalt zu<br />

verändern. Dieses Problem läßt sich mit der ‚Feedback-FM‘-Methode lösen, die von der<br />

Firma YAMAHA patentiert wurde [Tomisawa, 1981], <strong>und</strong> <strong>in</strong> Abb. 2.3 als 1-Oszillator-<br />

Feedback-System schematisch veranschaulicht wird.<br />

Onl<strong>in</strong>e-Version 1.0 10


DIPLOMARBEIT HENRI HAGENOW<br />

Abb.2.3: Abgebildet ist e<strong>in</strong> 1-Oszillator-Feedback-System mit dem Ausgangssignal<br />

y FD1(n). Mit dem Feedbackparameter b läßt sich E<strong>in</strong>fluß auf das Klangspektrum<br />

nehmen (siehe auch Abb. 2.4).<br />

E<strong>in</strong> solches System erhält man aus e<strong>in</strong>em simplen FM-System durch den Austausch des<br />

Modulators durch e<strong>in</strong>e Feedback-Verb<strong>in</strong>dung vom Systemausgang. In Abb. 2.4 sieht man<br />

die Auswirkung dieser System-Modifikation anhand e<strong>in</strong>es Vergleichs der verschiedenen<br />

Signalspektren.<br />

E<strong>in</strong> Überblick über weitere Abwandlungen der simplen Frequenzmodulation f<strong>in</strong>det sich <strong>in</strong><br />

[Roads, 1996]. Die Methode der Frequenzmodulation zur Wellenformsynthese ist die<br />

preiswerteste <strong>und</strong> daher auch <strong>in</strong> den meisten klangerzeugenden Chips implementiert.<br />

Abb.2.4: Vergleich des Signalspektrums e<strong>in</strong>es simplen FM-Systems mit dem e<strong>in</strong>es<br />

1-Oszillator-Feedback-System bei verschiedenen Feedback-Parametere<strong>in</strong>stellungen<br />

b = 0,5 <strong>und</strong> b = 1,5. Das geregeltere Amplitudenverhalten der e<strong>in</strong>zelnen Obertöne<br />

beim 1-Oszillator-Feedback-System ist im rechten Teil der Abbildung gut zu erkennen.<br />

Onl<strong>in</strong>e-Version 1.0<br />

11


DIPLOMARBEIT HENRI HAGENOW<br />

Mit dem Verfahren der Frequenzmodulation lassen sich die Klänge akustischer Instrumente<br />

immer nur über ihr Spektrum <strong>und</strong> ihre Hüllkurve annähern. Die Parameter, die e<strong>in</strong><br />

Instrumentalist verändert, um den Klang se<strong>in</strong>es Instruments gezielt zu bee<strong>in</strong>flussen (bei<br />

Blas<strong>in</strong>strumenten z.B. der Anblasdruck oder die Lippenspannung), lassen sich durch FM-<br />

Synthese nicht modellieren. E<strong>in</strong>e vergleichbare Klangveränderung erhält man hier nur<br />

durch e<strong>in</strong>e erneute Annäherung an das Spektrum durch die Variation der hierfür<br />

notwendigen Parameter [Wenzel, 1999].<br />

E<strong>in</strong>e Simulation akusto-mechanischer Systeme sche<strong>in</strong>t zwar möglich, ist aber schwer zu<br />

realisieren. Die Implementierung e<strong>in</strong>er FM-Flöte ist <strong>in</strong> Abschnitt 6.2 zu f<strong>in</strong>den. Detaillierte<br />

Informationen f<strong>in</strong>det man <strong>in</strong> [De Poli, 1983], [Roads, 1996], [Holm, 1992] oder [Bate, 1990]<br />

2.2.2 Waveshap<strong>in</strong>g-Synthese<br />

Die Waveshap<strong>in</strong>g-Synthese oder auch Wellenformsynthese fügt e<strong>in</strong>em E<strong>in</strong>gangssignal<br />

neue Obertöne durch e<strong>in</strong>e nichl<strong>in</strong>eare Verzerrung des Signals h<strong>in</strong>zu. Sie nutzt e<strong>in</strong>e<br />

‚Formungsfunktion‘, um das E<strong>in</strong>gangssignal anhand e<strong>in</strong>er nichtl<strong>in</strong>earen Kennl<strong>in</strong>ie zu<br />

verformen. In der gr<strong>und</strong>legensten Form wird dies durch die Abbildung e<strong>in</strong>es S<strong>in</strong>ussignals<br />

auf e<strong>in</strong>e nichtl<strong>in</strong>eare Verzerrungsfunktion w realisiert, von denen <strong>in</strong> Abb. 2.5 e<strong>in</strong>ige<br />

Beispiele aufgezeigt s<strong>in</strong>d. Die Funktion w transformiert den E<strong>in</strong>gangswert x(n) im Bereich [-<br />

1,1] <strong>in</strong> den Ausgangswert y(n) im gleichen Bereich. Die Verhältnisse der Harmonischen<br />

lassen sich genau kontrollieren, <strong>in</strong>dem man als Verzerrungsfunktionen Chebyshev-<br />

Polynome 4 verwendet [Arfib, 1979; Le Brun, 1979]. Benutzt man e<strong>in</strong> Chebyshev-Polynom n-<br />

ter Ordnung T n als Verzerrungsfunktion für e<strong>in</strong> s<strong>in</strong>usförmiges E<strong>in</strong>gangssignal der Frequenz<br />

ω, so zeigt sich, daß das Ausgangssignal e<strong>in</strong> re<strong>in</strong>er S<strong>in</strong>us der Frequenz n⋅ω ist:<br />

T n[x=cos(ω)] = cos(n⋅ω). Nutzt man e<strong>in</strong>e L<strong>in</strong>earkomb<strong>in</strong>ation von Chebyshev-Polynomen als<br />

Verzerrungsfunktion, so kann man die Amplitudenverhältnisse der entstehenden<br />

Harmonischen kontrollieren [Tolonen et.al., 1998]. Mittels e<strong>in</strong>er nachgeschalteten<br />

Amplitudenmodulation kann man dem Signal noch Komponenten h<strong>in</strong>zufügen, die um die<br />

Modulationsfrequenz f m herum <strong>in</strong> Frequenzabständen des unverzerrten S<strong>in</strong>ussignals f 0<br />

verteilt liegen (f ± = f 0 ± f m) [Roads, 1996].<br />

4<br />

Im allgeme<strong>in</strong>en gilt für Chebyshev-Polynome Tn: |Tn(x)| ≤ 1 für |x| ≤ 1. E<strong>in</strong>e Chebyshev-Serie <strong>in</strong> x<br />

m a 0 S(<br />

x)<br />

= +<br />

ist e<strong>in</strong>e Fourier-Serie <strong>in</strong> ω. Die Terme apTp, aq,Tq usw. kann man ignorieren,<br />

∑ a jT<br />

j ( x)<br />

2 j=<br />

1 sofern |ap| + |aq| +... kle<strong>in</strong>er ist, als der zu akzeptierende Fehler. Es folgt:<br />

1<br />

S(<br />

x)<br />

=<br />

2<br />

Onl<strong>in</strong>e-Version 1.0 12<br />

∞<br />

∑<br />

j=<br />

−∞<br />

a0<br />

a jT<br />

j(<br />

x)<br />

= +<br />

2<br />

∞<br />

∑<br />

j=<br />

1<br />

a T ( x)<br />

j<br />

j


DIPLOMARBEIT HENRI HAGENOW<br />

Abb.2.5: Beispiel der Waveshap<strong>in</strong>gsynthese mit vier verschiedenen Formungsfunktionen.<br />

Das E<strong>in</strong>gangssignal a) ist <strong>in</strong> allen Fällen gleich.<br />

Erste Experimente mit der Waveshap<strong>in</strong>g-Synthese wurden 1969 von J.-C. Risset<br />

unternommen [Roads, 1996]. Arfib <strong>und</strong> Le Brun entwickelten unabhängig vone<strong>in</strong>ander die<br />

mathematische Formulierung der Wellenformsynthese [Arfib, 1979; Le Brun, 1979].<br />

Für die Modellierung komplexer Klangkörper ist diese Art der Klangerzeugung im S<strong>in</strong>ne der<br />

vorliegenden Arbeit aufgr<strong>und</strong> der Schwierigkeit der Implementierung physikalischer<br />

Parameter der Instrumentenmodelle <strong>und</strong> der fehlenden Intuitivität bei der Steuerung der<br />

Parameter durch den Instrumentalisten ungeeignet.<br />

2.3 Spektrale Modelle<br />

Die Methoden der spektralen <strong>Klangsynthese</strong> basieren auf der 1843 von Georg Simon Ohm<br />

entdeckten Eigenschaft des menschlichen Gehörs, die wahrgenommenen Klänge nach den<br />

Pr<strong>in</strong>zipien der Fourier-Analyse <strong>in</strong> E<strong>in</strong>zelfrequenzen bzw. Frequenzgruppen aufzuteilen <strong>und</strong><br />

dem Gehirn zu übermitteln [Ruschkowski, 1998]. Die Synthesemethoden aus der Gruppe<br />

der spektralen Modelle machen sich dieses Pr<strong>in</strong>zip zunutze. Die sogenannte ‚Fourier-<br />

synthese’ oder ‚additive Synthese‘ erzeugt durch Addition e<strong>in</strong>er Reihe von S<strong>in</strong>ustönen e<strong>in</strong>e<br />

komplexe periodische Schw<strong>in</strong>gung. Karlhe<strong>in</strong>z Stockhausen <strong>und</strong> Bruner Maderna<br />

komponierten mit den Mitteln der additiven Synthese kurze elektronische Musikstücke.<br />

Onl<strong>in</strong>e-Version 1.0<br />

13


DIPLOMARBEIT HENRI HAGENOW<br />

Geht der additiven Synthese e<strong>in</strong>e Analyse des zu reproduzierenden Klanges voraus, nennt<br />

man diese auch Resynthese. Auch die subtraktive Synthese läßt sich <strong>in</strong> die Kategorie der<br />

spektralen Modelle e<strong>in</strong>ordnen.<br />

2.3.1 Additive Synthese<br />

Bei der additiven Synthese 5 wird davon ausgegangen, daß e<strong>in</strong> musikalischer Ton aus e<strong>in</strong>er<br />

endlichen Anzahl diskreter S<strong>in</strong>usschw<strong>in</strong>gungen besteht, die bestimmte zeitliche<br />

Amplitudenverläufe besitzen. Um e<strong>in</strong>en Naturton nachzubilden, werden also nur e<strong>in</strong>e große<br />

Anzahl von S<strong>in</strong>usoszillatoren <strong>und</strong> e<strong>in</strong>e entsprechend große Anzahl an<br />

Hüllkurvengeneratoren benötigt, die die Amplitudenverläufe der e<strong>in</strong>zelnen Obertöne<br />

steuern. Dadurch ist sie e<strong>in</strong>e für künstlerische Gestaltung zugängliche <strong>und</strong> <strong>in</strong> der<br />

Parametrisierung <strong>in</strong>tuitiv gestaltbare Synthesetechnik. Mit e<strong>in</strong>er großen Anzahl von<br />

S<strong>in</strong>usoszillatoren, deren Frequenz, Amplitude <strong>und</strong> Phase e<strong>in</strong>zeln e<strong>in</strong>stellbar <strong>und</strong> im Idealfall<br />

auch e<strong>in</strong>zeln zeitlich modulierbar s<strong>in</strong>d, lassen sich demnach alle erdenklichen<br />

Wellenformen generieren. Die additive Synthese ist e<strong>in</strong>e der ersten<br />

<strong>Klangsynthese</strong>techniken, die <strong>in</strong> der Computermusik genutzt wurde. E<strong>in</strong>e ausführliche<br />

Beschreibung dieser Syntheseform f<strong>in</strong>det sich im ersten Artikel der ersten Ausgabe des<br />

‚Computer <strong>Music</strong> Journal‘ von 1977 [Moorer, 1977].<br />

Bei der additiven Synthese werden drei Kontrollfunktionen (Amplitude, Frequenz, Phase) für<br />

jeden S<strong>in</strong>usoszillator benötigt. Häufig wird auf die Steuerung der Phase verzichtet, um den<br />

Algorithmus zu vere<strong>in</strong>fachen. Das Ausgangssignal y(n) e<strong>in</strong>es additiven <strong>Klangsynthese</strong>-<br />

algorithmus kann dann als Summe der E<strong>in</strong>zelkomponenten dargestellt werden:<br />

∑ − M 1<br />

k = 0<br />

y( n)<br />

= A ( n)<br />

s<strong>in</strong>[ 2π<br />

⋅ f<br />

Onl<strong>in</strong>e-Version 1.0 14<br />

k<br />

n ist hierbei der digitale Zeit<strong>in</strong>dex, M die Anzahl der e<strong>in</strong>zelnen S<strong>in</strong>usoszillatoren <strong>und</strong> A(n)<br />

die hüllkurvengesteuerte zeitabhängige Amplitude.<br />

Bei der sogenannten ‚L<strong>in</strong>e Segment‘-Approximation [Risset, 1964; Strawn,1980; Moorer,<br />

1985] werden die Amplituden- <strong>und</strong> Frequenzfunktionen durch stückweise l<strong>in</strong>eare Kurven<br />

gesteuert, um den durch e<strong>in</strong>e vorherige Klanganalyse bestimmten Orig<strong>in</strong>alverlauf der<br />

Obertonamplitude der nachzubildenden Klänge zu approximieren (Abb. 2.6). E<strong>in</strong>e Variation<br />

k<br />

( n)]<br />

dieser Methode kommt <strong>in</strong> Abschnitt 5.2.1.2.3 zur Anwendung.<br />

(<br />

2.<br />

3)<br />

5 Die additive Synthese ist wohl e<strong>in</strong>e der ältesten bekannten Synthesearten; im Pr<strong>in</strong>zip wurde sie<br />

schon bei Kirchenorgeln betrieben, wo man verschiedene Register mischen konnte, um so die<br />

Klangfarben unterschiedlicher Orchester<strong>in</strong>trumente simulieren zu können.


DIPLOMARBEIT HENRI HAGENOW<br />

Geht der Synthese e<strong>in</strong>e ausgiebige Analyse des nachzubildenden Tones voraus, läßt sich<br />

theoretisch jeder Naturklang beliebig genau reproduzieren. E<strong>in</strong> Analysealgorithmus <strong>und</strong> e<strong>in</strong><br />

darauf folgender Synthesealgorithmus läßt sich automatisieren <strong>und</strong> so zu e<strong>in</strong>er mächtigen<br />

Synthesesoftware gestalten - e<strong>in</strong>e solche Software wird von verschiedenen Instituten 6<br />

entwickelt <strong>und</strong> verfe<strong>in</strong>ert (Mc Aulay-Quatieri Algorithmus, Spectral <strong>Model<strong>in</strong>g</strong> Synthesis<br />

[SMS], Transient <strong>Model<strong>in</strong>g</strong> Synthesis [TMS], FFT -1 -Synthese).<br />

Abb.2.6: Beispiel der L<strong>in</strong>e-Segment-Approximation bei der additiven Synthese:<br />

Der gemessene Hüllkurvenverlauf der e<strong>in</strong>zelnen Obertonamplituden wird mittels<br />

streckenweise l<strong>in</strong>earer Kurvenstücke approximiert<br />

Die zu <strong>in</strong>vestierende Implementierungsarbeit erhöht sich mit der Komplexität des zu<br />

simulierenden Klanges, vor allem bei manueller E<strong>in</strong>stellung aller wichtigen Parameter. Ist<br />

der Klang lebendig <strong>und</strong> dynamisch, so ist e<strong>in</strong>e komplizierte <strong>und</strong> für jeden Oszillator<br />

<strong>in</strong>dividuelle Modulation von Frequenz <strong>und</strong> Amplitude notwendig. Je lebhafter der Klang ist,<br />

desto komplizierter müssen die e<strong>in</strong>zelnen Oszillatoren, deren E<strong>in</strong>zelfrequenzen die<br />

Obertöne des Klanges bilden, moduliert werden. Hierbei sollte für e<strong>in</strong> realistisches Klangbild<br />

zusätzlich auf e<strong>in</strong>e mögliche Kopplung zwischen e<strong>in</strong>zelnen Obertönen geachtet werden.<br />

Mit der Brillianz des nachzubildenden Tones, also der Anzahl der im Klang vorhandenen<br />

Obertöne, steigt auch die Anzahl der zur Simulation notwendigen Oszillatoren <strong>und</strong> damit<br />

auch der Modulatoren. H<strong>in</strong>zu kommt, daß die den Klange<strong>in</strong>druck bestimmenden Parameter<br />

der e<strong>in</strong>zelnen Obertöne (Amplitude, Frequenz <strong>und</strong> deren zeitliche Ableitungen) mit der<br />

Spieldynamik variieren müssen. E<strong>in</strong> auf e<strong>in</strong>em Instrument forte gespielter Ton hat e<strong>in</strong><br />

komplexeres Spektrum, besitzt mehr Obertöne usw. als e<strong>in</strong> piano gespielter Ton.<br />

Die subjektive Klangqualität hängt vor allem bei transienten Signalen, wie Musiksignalen,<br />

auch von den Phasenbeziehungen <strong>und</strong> somit vom zeitlichen Verlauf der Signalform ab. Die<br />

6 CCRMA - Center for Computer Research <strong>in</strong> <strong>Music</strong> and Acoustics, Stanford University; INA - Institut<br />

National de l'Audiovisuel, Paris; IRCAM – Institute de Recherche et Coord<strong>in</strong>ation Acoustique, Paris;<br />

IUA - Institut Universitari de l'Audiovisual, Pompeu Fabra University Barcelona uvm.<br />

Onl<strong>in</strong>e-Version 1.0<br />

15


DIPLOMARBEIT HENRI HAGENOW<br />

genutzten S<strong>in</strong>usoszillatoren sollten zue<strong>in</strong>ander synchronisierbar, ihre Phasen relativ<br />

zue<strong>in</strong>ander e<strong>in</strong>stellbar se<strong>in</strong>.<br />

Die für e<strong>in</strong>en natürlichen Klange<strong>in</strong>druck notwendige große Anzahl von S<strong>in</strong>usoszillatoren<br />

<strong>und</strong> Hüllkurvengeneratoren bzw. Modulationsgeneratoren, aber auch der mit der Analyse<br />

verb<strong>und</strong>ene Installations- <strong>und</strong> Rechenaufwand machen die additive Synthese bis heute zu<br />

e<strong>in</strong>er recht selten genutzten <strong>Klangsynthese</strong>technik.<br />

Erst <strong>in</strong> diesen Tagen werden die Computer für Echtzeitanwendungen der additiven<br />

Synthese per Software nutzbar, ohne daß speziell zu diesem Zweck entwickelte digitale<br />

Signalprozessoren (DSP) die Oszillatorgenerierung übernehmen müssen.<br />

E<strong>in</strong>e kurze Abschätzung soll demonstrieren, wie kompliziert <strong>und</strong> parameterreich die additive<br />

Synthese werden kann, wenn man e<strong>in</strong>en Pianoklang simulieren möchte: Der tiefe Pianoton<br />

A (110 Hz) benötigt bei CD-Qualität 7 200 S<strong>in</strong>usoszillatoren zur Abdeckung des gesamten<br />

hörbaren Frequenzspektrums (22050/110 ≅ 200) – wohlgemerkt für die Nachbildung nur<br />

e<strong>in</strong>er e<strong>in</strong>zigen Stimme! Die hohe Anzahl der Oszillatoren ist somit e<strong>in</strong> großer Nachteil<br />

dieser Syntheseart <strong>und</strong> macht e<strong>in</strong>e E<strong>in</strong>stellung der Klangparameter ‚per Hand‘ fast<br />

unmöglich.<br />

Die Synthese e<strong>in</strong>es Flötenklanges wird im Laufe dieser Arbeit <strong>in</strong> Abschnitt 5.2.1<br />

beschrieben. Es gibt verschiedene Techniken 8 der Implementierung der additiven Synthese:<br />

DSP-basiert, Wavetable Lookup, Table Lookup, VLSI-Systeme, rekursive Algorithmen,<br />

virtuelle Oszillatoren uvm. [Gordon & Smith, 1985].<br />

Die Bemühungen um die additive Synthese, die aufgr<strong>und</strong> der nun zur Verfügung stehenden<br />

Rechenleistung weiter zunehmen, führten auch zur Entwicklung leistungsfähiger<br />

Analysemethoden [Serra & Smith, 1990], die <strong>in</strong> Implementierungen der additiven Synthese<br />

<strong>in</strong>tegriert wurden (s.o. ‚SMS‘: Spectral <strong>Model<strong>in</strong>g</strong> Synthesis, usw.). Geht der additiven<br />

Synthese e<strong>in</strong> Analysevorgang voraus, der die Parameter zur Nachbildung des analysierten<br />

Klanges aus demselben extrahiert, nennt man diese Art der <strong>Klangsynthese</strong> oft auch<br />

‚Resynthese‘.<br />

7 Die ‚Redbook‘-Norm sieht für digitale Audio-CDs e<strong>in</strong>e Sampl<strong>in</strong>gfrequenz von 44,1 kHz <strong>und</strong> e<strong>in</strong>e<br />

Amplitudenauflösung von 16 Bit vor.<br />

8 Die verschiedenen Möglichkeiten zur Generierung e<strong>in</strong>es digitalen s<strong>in</strong>usodialen Signalgenerators<br />

sprengen den Ramen dieser Arbeit <strong>und</strong> können bei Interesse bei [Smith, 1987a; Smith, 1987c]<br />

nachgelesen werden.<br />

Onl<strong>in</strong>e-Version 1.0 16


DIPLOMARBEIT HENRI HAGENOW<br />

2.3.2 Resynthese<br />

Bei der Resynthese geht der <strong>Klangsynthese</strong> durch additive Synthese e<strong>in</strong>e Analyse des zu<br />

reproduzierenden Klanges voraus. Meist wird die Prozedur der Analyse <strong>und</strong> Resynthese <strong>in</strong><br />

e<strong>in</strong>er Software 9 automatisiert. E<strong>in</strong>ige Programme führen diese Operationen<br />

aufe<strong>in</strong>anderfolgend <strong>in</strong> Echtzeit durch <strong>und</strong> ermöglichen umfassende Möglichkeiten zur<br />

Bearbeitung der analysierten Klänge 10 .<br />

Die Klänge, die von e<strong>in</strong>em physikalischen System, also z.B. von e<strong>in</strong>em Musik<strong>in</strong>strument,<br />

produziert werden, können durch die Summe e<strong>in</strong>es Satzes von S<strong>in</strong>usschw<strong>in</strong>gungen <strong>und</strong><br />

e<strong>in</strong>em Rauschanteil nachgebildet werden. Der determ<strong>in</strong>istische Teil, also der Satz e<strong>in</strong>zelner<br />

S<strong>in</strong>ustöne, entspricht den (Haupt-)Schw<strong>in</strong>gungsmoden des physikalischen Systems. Der<br />

Rauschanteil besteht aus der vom Anregungsmechanismus produzierten Energie, die vom<br />

System nicht <strong>in</strong> stationäre Schw<strong>in</strong>gungen umgesetzt wurde <strong>und</strong> jeglicher weiterer<br />

Energiekomponenten, die nicht von sich aus (<strong>in</strong> natürlicher Weise) s<strong>in</strong>usförmig ersche<strong>in</strong>en.<br />

Serra nennt e<strong>in</strong> solches Modell das ‚Determ<strong>in</strong>istic plus Stochastic Model‘ [Serra, 1997].<br />

Im Falle e<strong>in</strong>er gestrichenen Saite resultieren die stabilen S<strong>in</strong>usanteile aus den<br />

Schw<strong>in</strong>gungsmoden von Saite <strong>und</strong> Korpus; das Rauschen wird durch die Gleitreibung des<br />

Bogens gegen die Saite <strong>und</strong> weiteren nichtl<strong>in</strong>earen Eigenschaften des Bogen-Saite-<br />

Resonator-Systems erzeugt. Im Falle e<strong>in</strong>es Blas<strong>in</strong>strumentes s<strong>in</strong>d die determ<strong>in</strong>istischen<br />

Klanganteile das Resultat der selbstangeregten Schw<strong>in</strong>gungen <strong>in</strong>nerhalb des ausgehöhlten<br />

Klangkörpers <strong>und</strong> der residuale Anteil ist das Rauschsignal, das durch die turbulente<br />

Strömung am schmalen Spalt im M<strong>und</strong>stück erzeugt wird.<br />

Diese Art der Aufteilung des Klangspektrums <strong>in</strong> determ<strong>in</strong>istische <strong>und</strong> stochastische Anteile<br />

läßt sich auch auf Vokalklänge, perkussive Instrumentenklänge <strong>und</strong> auch auf natürlich<br />

erzeugte nichtmusikalische Klänge anwenden.<br />

Als determ<strong>in</strong>istisches Signal bezeichnet man im allgeme<strong>in</strong>en e<strong>in</strong> Signal, das <strong>in</strong> se<strong>in</strong>em<br />

Verlauf über alle Intervalle vorhersehbar ist – traditionell gesehen alle Signale außer<br />

Rauschen. In dieser Arbeit soll der Begriff des determ<strong>in</strong>istischen Signals aber auf Summen<br />

9 Bekannte Beispiele s<strong>in</strong>d: Spectral <strong>Model<strong>in</strong>g</strong> Synthesis [SMS], Transient <strong>Model<strong>in</strong>g</strong> Synthesis [TMS],<br />

FFT -1 -Synthese, Determ<strong>in</strong>istic plus Stochastic Model<br />

10 E<strong>in</strong>e Realisierung ist zum Beispiel die folgende: In e<strong>in</strong>er japanischen Karaoke-Bar s<strong>in</strong>gt e<strong>in</strong>e junge<br />

Frau zur Musik von Berry White <strong>in</strong> e<strong>in</strong> Mikrofon <strong>und</strong> man vernimmt ihre Stimme <strong>in</strong> der Tonlage von<br />

Berry White <strong>und</strong> mit den für ihn charakteristischen Formanten. Die Stimmlagen <strong>und</strong> Formanten der<br />

E<strong>in</strong>gabestimme werden <strong>in</strong> Echtzeit analysiert <strong>und</strong> getrennt vone<strong>in</strong>ander im Frequenzraum<br />

verschoben. E<strong>in</strong>e vorherige komplette Analyse der Zielstimme wird vorausgesetzt [Cano et. al.,<br />

2000].<br />

Onl<strong>in</strong>e-Version 1.0<br />

17


DIPLOMARBEIT HENRI HAGENOW<br />

quasi-s<strong>in</strong>usförmiger Klangkomponenten, also S<strong>in</strong>usschw<strong>in</strong>gungen mit leicht schwankender<br />

Frequenz <strong>und</strong> Amplitude, e<strong>in</strong>geschränkt werden. Jede dieser Schw<strong>in</strong>gungen (‚S<strong>in</strong>usoide‘)<br />

bildet e<strong>in</strong>e schmalbandige Komponente des Orig<strong>in</strong>alklanges nach <strong>und</strong> wird beschrieben<br />

durch e<strong>in</strong>e Amplituden- <strong>und</strong> e<strong>in</strong>e Frequenzfunktion.<br />

E<strong>in</strong> stochastisches Signal (Rauschen) wird vollständig durch se<strong>in</strong> Leistungsdichtespektrum<br />

beschrieben. Wird e<strong>in</strong> Signal als stochastisch angenommen, ist es nicht mehr möglich, die<br />

exakte Phase <strong>und</strong> Amplitude se<strong>in</strong>er Teilkomponenten zu bestimmen.<br />

Der untersuchte Klang S(t) kann dargestellt werden durch<br />

wobei A r(t) <strong>und</strong> Φ r(t) die zeitabhängigen Amplituden <strong>und</strong> Phasen der R S<strong>in</strong>usschw<strong>in</strong>gungen<br />

s<strong>in</strong>d. e(t) ist der entsprechende Rauschanteil zur Zeit t. Das vorgestellte Modell geht davon<br />

aus, daß die S<strong>in</strong>usschw<strong>in</strong>gungen (‚S<strong>in</strong>usoide‘) Partialtöne des untersuchten Klanges s<strong>in</strong>d,<br />

die langsam <strong>in</strong> Frequenz <strong>und</strong> Amplitude variieren.<br />

Die zeitabhängige Phase läßt sich darstellen als Zeit<strong>in</strong>tegral der Frequenz ω r(t)<br />

wobei r den Index des s<strong>in</strong>usoiden Teiltons angibt.<br />

Nimmt man an, daß e(t) e<strong>in</strong> stochastisches Signal ist, so kann man dieses als gefiltertes<br />

weißes Rauschen darstellen:<br />

S(<br />

t)<br />

= ∑<br />

r=<br />

1<br />

u(t) ist hierbei das weiße Rauschen <strong>und</strong> h(t,τ) die Impulsantwort e<strong>in</strong>es zeitlich variierenden<br />

Filters. e(t) erhält man im zeitquantisierten digitalen Fall demnach durch die Faltung von<br />

weißem Rauschen mit e<strong>in</strong>em zeitvarianten, frequenzformenden Filter [Serra, 1997]. Das<br />

‚Determ<strong>in</strong>istic plus Stochastic‘-Modell, welches <strong>in</strong> Abb. 2.7 schematisch dargestellt wird,<br />

funktioniert allerd<strong>in</strong>gs nicht mit Klängen, die sogenannte ‚noise partials‘, also z.B. durch<br />

Modulationen produzierte Verbreiterungen oder Seitenbänder, enthalten. Diese<br />

Klangkomponenten, welche sich weder e<strong>in</strong>deutig den determ<strong>in</strong>istischen noch zu den<br />

stochastischen Signalen zuordnen lassen, f<strong>in</strong>den sich z.B. <strong>in</strong> den höheren Partialtönen von<br />

Vokalklängen, <strong>in</strong> e<strong>in</strong>igen Viol<strong>in</strong>enklängen (speziell bei Vibratos) <strong>und</strong> <strong>in</strong> schw<strong>in</strong>genden<br />

Onl<strong>in</strong>e-Version 1.0 18<br />

R<br />

A ( t)<br />

s<strong>in</strong>[ Φ ( t)]<br />

+ e(<br />

t)<br />

r<br />

t<br />

∫<br />

Φ ( t)<br />

= ω ( τ ) dτ<br />

r<br />

t<br />

∫<br />

0<br />

e(<br />

t)<br />

= h(<br />

t,<br />

τ ) u(<br />

τ ) dτ<br />

0<br />

r<br />

r<br />

( 2.<br />

4)<br />

( 2.<br />

5)<br />

(<br />

2.<br />

6)


DIPLOMARBEIT HENRI HAGENOW<br />

Metallplatten (Overhead-Instrumente von Schlagzeug-Sets: Cymbal, HiHat, Crash) [Serra,<br />

1997]. Aufgr<strong>und</strong> solcher une<strong>in</strong>deutigen Signalanteile ist die automatisierte Separation <strong>in</strong><br />

determ<strong>in</strong>istische <strong>und</strong> stochastische Klangkomponenten selten vollständig möglich. Daher ist<br />

e<strong>in</strong>e Kontrolle der Klangdaten notwendig.<br />

Abb.2.7: Signalflußdiagramm der Analysestufe des ‚Determ<strong>in</strong>istic plus Stochastic‘-Modells<br />

zur Resynthese automatisch analysierter Klangdateien (Abb.<br />

aus [Serra, 1997]).<br />

Die Analyse des nachzubildenden Klanges wird digital durchgeführt: Das Signal wird <strong>in</strong><br />

Frames unterteilt. Jedes Frame wird mit e<strong>in</strong>em geeigneten Analysefenster multipliziert <strong>und</strong><br />

mittels FFT-Algorithmus 11 transformiert. Danach durchläuft der Datenstrom e<strong>in</strong>en<br />

Signalspitzenerkennungs-Algorithmus (‚Peak-Detection‘), <strong>in</strong> dem die spektralen Peaks als<br />

Partialtöne erkannt werden. E<strong>in</strong>e Tonhöhenerkennung (‚Pitch-Detection‘) hilft bei<br />

pseudoharmonischen Klängen bei der Auswahl des geeigneten Analysefensters (‚pitch-<br />

synchronous analysis‘). Damit die Peak-Trajektorien zeitlich weitergeführt werden können<br />

<strong>und</strong> die Partialtöne auch bei kle<strong>in</strong>en Frequenzänderungen als zusammenhängend erkannt<br />

werden, werden die spektralen Peaks dem ‚peak-cont<strong>in</strong>uation‘-Algorithmus zugeführt (siehe<br />

Abb. 2.7).<br />

11 FFT = Fast Fourier Transformation<br />

Onl<strong>in</strong>e-Version 1.0<br />

19


DIPLOMARBEIT HENRI HAGENOW<br />

Die stochastische Klangkomponente jedes Frames wird bestimmt, <strong>in</strong>dem zuerst das<br />

determ<strong>in</strong>istische Signal mittels additiver Synthese generiert <strong>und</strong> dann vom analysierten<br />

Orig<strong>in</strong>alklang <strong>in</strong> der Zeitebene subtrahiert wird. Dies ist so möglich, da die Phasen des<br />

Orig<strong>in</strong>alklanges <strong>in</strong> den synthetisierten S<strong>in</strong>usoiden erhalten bleiben <strong>und</strong> daher auch die<br />

gesamte Form des Zeitsignals erhalten wird. Das stochastische Signal ermittelt man dann<br />

durch e<strong>in</strong> spektrales Fitt<strong>in</strong>g des aus der Subtraktion erhaltenen Restsignals. In Abb. 2.8 ist<br />

e<strong>in</strong> Blockdiagramm des Synthesealgorithmus nach [Serra, 1997] dargestellt.<br />

Abb.2.8: Blockdiagramm des Synthesealgorithmus des ‚Determ<strong>in</strong>istic plus<br />

Stochastic‘-Modells nach [Serra, 1997].<br />

Das determ<strong>in</strong>istische Signal resultiert aus den durch den Analysealgorithmus bestimmten<br />

Amplituden- <strong>und</strong> Frequenztrajektorien. Für jede Wertepaartrajektorie wird e<strong>in</strong>e S<strong>in</strong>uswelle<br />

generiert; die Summe dieser S<strong>in</strong>usoide ergibt das determ<strong>in</strong>istische Spektrum (additive<br />

Synthese). Die Transformation der Trajektorie-Koord<strong>in</strong>aten <strong>in</strong> den Zeitbereich geschieht<br />

dann entweder mittels <strong>in</strong>verser Fouriertransformation (FFT -1 ), oder die Daten steuern direkt<br />

die Amplituden- <strong>und</strong> Frequenze<strong>in</strong>gänge e<strong>in</strong>er S<strong>in</strong>usoszillatorbank, die das Zeitsignal<br />

generiert. Für das synthetische stochastische Signal generiert man e<strong>in</strong> Rauschen mit der<br />

zeitvarianten spektralen Zusammensetzung, die man <strong>in</strong> der Analysestufe ermittelt hat<br />

(subtraktive Synthese, siehe auch Abschnitt 2.3.3). Wie bei der Synthese des<br />

Onl<strong>in</strong>e-Version 1.0 20


DIPLOMARBEIT HENRI HAGENOW<br />

determ<strong>in</strong>istischen Signals kann man dies im Zeit- <strong>und</strong> Frequenzbereich tun (Faltung oder<br />

frameweises Filtern von weißem Rauschen, s.o.).<br />

2.3.2.1 Signalanalyse<br />

Bei der digitalen Analyse der zu resynthetisierenden Klangdatei mittels FFT stößt man auf<br />

das bekannte Problem der Unschärfe zwischen Zeit- <strong>und</strong> Frequenzbereich: Für e<strong>in</strong>e<br />

determ<strong>in</strong>istische Analyse ist e<strong>in</strong>e hohe Frequenzauflösung besonders wichtig, um die<br />

Partialtöne des analytischen Signals so genau wie möglich bestimmen zu können. Für die<br />

stochastische Analyse ist allerd<strong>in</strong>gs die Frequenzauflösung weniger wichtig. Vielmehr geht<br />

es hierbei um e<strong>in</strong>e recht genaue Bestimmung der Amplitudenhüllkurve, also e<strong>in</strong>e gute<br />

zeitliche Auflösung. Bei tonstabilen Klängen bietet sich die Nutzung e<strong>in</strong>er langen<br />

Fensterfunktion für die determ<strong>in</strong>istische Analyse an (z.B. e<strong>in</strong> e<strong>in</strong>ige Perioden langes 92 dB<br />

Blackman-Harris-Fenster [Serra, 1997]). Hierbei erhält man e<strong>in</strong>e gute Frequenzauflösung,<br />

d.h. man kann die Frequenzen der Partialtöne gut bestimmen. Die meisten Klänge s<strong>in</strong>d<br />

allerd<strong>in</strong>gs nicht stabil genug, so daß man e<strong>in</strong>en Kompromiß zwischen der optimalen Zeit-<br />

<strong>und</strong> Frequenzauflösung e<strong>in</strong>gehen muß. Im Falle e<strong>in</strong>es harmonischen Klanges sollte die<br />

Fenstergröße mit der Tonhöhe, also der zu messenden Gr<strong>und</strong>frequenz, variieren, um den<br />

ermittelten Zeit-Frequenz-Kompromiß optimal zu. Im Falle von disharmonischen Kängen<br />

sollte die Fenstergröße von der m<strong>in</strong>imalen Frequenzdifferenz abhängen, die zwischen<br />

enthaltenen Partialtönen besteht.<br />

Nachdem das Spektrum e<strong>in</strong>es Frames berechnet wurde, werden die hervorstechenden<br />

Peaks ermittelt. Da die meisten natürlich erzeugten Klänge nicht perfekt periodisch s<strong>in</strong>d <strong>und</strong><br />

ke<strong>in</strong>e begrenzten <strong>und</strong> klar def<strong>in</strong>ierten Frequenzpeaks aufweisen, ist das automatische<br />

Auff<strong>in</strong>den der Partialtöne nicht e<strong>in</strong>fach. Nur wenige Instrumentenklänge, wie etwa der<br />

quasistationäre Klangbereich e<strong>in</strong>es Oboenklanges, s<strong>in</strong>d periodisch genug, um ausreichend<br />

frei von hervorstechenden Rauschkomponenten für e<strong>in</strong>e fehlerfreie automatische Analyse<br />

zu se<strong>in</strong> [Serra, 1997].<br />

Im <strong>in</strong> Abb. 2.8 dargestellten Algorithmus wird bei der Analyse versucht, so viele Peaks wie<br />

möglich zu erkennen; die Entscheidung, welcher der Peaks zu e<strong>in</strong>em Partialton gehört, wird<br />

allerd<strong>in</strong>gs erst durch den ‚Peak-Cont<strong>in</strong>uation‘-Algorithmus gefällt.<br />

Der Hauptvorteil der spektralen Modellierung ist die Existenz e<strong>in</strong>er Analyse-Prozedur, die<br />

die Syntheseparameter aus dem analysierten Klang extrahieren, also im Falle e<strong>in</strong>er<br />

additiven Synthese die zeitveränderlichen Obertonfrequenzen <strong>und</strong> Amplituden. Auf diese<br />

Weise lassen sich die analysierten Klänge leicht reproduzieren, wie auch modifizieren.<br />

Onl<strong>in</strong>e-Version 1.0<br />

21


DIPLOMARBEIT HENRI HAGENOW<br />

Ausgehend von den durch die Analyse ermittelten Daten e<strong>in</strong>zeln analysierter Töne e<strong>in</strong>es<br />

bestimmten Instrumententypes, z.B. e<strong>in</strong>er Flöte, läßt sich der genaue Klang des<br />

Instruments sowohl (theoretisch exakt) nachbilden, als auch nach Belieben manipulieren.<br />

So lassen sich nicht nur bestimmte Klangeigenschaften (Timbres) besonders herausbilden<br />

oder nach eigenen Wünschen verändern, sondern es s<strong>in</strong>d, ausgehend von der Basis des<br />

Orig<strong>in</strong>alklanges, auch absolut neuartige Klangkreationen möglich.<br />

Diese Art der Instrumentenkonstruktion ermöglicht e<strong>in</strong>en Zugriff auf jeden e<strong>in</strong>zelnen<br />

Oberton <strong>und</strong> somit auf die kle<strong>in</strong>sten spektralen Bauste<strong>in</strong>e des Klanges selbst.<br />

Serra entwickelte mit se<strong>in</strong>er Arbeitsgruppe e<strong>in</strong>en Analysealgorithmus, der die automatisch<br />

ermittelten Daten <strong>in</strong> e<strong>in</strong>er Datenbank zusammenfaßt. Dies ermöglicht den Zugriff auf die<br />

Parameter verschiedenster Instrumentengruppen <strong>und</strong> eröffnet e<strong>in</strong>e völlig neue Art der<br />

Klanggestaltung. So wird zum Beispiel e<strong>in</strong> stufenloses Überblenden (morph<strong>in</strong>g)<br />

verschiedener Klänge aus unterschiedlichen Instrumentengruppen oder anderen beliebigen<br />

Geräuschen möglich. Jeder beliebige Zustand im von den Parametern der Klänge<br />

aufgespannten Raum kann e<strong>in</strong>genommen werden [Serra, 1997].<br />

Der Analyse-Resynthese-Algorithmus ermöglicht weitere Anwendungen; beispielsweise<br />

könnten digitale Signalverarbeitungsalgorithmen auf die Analysedaten zurückgreifen <strong>und</strong><br />

diese zur Dynamikbearbeitung (z.B. Kompression) oder für Effekte<strong>in</strong>sätze zur<br />

Klangverfremdung e<strong>in</strong>setzen (z.B. Flanger-, Delay-, Hall-Algorithmen). Der Vorteil im<br />

Vergleich zu den gängigen digitalen Signalverarbeitungsalgorithmen wäre die Möglichkeit,<br />

die Bear-beitung nur auf bestimmte Frequenzbereiche oder sogar nur e<strong>in</strong>zelne Obertöne<br />

oder Obertongruppen zu begrenzen. E<strong>in</strong>e andere mögliche Anwendung der durch die<br />

Analysen erstellten Datenbank wäre die automatische Instrumentenerkennung <strong>in</strong>nerhalb<br />

e<strong>in</strong>es Musik-stückes. Dadurch ließen sich e<strong>in</strong>zelne Instrumente <strong>in</strong> e<strong>in</strong>er Konzertaufnahme<br />

oder e<strong>in</strong>em fertiggestellten Stereo-Mix nachträglich bearbeiten. Potentielle E<strong>in</strong>satzgebiete<br />

s<strong>in</strong>d u.a. die Musikalische Akustik, Psychoakustik, digitale Musikproduktion etc..<br />

2.3.3 Subtraktive Synthese<br />

Die subtraktive Synthese f<strong>in</strong>det man meist auch unter dem Namen ‚source filter synthesis‘.<br />

Man erhält hier die gewünschte Wellenform durch zeitveränderliche Filterung e<strong>in</strong>es<br />

breitbandigen Erregersignals, wie z.B. e<strong>in</strong> weißes Rauschen oder e<strong>in</strong>e Folge von Impulsen<br />

(Abb 2.9) [Moorer, 1985; Roads, 1996].<br />

Der Mechanismus zur Erzeugung der menschlichen Stimme z.B. läßt sich <strong>in</strong> diesem S<strong>in</strong>ne<br />

betrachten als e<strong>in</strong>en Erregermechanismus, welcher an e<strong>in</strong> Resonatorsystem gekoppelt ist.<br />

Diese Synthesetechnik ist daher auch besonders zur Sprachsynthese geeignet [Moorer,<br />

Onl<strong>in</strong>e-Version 1.0 22


DIPLOMARBEIT HENRI HAGENOW<br />

1985]. Der Anregungsmechanismus erzeugt hierbei weißes Rauschen oder e<strong>in</strong>e<br />

periodische Impulskette, je nachdem, ob es sich gerade um stimmhafte oder stimmlose<br />

Laute handelt.<br />

Der Filter<br />

Onl<strong>in</strong>e-Version 1.0<br />

H ( z)<br />

K<br />

∑k=<br />

0<br />

+ ∑<br />

b z<br />

k<br />

= L<br />

1<br />

l = 0<br />

modelliert die Resonanzeigenschaften des menschlichen Vokaltraktes [Tolonen et. al.,<br />

1998]. Hierbei s<strong>in</strong>d a(n) <strong>und</strong> b(n) zeitvariable Koeffizienten, die die Lippen- <strong>und</strong> Zungen-<br />

bewegungen <strong>und</strong> weitere Teile des Vokaltraktes simulieren. Die Impulskette ahmt die Ton-<br />

erzeugung im menschlichen Körper durch die Stimmlippen nach; sie gibt die Gr<strong>und</strong>tonhöhe<br />

des synthetisierten Tones an. Das Anregungssignal <strong>und</strong> die Filterkoeffizienten beschreiben<br />

das Ausgangssignal vollständig. Hierbei handelt es sich weitestgehend schon um e<strong>in</strong>e<br />

digitale Implementierung e<strong>in</strong>es physikalischen mehrdimensionalen Systems.<br />

23<br />

− k 0<br />

a z<br />

Abb.2.9: Signalflußdiagramm der Source-Filter-Synthese, auch subtraktive<br />

Synthese genannt. Die Transferfunktion H(z) des zeitveränderlichen<br />

Filters wird duch die Filterkoeffizienten a(n) <strong>und</strong> b(n) charakterisiert.<br />

Da viele traditionelle akustische Musik<strong>in</strong>strumente stationäre oder sich langsam<br />

verändernde Resonanzsysteme besitzen, lassen sich deren Klänge gut mittels der Source<br />

Filter- Synthesetechnik nachbilden. In gewissem S<strong>in</strong>ne läßt sich die subtraktive Synthese<br />

dann schon <strong>in</strong> den Bereich der physikalischen Modelle e<strong>in</strong>ordnen.<br />

Bei analogen Synthesizern wird der Begriff der subtraktiven Synthese meist mit der Art der<br />

Klangerzeugung der ersten kommerziellen Synthesizer-Modularsysteme von Hugh LeCa<strong>in</strong>e<br />

oder Robert Moog <strong>in</strong> Zusammenhang gebracht. Hier wurden obertonreiche Wellenformen,<br />

wie Sägezahn- oder Rechteckschw<strong>in</strong>gungen durch e<strong>in</strong>en Tiefpaßfilter <strong>und</strong> e<strong>in</strong>en<br />

hüllkurvengesteuerten Verstärker geschickt, um das Frequenzspektrum der Klänge zu<br />

l<br />

− l<br />

(<br />

2.<br />

7)


DIPLOMARBEIT HENRI HAGENOW<br />

modellieren. Zwar wurde auch mit diesen Geräten versucht, die Spektren von<br />

Natur<strong>in</strong>strumenten nachzubilden, die Ergebnisse kl<strong>in</strong>gen aber unnatürlich <strong>und</strong> starr. Die<br />

<strong>Klangsynthese</strong>algorithmen <strong>in</strong> den heutigen Musiksynthesizern beruhen auf der digitalen<br />

Simulation der bis <strong>in</strong> die 80er Jahre entwickelten analogen Synthesizer. Im Gegensatz zu<br />

damals werden heute anstatt analoger Schaltkreise nur noch digitale Algorithmen<br />

entwickelt, die die elektronischen Schaltungen <strong>in</strong> den alten ‚Klangmonstern‘ <strong>in</strong>nerhalb<br />

digitaler Signalprozessoren simulieren (‚virtuell analoge Klangerzeugung‘). Die populärsten<br />

<strong>Klangsynthese</strong>techniken s<strong>in</strong>d seitdem dieselben geblieben, sie s<strong>in</strong>d nur zwischenzeitlich<br />

von der analogen zeitkont<strong>in</strong>uierlichen <strong>in</strong> die digitale, zeitdiskrete Ebene gewechselt.<br />

2.4 Physikalische Modelle<br />

Beim sogenannten <strong>Physical</strong> <strong>Model<strong>in</strong>g</strong>, der digitalen Implementierung f<strong>und</strong>amentaler<br />

physikalischer Modelle akustischer Musik<strong>in</strong>strumente, werden die bekannten physikalischen<br />

Bewegungsgesetze der e<strong>in</strong>zelnen Teile des Instrumentes <strong>und</strong> deren Interaktionen<br />

untere<strong>in</strong>ander mathematisch simuliert. Mittels <strong>Physical</strong> <strong>Model<strong>in</strong>g</strong> läßt sich e<strong>in</strong>erseits das<br />

Verständnis der jeweiligen Instrumentenmodelle vorantreiben (modellbasierte<br />

Instrumentenforschung) <strong>und</strong> andererseits deren Klang synthetisieren [Hiller&Ruiz, 1971].<br />

Hierbei lassen sich die gängigen Theorien zur Tonerzeugung <strong>in</strong> den e<strong>in</strong>zelnen<br />

physikalischen Instrumentenmodellen <strong>in</strong> ihrer Wirksamkeit überprüfen <strong>und</strong> weiterentwickeln.<br />

Neue Erkenntnisse können gesammelt werden <strong>und</strong> zur gezielten Verbesserung der<br />

Bauweise <strong>und</strong> Spieltechniken akustischer Instrumente dienen. Am Modell lassen sich<br />

schnell beliebige Variablen verändern, um zu sehen, welche Auswirkungen dies auf den<br />

Klang hat.<br />

H<strong>in</strong>zu kommt die Möglichkeit, ausgehend von diesen Modellen, neue künstliche<br />

Instrumente zu konstruieren. E<strong>in</strong> e<strong>in</strong>facher Fall ist die Variation e<strong>in</strong>iger Parameter über die<br />

physikalisch beobachteten Grenzen h<strong>in</strong>aus. So läßt sich z.B. der Klang e<strong>in</strong>es Kontrabasses<br />

erzeugen, dessen Saiten den Ausmaßen der Stahlseile der Golden Gate Bridge<br />

entsprechen. Zusätzlich hat man die Möglichkeit, die bekannten Modelle so weit<br />

abzuändern, daß sie zwar noch auf dem gleichen Klangerzeugungspr<strong>in</strong>zip beruhen (z.B.<br />

e<strong>in</strong>er Rückkopplung zwischen l<strong>in</strong>earen Wellenleitern <strong>und</strong> nichtl<strong>in</strong>earen Funktionen zwischen<br />

den Zustandsvariablen), aber völlig neuartige Klangstrukturen erzeugen.<br />

Onl<strong>in</strong>e-Version 1.0 24


DIPLOMARBEIT HENRI HAGENOW<br />

Die verschiedenen Methoden der physikalischen Modellierung lassen sich <strong>in</strong> fünf<br />

Kategorien e<strong>in</strong>teilen: Numerische Lösung der partiellen Differentialgleichungen, Source-<br />

Filter-Modellierung, Schw<strong>in</strong>gende Masse-Feder-Netzwerke, Modale Synthese <strong>und</strong><br />

Wellenleitersynthese [Tolonen et. al., 1998].<br />

Die Wellenleitersynthese (siehe auch Abschnitt 2.4.1 <strong>und</strong> Kapitel 3) ist die e<strong>in</strong>zige<br />

Synthesemethode der physikalischen Modellierung, die auf handelsüblichen Computern<br />

echtzeitfähig ist. Sie beschreibt sehr effizient die Wellenausbreitung <strong>in</strong> e<strong>in</strong>dimensionalen<br />

homogenen Schw<strong>in</strong>gungssystemen <strong>und</strong> wird daher heutzutage oft genutzt. Im Folgenden<br />

wird näher auf diese Synthesemethoden e<strong>in</strong>gegangen.<br />

2.4.1 Modellierung von Musik<strong>in</strong>strumenten mit digitalen Wellenleitern<br />

Die digitale Wellenleitersynthese zur physikalischen Modellierung akustischer<br />

Musik<strong>in</strong>strumente verb<strong>in</strong>det verschiedene Wissensgebiete mite<strong>in</strong>ander. Sie be<strong>in</strong>haltet<br />

Themengebiete aus der Physik, der musikalischen Akustik, der Psychoakustik, der digitalen<br />

Signalverarbeitung, der Regelungstechnik <strong>und</strong> der Computerwissenschaften sowie<br />

Computermusik. Ziel der Klangmodellierung mit digitalen Wellenleitern ist die Entwicklung<br />

virtueller Musik<strong>in</strong>strumente <strong>in</strong> Form von effizienten Algorithmen, die <strong>in</strong> Echtzeit auf e<strong>in</strong>em<br />

handelsüblichen Computer funktionieren. Technisch läßt sich diese Art der <strong>Klangsynthese</strong><br />

als Signalverarbeitungsmodell physikalischer Modelle von Musik<strong>in</strong>strumenten beschreiben.<br />

Das hierfür notwendige mathematische Modell bedient sich der Erkenntnisse der<br />

musikalischen Akus-tik. Die fertigen Algorithmen werden als ausführbare Konstrukte der<br />

digitalen Signalverarbeitung dargestellt. Im Falle dieser Arbeit bestehen die <strong>in</strong> Abschnitt 5<br />

implementierten Modelle aus e<strong>in</strong>er beliebig komplizierten Verkopplung e<strong>in</strong>zelner Module.<br />

Jedes dieser Module besteht aus e<strong>in</strong>em Algorithmus, der das physikalische Verhalten<br />

elektrotechnischer Basisschaltungen simuliert (Oszillatoren, Filter, Steuerspannungs- <strong>und</strong><br />

Hüllkurvengeneratoren, Verzögerungselemente usw.). Das e<strong>in</strong>treffende Signal durchläuft<br />

e<strong>in</strong>en modulspezifischen Algorithmus <strong>und</strong> wird an den Ausgang weitergeleitet. Um die<br />

Rechenlast zu verr<strong>in</strong>gern <strong>und</strong> die Echtzeitgenerierung bei polyphoner <strong>Klangsynthese</strong> auf<br />

handelsüblichen Computern zu ermöglichen, sollten die benutzten Algorithmen e<strong>in</strong>fach<br />

gehalten werden.<br />

Das Resultat ist e<strong>in</strong> schneller, echtzeitfähiger Algorithmus zur musikalischen<br />

<strong>Klangsynthese</strong>, der <strong>in</strong> der mathematischen Sprache der digitalen Signalverarbeitung alle<br />

akustischen Eigenschaften der analysierten Musik<strong>in</strong>strumente, deren<br />

Spielbarkeitseigenschaften, die Wahrnehmbarkeit der physikalischen Mechanismen der<br />

Klangerzeugung usw. simuliert. Das Ziel ist letztendlich die Schaffung e<strong>in</strong>es<br />

Onl<strong>in</strong>e-Version 1.0<br />

25


DIPLOMARBEIT HENRI HAGENOW<br />

Computermodells der 'hörbaren Physik' des betrachteten Musik<strong>in</strong>strumentes <strong>und</strong> se<strong>in</strong>er<br />

Anregungsmechanismen [Smith, 2000].<br />

Diese Methode der Klanggenerierung eignet sich sehr gut zur digitalen Simulation der<br />

komplexen Klangstrukturen akustischer Musik<strong>in</strong>strumente. Kapitel 3 geht daher näher auf<br />

dieses Thema e<strong>in</strong>. In Kapitel 5 wird mit dieser <strong>Klangsynthese</strong>technik versucht, e<strong>in</strong> digitales<br />

Modell e<strong>in</strong>er Viol<strong>in</strong>e <strong>und</strong> e<strong>in</strong>er Flöte zu implementieren.<br />

2.5 Hybridsynthese<br />

Selbstverständlich ist es möglich <strong>und</strong> auch von großem Vorteil, alle genannten<br />

Synthesemöglichkeiten je nach zu realisierenden Klangereignissen für e<strong>in</strong> optimales<br />

Ergebnis zu komb<strong>in</strong>ieren.<br />

Sampl<strong>in</strong>gsynthese ohne darauf folgende Filterung <strong>und</strong> weitere eventuell<br />

hüllkurvengesteuerte Klangbee<strong>in</strong>flussung ist selten s<strong>in</strong>nvoll. Die subtraktive Synthese läßt<br />

sich mit jeder anderen Synthesetechnik ergänzen. Es sollten zwischen den e<strong>in</strong>zelnen<br />

Synthesemöglichkeiten ke<strong>in</strong>e Implemetierungsgrenzen geben - die Komb<strong>in</strong>ation<br />

verschiedener Techniken kann nur von Vorteil se<strong>in</strong>.<br />

2.6 Abwägender Vergleich<br />

Beim Sampl<strong>in</strong>g ist e<strong>in</strong>e hohe Klangqualität mit hohem Speicheraufwand verb<strong>und</strong>en. Zudem<br />

ersche<strong>in</strong>t das Klangbild trotz allem noch künstlich, da bei nache<strong>in</strong>ander gespielten Tönen<br />

gleicher Tonhöhe auch das Klangbild gleich bleibt - es wird ja immer dasselbe Sample<br />

abgespielt. Mit e<strong>in</strong>em modulierten Tiefpaßfilter läßt sich dieses Problem leicht verbessern.<br />

Bei der FM-Synthese ist e<strong>in</strong>e <strong>in</strong>strumentenspezifische Parametrisierung schwer zu<br />

realisieren, worunter die Klanggestaltbarkeit <strong>und</strong> die Spielbarkeit der Instrumentenmodelle<br />

stark leidet. Bei der additiven Synthese mit gekoppelten Oszillatoren <strong>und</strong> Filtern läßt sich<br />

zwar e<strong>in</strong> im Spektralbereich natürlich ersche<strong>in</strong>endes Signal erzeugen, doch ist der<br />

Aufwand, besonders <strong>in</strong> modular per Hand konstruierten Systemen, sehr hoch. Zudem muß<br />

der Synthese e<strong>in</strong>e Analyse des nachzubildenden Klanges vorausgehen. E<strong>in</strong>e Automation<br />

der Parameter ist auf jeden Fall notwendig.<br />

<strong>Physical</strong> <strong>Model<strong>in</strong>g</strong>, also die physikalische Modellierung e<strong>in</strong>es akustischen<br />

Musik<strong>in</strong>strumentes, verspricht durch die Orientierung am physikalischen Modell des<br />

Instrumentes selbst e<strong>in</strong>e verbesserte Zeitsignalrekonstruktion, also auch e<strong>in</strong>e bessere<br />

subjektive Klangqualität, <strong>und</strong> das bei sehr ger<strong>in</strong>gem Speicheraufwand. Da das Signal <strong>in</strong><br />

Echtzeit im Zeitbereich berechnet wird, benötigt e<strong>in</strong> komplexes Wellenleitersystem<br />

Onl<strong>in</strong>e-Version 1.0 26


DIPLOMARBEIT HENRI HAGENOW<br />

allerd<strong>in</strong>gs hohe Rechenleistungen. Durch die Orientierung am physikalischen Modell<br />

werden im wesentlichen dieselben Parameter verwendet wie beim Spielen des<br />

nachgebildeten Instrumentes selbst (Flöte: Anblasdruck- <strong>und</strong> Lippenspannung; Geige:<br />

Bogennormalkraft, -geschw<strong>in</strong>digkeit, -position usw.). Dadurch kann der Spieler den Klang<br />

entsprechend vielfältig bee<strong>in</strong>flussen. Hierfür muß allerd<strong>in</strong>gs für jedes Instrument e<strong>in</strong><br />

E<strong>in</strong>gabegerät entwickelt werden, das die realistische Parametere<strong>in</strong>gabe ermöglicht, um die<br />

Simulation <strong>in</strong>strumentengerecht spielen zu können. E<strong>in</strong>e solche Mensch-Masch<strong>in</strong>e-<br />

Schnittstelle wurde von verschiedenen Firmen für Blas<strong>in</strong>strumente (sog. w<strong>in</strong>d controller)<br />

schon entwickelt (z.B. Yamaha WX7).<br />

Die klanglichen Ausdrucksmöglichkeiten e<strong>in</strong>es solchen Modells s<strong>in</strong>d <strong>in</strong>nerhalb der Grenzen<br />

des Modells selbst nur von der Art des E<strong>in</strong>gabegerätes abhängig. Die Komplexität der<br />

Spielbarkeit des virtuellen Instrumentes bleibt dadurch allerd<strong>in</strong>gs erhalten <strong>und</strong> e<strong>in</strong> Erlernen<br />

des Instrumentenspiels ist genauso unumgänglich, wie bei den klassischen Instrumenten.<br />

Digitale Wellenleitermodelle s<strong>in</strong>d im wesentlichen zeitdiskrete Modelle mehrdimensionaler<br />

Medien, wie schw<strong>in</strong>genden Saiten (e<strong>in</strong>dimensional), Platten (zwedimensional) oder der<br />

Luftsäule <strong>in</strong>nerhalb e<strong>in</strong>es Rohres (dreidimensional). E<strong>in</strong> Wellenleitermodell läßt sich mittels<br />

Verzögerungsleitungen softwareseitig e<strong>in</strong>fach <strong>und</strong> vor allem kostengünstig implementieren.<br />

Im folgenden Kapitel werden die Gr<strong>und</strong>lagen der Wellenleitersynthese behandelt. In Kapi-<br />

tel 5 werden Wellenleitermodelle für die Resonanzsysteme e<strong>in</strong>gespannte Saite (Gitarre,<br />

Geige) <strong>und</strong> begrenztes Luftvolumen (Flöte) implementiert.<br />

Onl<strong>in</strong>e-Version 1.0<br />

27


DIPLOMARBEIT HENRI HAGENOW<br />

3. Der Wellenleiter<br />

Im Folgenden wird primär das Modell e<strong>in</strong>es Saiten<strong>in</strong>strumentes (z.B. Gitarre oder Viol<strong>in</strong>e)<br />

zur Veranschaulichung des Wellenleitermodelles für die digitale Wellenformsynthese<br />

benutzt. Ausgehend von der freischw<strong>in</strong>genden Saite mit weiterfolgender schrittweiser<br />

Angleichung an reale Systeme wird die digitale Simulation des Schw<strong>in</strong>gungsverhaltens<br />

e<strong>in</strong>es komplexen mehrdimensionalen Klangkörpers angestrebt.<br />

3.1 Die freischw<strong>in</strong>gende unendlich lange ideale Saite<br />

Die Wellengleichung e<strong>in</strong>er idealen, d.h. verlustlosen, l<strong>in</strong>earen <strong>und</strong> flexibel schw<strong>in</strong>genden<br />

Saite, wie <strong>in</strong> Abb. 3.1 dargestellt, ist durch<br />

bzw.<br />

2<br />

2<br />

∂ y ∂ y<br />

K ⋅ = ε ⋅ 2<br />

2<br />

∂x<br />

∂t<br />

2<br />

∂ y<br />

− c 2<br />

∂t<br />

c =<br />

gegeben, wobei K die Saitenspannung, ε die l<strong>in</strong>eare Massendichte <strong>und</strong> y = y(x,t) die<br />

transversale Saitenauslenkung ist. Diese Wellengleichung ist für alle vollständig elastischen<br />

Medien, die entlang e<strong>in</strong>er Dimension ausgelenkt werden, gültig.<br />

Onl<strong>in</strong>e-Version 1.0 28<br />

2<br />

2<br />

∂ y<br />

⋅ = 0 2<br />

∂x<br />

K<br />

ε<br />

Abb. 3.1: Die ideale schw<strong>in</strong>gende Saite<br />

( 3.<br />

1)<br />

( 3.<br />

2)<br />

(<br />

3.<br />

3)<br />

Zum Beispiel läßt sich das Schw<strong>in</strong>gungsverhalten des Luftvolumens e<strong>in</strong>er Klar<strong>in</strong>ette,<br />

Orgelpfeife oder Flöte durch Substitution der Luftdruckvariation anstelle der<br />

Saitenauslenkung y <strong>und</strong> die longitud<strong>in</strong>ale Ausbreitungsgeschw<strong>in</strong>digkeit dieser


DIPLOMARBEIT HENRI HAGENOW<br />

Luftdruckvariation anstelle der transversalen Saitengeschw<strong>in</strong>digkeit unter Berücksichtigung<br />

der entsprechenden Randbed<strong>in</strong>gungen berechnen. Im Folgenden wird die Klasse von<br />

Medien, die e<strong>in</strong>e solche Substitution erlaubt, als e<strong>in</strong>dimensionaler Wellenleiter bezeichnet.<br />

Erweiterungen auf höhere Dimensionen f<strong>in</strong>det man z. B. <strong>in</strong> [Van Duyne & Smith, 1993;<br />

1995 b]. E<strong>in</strong>e vollständige Ableitung der Wellengleichung f<strong>in</strong>det sich <strong>in</strong> [Morse, 1981] <strong>und</strong> <strong>in</strong><br />

den meisten Gr<strong>und</strong>lagenbüchern der Akustik oder der theoretischen Physik.<br />

Um die obige Wellengleichung <strong>in</strong> e<strong>in</strong>em Computermodell zu implementieren, das <strong>in</strong> der<br />

Lage ist, die Differentialgleichung (3.1) ohne zeitaufwendige Differentiation für jeden<br />

beliebigen Zeitpunkt zu lösen, muß diese approximiert werden. E<strong>in</strong>e häufig verwendete<br />

Methode <strong>in</strong> der Literatur der musikalischen Akustik, e<strong>in</strong> auf e<strong>in</strong>er Differentialgleichung<br />

basierendes Computermodell zu implementieren, ist die sogenannte F<strong>in</strong>ite<br />

Differenzenapproximation (‚FDA‘), <strong>in</strong> der die Differentiation durch n Differenzenquotienten<br />

ersetzt wird (näheres siehe Anhang A1). Die FDA wurde <strong>in</strong> Annäherung an die numerische<br />

Simulation von Pierre Ruiz <strong>in</strong> se<strong>in</strong>er Arbeit über schw<strong>in</strong>gende Saiten genutzt [Ruiz, 1996]<br />

<strong>und</strong> kommt auch heute noch zur Anwendung [Chaigne, 1992; Chaigne & Askenfelt, 1996].<br />

3.1.1 Die Wanderwellenlösung<br />

Als Lösung für die verlustlose e<strong>in</strong>dimensionale Wellengleichung (3.1) kommt nach<br />

[d’Alembert, 1747] jede Funktion mit beliebiger Wellenform <strong>in</strong> Frage, die sich entlang der<br />

Saite nach l<strong>in</strong>ks oder rechts mit der Geschw<strong>in</strong>digkeit c ausbreitet <strong>und</strong> zweifach nach Ort<br />

<strong>und</strong> Zeit differenzierbar ist (‚Wanderwelle‘).<br />

S<strong>in</strong>d y l <strong>und</strong> y r beliebige zweifach differenzierbare Funktionen, so läßt sich die allgeme<strong>in</strong>e<br />

Klasse der Lösungen als e<strong>in</strong>e Summe rechts- <strong>und</strong> l<strong>in</strong>kslaufender Teilwellen darstellen:<br />

Damit Gleichung (3.4) für alle Wellenformen darstellbar ist, muß (∂ 2 /∂t 2 )⋅ y i = c 2 ⋅ (∂ 2 /∂x 2 ) ⋅ y i,<br />

(i = r, l) erfüllt se<strong>in</strong>, wobei die Saitensteigung zu allen Zeiten <strong>und</strong> an allen Orten sehr viel<br />

kle<strong>in</strong>er ist als 1 se<strong>in</strong> muß: ∂y/∂t


DIPLOMARBEIT HENRI HAGENOW<br />

Bewirkt das Medium, <strong>in</strong> dem sich die Welle ausbreitet, weder Dämpfung noch Verstärkung,<br />

so s<strong>in</strong>d β <strong>und</strong> α reell. Substituiert man α= s <strong>und</strong> β=v mit s als zeitliche <strong>und</strong> v als räumliche<br />

Frequenz, so ist<br />

e<strong>in</strong>e Lösung für alle s, mit der Dispersionsrelation<br />

Durch Superposition erhält man<br />

y(<br />

x,<br />

t)<br />

=<br />

∑<br />

Onl<strong>in</strong>e-Version 1.0 30<br />

i<br />

A<br />

+<br />

x<br />

si<br />

( t − )<br />

( ) c<br />

−<br />

s ⋅ e + A ( s )<br />

i<br />

y(<br />

x,<br />

t)<br />

=<br />

v (<br />

s)<br />

= ±<br />

x<br />

s ( t ± )<br />

e c<br />

∑<br />

i<br />

i<br />

⋅ e<br />

x<br />

si<br />

( t + )<br />

c<br />

( 3.<br />

6)<br />

( 3.<br />

7)<br />

Dies ist ebenfalls e<strong>in</strong>e Lösung, wobei A + (s i) <strong>und</strong> A - (s i) willkürliche komplexwertige<br />

Funktionen beliebiger Punkte s i <strong>in</strong> der komplexen Ebene s<strong>in</strong>d. Setzt man s = jω <strong>und</strong><br />

erweitert die Summation zu e<strong>in</strong>em Integral, so ergibt sich mit Hilfe des Fourier-Theorems<br />

x x<br />

y( x,<br />

t)<br />

= yr<br />

( t − ) + yl<br />

( t + )<br />

c c<br />

( 3.<br />

8)<br />

für willkürliche kont<strong>in</strong>uierliche Funktionen y r(x,t) <strong>und</strong> y l(x,t). Dies entspricht der 1747 von<br />

d’Alembert vorgestellten Wanderwellenlösung der e<strong>in</strong>dimensionalen Wellengleichung<br />

[d’Alembert, 1747]. E<strong>in</strong>e von (t-x/c) bzw. (t+x/c) abhängige Funktion läßt sich als e<strong>in</strong>e mit<br />

der Geschw<strong>in</strong>digkeit c nach rechts bzw. l<strong>in</strong>ks laufende Welle betrachten.<br />

Abb. 3.2: Darstellung e<strong>in</strong>er unendlich langen idealen Saite, die an den drei mit<br />

‚p‘ markierten Orten fixiert wird, um der Saite im Bereich zwischen den beiden<br />

äußeren Punkten e<strong>in</strong>e Dreiecksform aufzuprägen. Diese Form ergibt sich aus<br />

der Superposition zweier identischer dreieckiger Teilwellen, die sich mit derselben<br />

Ausbreitungsgeschw<strong>in</strong>digkeit c <strong>in</strong> entgegengesetzte Richtung auf der Saite<br />

ausbreiten. Die Form der Saite ergibt sich zu jedem Zeitpunkt aus der Superposition<br />

der beiden Teilwellen.<br />

s<br />

c<br />

( 3.<br />

5)


DIPLOMARBEIT HENRI HAGENOW<br />

Abb. 3.2 zeigt e<strong>in</strong>e unendlich lange Saite, die zur Zeit t 0 am Punkt P angezupft wird, wobei<br />

die Punkte p‘ <strong>und</strong> p‘‘ zu diesem Zeitpunkt fixiert werden, um e<strong>in</strong>e Dreiecksform zu erhalten.<br />

Die Auslenkung der Saite zum Zeitpunkt t setzt sich aus den E<strong>in</strong>zelauslenkungen der <strong>in</strong><br />

entgegengesetzte Richtung <strong>und</strong> mit der Geschw<strong>in</strong>digkeit c ause<strong>in</strong>anderlaufenden Teilwellen<br />

zusammen.<br />

3.1.2 Die Digitalisierung der Wanderwellen<br />

Um das erhaltene zeit- <strong>und</strong> ortskont<strong>in</strong>uierliche Modell der Wanderwelle <strong>in</strong> e<strong>in</strong>er<br />

Computersimulation zu implementieren, muß die gef<strong>und</strong>ene Lösung auch <strong>in</strong> e<strong>in</strong>er zeit- <strong>und</strong><br />

ortsdiskreten Umgebung funktionieren. Hierfür werden Zeit <strong>und</strong> Ort <strong>in</strong> kle<strong>in</strong>e<br />

E<strong>in</strong>heitsabschnitte unterteilt: T s [s] sei das zeitliche <strong>und</strong> X s [m] das räumliche<br />

Sampl<strong>in</strong>g<strong>in</strong>tervall 12 . E<strong>in</strong>e naheliegende Wahl für die Länge des räumlichen Intervalls ist die<br />

Strecke, die die Welle <strong>in</strong> e<strong>in</strong>em Zeit<strong>in</strong>tervall T s zurücklegt, also X s := c⋅T s .<br />

Die Digitalisierung erfolgt e<strong>in</strong>fach durch den Austausch der Variablen:<br />

Onl<strong>in</strong>e-Version 1.0<br />

x → x m = mX s<br />

t → t n = nT s<br />

31<br />

( 3.<br />

9)<br />

wobei m, n∈ Ζ. Zusammen mit der Wanderwellenlösung der Wellengleichung (3.1) ergibt<br />

sich<br />

x m xm<br />

X s<br />

X s<br />

y(<br />

x , t ) = y ( t − ) + y ( t + ) = y ( nT − m ) + y ( nT + m )<br />

m n r n<br />

l n<br />

r s<br />

l s<br />

c c<br />

c<br />

c<br />

=<br />

y r[(<br />

n − m)<br />

Ts]<br />

+ yl[(<br />

n + m)<br />

Ts]<br />

Zur Vere<strong>in</strong>fachung soll durchgehend gelten<br />

y + (n) := y r(nT s)<br />

y - (n) := y l(nT s)<br />

( 3.<br />

10)<br />

( 3.<br />

11)<br />

12 Die Digitalisierung analoger Datenströme wird als „Sampl<strong>in</strong>g“ bezeichnet, wobei <strong>in</strong> zeitlichen<br />

Abständen T s = 1/F s (T s:Sampl<strong>in</strong>g<strong>in</strong>tervall, F s:Sampl<strong>in</strong>gfrequenz) Messungen der Signalamplitude<br />

vorgenommen werden; die Amplituden werden mit e<strong>in</strong>er Auflösung bestimmt, die der sogenannten<br />

Bitrate B s entspricht. Bei der digitalen Audio-CD s<strong>in</strong>d diese Werte z.B. auf F s = 44,1 kHz <strong>und</strong> B s = 16<br />

Bit festgelegt (‚Redbook-Format‘). Hiermit können Signale im Frequenzbereich 0 Hz bis 22,05 kHz<br />

digitalisiert werden (Nyquist-Theorem).


DIPLOMARBEIT HENRI HAGENOW<br />

so daß<br />

Onl<strong>in</strong>e-Version 1.0 32<br />

( 3.<br />

12)<br />

In e<strong>in</strong>er verlustfreien Wanderwellensimulation bewegt sich die gesamte Welle jedes<br />

Zeit<strong>in</strong>tervall um e<strong>in</strong> Raum<strong>in</strong>tervall weiter. Daraus folgt, daß für e<strong>in</strong>e verlustlose Simulation<br />

e<strong>in</strong>er Wellenbewegung nur e<strong>in</strong>e e<strong>in</strong>zige digitale Verzögerungskette benötigt wird. E<strong>in</strong>e<br />

Verzögerungskette setzt sich aus e<strong>in</strong>er Ane<strong>in</strong>anderreihung sogenannter E<strong>in</strong>heitsverzögerer<br />

(Unit Delay 13 z -1 ) zusammen, die e<strong>in</strong> E<strong>in</strong>gangssignal um die Dauer des Sample<strong>in</strong>tervalls T s<br />

verzögert ausgeben. y + (n-m) kann man als Ausgabewerte e<strong>in</strong>es m-Abtastwerte-<br />

Verzögerers (m-Sample-Delay) betrachten, dessen E<strong>in</strong>gangssignal y + (n) ist; y - (n+m) kann<br />

man als E<strong>in</strong>gabewerte e<strong>in</strong>es m-Abtastwerte-Verzögerers betrachten, dessen Ausgabewerte<br />

y - (n) entsprechen (siehe Abb. 3.3).<br />

Abb. 3.3: Interpretationsmöglichkeiten der E<strong>in</strong>- <strong>und</strong> Ausgabewerte e<strong>in</strong>es Verzögerungsgliedes<br />

z -m beim digitalen Wellenleiter: y - (n+m) kann man als E<strong>in</strong>gabewerte<br />

e<strong>in</strong>es m-Abtastwerte-Verzögerers betrachten, dessen Ausgabewerte<br />

y - (n) entsprechen; y + (n-m) kann man als Ausgabewerte e<strong>in</strong>es m-Abtastwerte-<br />

Verzögerers betrachten, dessen E<strong>in</strong>gangssignal y + (n) ist.<br />

Die Position entlang der Saite wird bestimmt durch den Parameter m (X m=m⋅X s=m⋅c⋅T s)<br />

(siehe Abb. 3.4). Das physikalische Verhalten der Saitenbewegung kann nun mit Hilfe von<br />

zwei gekoppelten Verzögerungsleitungen simuliert werden.<br />

13 z -1 ist das Kürzel für den E<strong>in</strong>heitsverzögerer (Unit-Delay), der e<strong>in</strong> E<strong>in</strong>gangssignal um die Dauer<br />

des Sampl<strong>in</strong>g<strong>in</strong>tervalls T s verzögert ausgibt.<br />

y ( n,<br />

m)<br />

=<br />

yr[(<br />

n − m)<br />

Ts<br />

] + yl[(<br />

n + m)<br />

Ts]


DIPLOMARBEIT HENRI HAGENOW<br />

Abb. 3.4: Digitale Simulation der idealen verlustlosen Saite mit Meßstellen<br />

an den Punkten x = 0 <strong>und</strong> x = 3⋅X s = 3⋅c⋅T s . Die beiden dargestellten Verzögerungsketten<br />

setzten sich aus e<strong>in</strong>er Ane<strong>in</strong>anderreihung von E<strong>in</strong>heitsverzögerern<br />

z -1 zusammen (Abb. aus [Smith, 2000]).<br />

Der Gesamtausgabewert<br />

Onl<strong>in</strong>e-Version 1.0<br />

33<br />

( 3.<br />

13)<br />

stellt die Saitenauslenkung an e<strong>in</strong>em der äquidistanten Punkte x m entlang der Saite dar.<br />

Man erhält ihn durch die Addition der oberen <strong>und</strong> unteren Teilstrecke des<br />

Verzögerungsleitungspaares an der entsprechenden Stelle (<strong>in</strong> Abbildung 3.4 bei m = 3⋅X s<br />

<strong>und</strong> m = 0).<br />

Auf diese Weise läßt sich jeder e<strong>in</strong>dimensionale verlustlose ideale Wellenleiter durch e<strong>in</strong>e<br />

bidirektionale Verzögerungsleitung simulieren. Die Simulation ist <strong>in</strong>nerhalb der numerischen<br />

Präzision der Samples selbst exakt. Um Alias<strong>in</strong>geffekte 14 zu vermeiden, sollten alle<br />

Wellenformen, die im Wellenleiter laufen, bandlimitiert werden, d.h. die höchste im Signal<br />

y r(t), y l(t) enthaltene Frequenz sollte nicht größer se<strong>in</strong> als die halbe Sampl<strong>in</strong>gfrequenz<br />

F S=1/T S. Äquivalent dazu sollte die höchste räumliche Frequenz, die <strong>in</strong> den Formen y r(x/c)<br />

<strong>und</strong> y l(x/c) enthalten s<strong>in</strong>d, nicht größer se<strong>in</strong> als die halbe räumliche Sampl<strong>in</strong>gfrequenz<br />

V S=1/X S.<br />

y m n<br />

+<br />

−<br />

( x , t ) = y ( n − m)<br />

+ y ( n + m)<br />

Aus e<strong>in</strong>em Vergleich der digitalen Wellenleitersimulation mit der f<strong>in</strong>iten<br />

Differenzenapproximation (siehe Anhang A2) folgt, daß die physikalische Wellenvariable<br />

immer für den nächsten zeitlichen Schritt (n+1) aus der Summe der rechts <strong>und</strong> l<strong>in</strong>ks<br />

e<strong>in</strong>treffenden Teilwellen berechnet werden kann. Hieran erkennt man deutlich den<br />

14 Das sog. Alias<strong>in</strong>g ist e<strong>in</strong>e Bandüberlappung der sich periodisch wiederholenden Spektren. Es tritt<br />

<strong>in</strong> der digitalen Signalverarbeitung auf, wenn das Abtasttheorem verletzt wird.


DIPLOMARBEIT HENRI HAGENOW<br />

verlustfreien Charakter des vorgestellten Wellenleitersystems. Dies läßt sich so deuten, daß<br />

die ideale Saite e<strong>in</strong>e e<strong>in</strong>heitliche Wellenimpedanz besitzt.<br />

3.2 Die verlustbehaftete e<strong>in</strong>dimensionale Wellengleichung<br />

In e<strong>in</strong>er realen schw<strong>in</strong>genden Saite gibt es immer Energieverluste durch Reibung, sei es<br />

durch die Verb<strong>in</strong>dung der Saitenenden mit dem Klangkörper, Luftreibung, <strong>in</strong>nere Reibung<br />

usw. Obwohl Reibungsverluste <strong>in</strong> Festkörpern üblicherweise <strong>in</strong> komplizierter Art <strong>und</strong> Weise<br />

frequenzabhängig s<strong>in</strong>d, kann man sie gut durch Addition e<strong>in</strong>er kle<strong>in</strong>en Anzahl ungerader<br />

Ableitungsterme zur Wellengleichung ausgleichen.<br />

Im e<strong>in</strong>fachsten Fall ist die Reibungskraft direkt proportional zur transversalen<br />

Saitengeschw<strong>in</strong>digkeit (mit μ als Proportionalitätskonstante) <strong>und</strong> unabhängig von der<br />

Frequenz. Die entsprechende Erweiterung der Schw<strong>in</strong>gungsgleichung (3.1) mit e<strong>in</strong>em Term<br />

erster Ordnung wäre:<br />

Frequenzabhängige Verluste approximiert man durch Terme, die ∂ 3 y/∂t 3 , ∂ 5 y/∂t 5 usw.<br />

enthalten (siehe auch Abschnitt 3.2.1).<br />

Um e<strong>in</strong>en Zusammenhang zwischen den zeitlichen <strong>und</strong> den räumlichen Frequenzen zu<br />

erkennen, setzt man wie <strong>in</strong> Abschnitt 3.1.1 die Lösung y(x,t) = e st+vx <strong>in</strong> die Wellengleichung<br />

(3.14) e<strong>in</strong> <strong>und</strong> erhält über K⋅v 2 = ε⋅s 2 + μ⋅s 2 die erweiterte Dispersionsrelation<br />

v(<br />

s)<br />

= ±<br />

μ<br />

1 +<br />

ε ⋅ s<br />

Onl<strong>in</strong>e-Version 1.0 34<br />

s<br />

c<br />

⋅<br />

. mit<br />

wobei c die Wellengeschw<strong>in</strong>digkeit im verlustfreien Fall ist 15 . Bei hohen Frequenzen, d.h.<br />

bei großem ⎪s⎪, oder bei kle<strong>in</strong>en Reibungskoeffizienten μ relativ zur Massendichte ε, gilt<br />

aufgr<strong>und</strong> des B<strong>in</strong>om<strong>in</strong>altheorems die Approximation<br />

Bei kle<strong>in</strong>en Verlusten gilt also zwischen zeitlicher <strong>und</strong> räumlicher Frequenz der<br />

Zusammenhang<br />

2<br />

2<br />

∂ y ∂ y ∂y<br />

K ⋅ = ε ⋅ + μ ⋅<br />

2<br />

2<br />

∂x<br />

∂t<br />

∂t<br />

1<br />

μ 1 μ<br />

( 1+<br />

) 2 ≈ 1 +<br />

ε ⋅ s 2 ε ⋅ s<br />

1 μ<br />

v(<br />

s)<br />

≈ ± ( s + )<br />

c 2ε<br />

15 In den mit dem MS-Word eigenen Formel-Editor erstellten Formeln ersche<strong>in</strong>t das ‚v‘<br />

<strong>in</strong>teressanterweise eher wie e<strong>in</strong> ‚ν‘. Geme<strong>in</strong>t ist aber das im Text erwähnte ‚v‘ – Beschwerden bitte<br />

an Herrn Gates...<br />

c =<br />

K<br />

ε<br />

( 3.<br />

14)<br />

( 3.<br />

15)<br />

( 3.<br />

16)<br />

(<br />

3.<br />

17)


DIPLOMARBEIT HENRI HAGENOW<br />

Für die Eigenfunktionen ergibt sich dann<br />

Dies stellt den nach rechts/l<strong>in</strong>ks (-/+) laufenden Teil der Eigenfunktion dar, der jeweils <strong>in</strong><br />

Ausbreitungsrichtung exponentiell abfällt.<br />

Um beliebige Wellenformen auf der Saite behandeln zu können, setzt man nun noch s = jω<br />

<strong>und</strong> erhält die allgeme<strong>in</strong>e Lösung für die verlustbehaftete e<strong>in</strong>dimensionale Wellengleichung:<br />

Die Digitalisierung mit den Sampl<strong>in</strong>g<strong>in</strong>tervallen T s <strong>und</strong> X s ergibt<br />

<strong>und</strong><br />

mit g als sogenannten Verlustkoeffizienten. E<strong>in</strong> Simulationsdiagramm des idealen<br />

verlustbehafteten Wellenleiters ist <strong>in</strong> Abb. 3.5 zu f<strong>in</strong>den.<br />

Abb. 3.5: Digitale Simulation der idealen verlustbehafteten Saite mit Meßstellen<br />

an den Punkten x = 0 <strong>und</strong> x = 2⋅X s = 2⋅c⋅T s . Die beiden dargestellten Verzögerungsketten<br />

setzten sich aus e<strong>in</strong>er Ane<strong>in</strong>anderreihung von E<strong>in</strong>heitsverzögerern<br />

zusammen, zwischen denen die Verlustkoeffizienten g die kont<strong>in</strong>uierlichen Verluste<br />

während der Wellenausbreitung um die Strecke X s zusammenfassen.<br />

Die zeitdiskrete Simulation ist <strong>in</strong> diesem Fall wieder die exakte Implementierung der<br />

zeitkont<strong>in</strong>uierlichen Lösung zu den jeweiligen Sample-Zeitpunkten <strong>und</strong> –Orten, obwohl <strong>in</strong><br />

der Wellengleichung Verlustterme enthalten s<strong>in</strong>d, die <strong>in</strong> der kont<strong>in</strong>uierlichen<br />

Onl<strong>in</strong>e-Version 1.0<br />

y(<br />

x,<br />

t)<br />

= e<br />

μ<br />

x<br />

s⋅t<br />

+ v⋅x<br />

= e<br />

35<br />

μ x<br />

m(<br />

)<br />

2c<br />

c<br />

⋅e<br />

x x<br />

s(<br />

tm<br />

)<br />

c c<br />

( ) x ( ) x<br />

y( x,<br />

t)<br />

= e 2c<br />

c ⋅ y ( t ) e 2 c c<br />

r − + ⋅ yl<br />

( t + )<br />

c<br />

c<br />

−<br />

−m<br />

+<br />

m −<br />

y(<br />

x , t ) = g ⋅ y ( n − m)<br />

+ g ⋅ y ( n + m)<br />

m<br />

n<br />

g = e<br />

x<br />

( )<br />

2c<br />

c<br />

μ<br />

μ<br />

x<br />

( 3.<br />

18)<br />

( 3.<br />

19)<br />

( 3.<br />

20)<br />

(<br />

3.<br />

21)


DIPLOMARBEIT HENRI HAGENOW<br />

Wellengleichung ‚gleichverteilt‘ s<strong>in</strong>d. Der Verlustfaktor g faßt die zwischen den Intervallen<br />

verteilten Verluste <strong>in</strong> e<strong>in</strong>em Sampl<strong>in</strong>g<strong>in</strong>tervall zusammen. Hierbei entsteht an den Orten der<br />

Intervalle ke<strong>in</strong> Approximationsfehler, solange die Bandbegrenzung von _ F s e<strong>in</strong>gehalten<br />

wird.<br />

3.2.1 Frequenzabhängige Verluste<br />

In fast allen natürlichen Wellenersche<strong>in</strong>ungen wächst der Verlustkoeffizient g mit der<br />

Frequenz. Verluste, die auf die Luftreibung oder <strong>in</strong>nere Reibung der Saite zurückzuführen<br />

s<strong>in</strong>d, wachsen monoton mit der Frequenz. Auch die <strong>in</strong>nere Reibung der bewegten Luft <strong>in</strong><br />

e<strong>in</strong>em Volumen wie z.B. akustischen Röhren oder auch bei der Schallübertragung <strong>in</strong> der<br />

Luft <strong>in</strong> e<strong>in</strong>em Konzertsaal wächst mit der Frequenz an [Morse & Ingard, 1968].<br />

E<strong>in</strong>e Möglichkeit, die frequenzabhängigen Verluste <strong>in</strong> e<strong>in</strong>er digitalen Simulation zu<br />

realisieren, ist die Integration von Zeitableitungen höherer ungerader Ordnung ∂ 3 y/∂t 3 ,<br />

∂ 5 y/∂t 5 usw. als Verlustterme <strong>in</strong> der verlustbehafteten Wellengleichung (3.14). Dies führt zu<br />

Wanderwellen, die sich mit frequenzabhängiger Dämpfung ausbreiten.<br />

Anstelle e<strong>in</strong>es skalaren Faktors g, der nach jedem Verzögerungsglied z -1 des Wellenleiters<br />

e<strong>in</strong>e Abschwächung des Signals bewirkt, kann man auch e<strong>in</strong>en Tiefpaßfilter mit der<br />

Frequenzantwort G(ω) e<strong>in</strong>fügen. Enthält der Dämpfungsterm z.B. die Formen (∂/∂t)y,<br />

(∂ 3 /∂t 3 )y <strong>und</strong> (∂ 5 /∂t 5 )y, so besitzt G(ω) die Form<br />

wobei g i Konstanten s<strong>in</strong>d, die von den Parametern K, μ, ε der Wellengleichung abhängig<br />

s<strong>in</strong>d. E<strong>in</strong> solcher Filter läßt sich im l<strong>in</strong>earen, zeit<strong>in</strong>varianten Fall an e<strong>in</strong>er e<strong>in</strong>zigen Stelle im<br />

Wellenleiter e<strong>in</strong>fügen, um auf diese Weise die sonst auf die gesamte Saite verteilten<br />

Verluste zu bündeln, ohne e<strong>in</strong>en Approximationsfehler e<strong>in</strong>zubr<strong>in</strong>gen 16 .<br />

16 In effizienten digitalen Implementierungen werden diese Verlustfaktoren der Form G k (ω) durch<br />

e<strong>in</strong>e rationale Frequenzantwort der Form _ k(e jωt ) approximiert. Die Koeffizienten e<strong>in</strong>es optimalen<br />

rationalen Verlustfilters erhält man, <strong>in</strong>dem man den Term || G k (ω) - _ k(e jωt ) || mit Rücksicht auf die<br />

Filterkoeffizienten oder Pole <strong>und</strong> Nullstellen des Filters m<strong>in</strong>imiert.<br />

Um e<strong>in</strong>e vor den Filter geschaltete frequenzabhängige Verzögerung zu umgehen, sollte der<br />

Verlustfilter als e<strong>in</strong> Nullphasen-FIR (f<strong>in</strong>ite impuls response) Filter ausgeführt werden [Rab<strong>in</strong>er&Gold,<br />

1975]. E<strong>in</strong> Nullphasenfilter besitzt e<strong>in</strong>e Impulsantwort _ k(n) mit endlicher Länge (FIR-Filter) <strong>und</strong> ist<br />

symmetrisch um den Nullzeitpunkt (_ k(-n) = _ k(n)). In den meisten Realisierungen kann der<br />

Nullphasen-FIR Filter <strong>in</strong> e<strong>in</strong>en kausalen l<strong>in</strong>earphasigen Filter konvertiert werden, <strong>in</strong>dem man e<strong>in</strong>e<br />

daran anschließende Verzögerungskette auf die Hälfte der Länge der Impulsantwort reduziert [Smith,<br />

2000].<br />

Onl<strong>in</strong>e-Version 1.0 36<br />

G ( ω) + g ω<br />

2 4<br />

= g0<br />

+ g2ω<br />

4<br />

(<br />

3.<br />

22)


DIPLOMARBEIT HENRI HAGENOW<br />

3.2.2 Die dispersive e<strong>in</strong>dimensionale Wellengleichung<br />

Neben der Dämpfung durch Reibungsverluste verursacht auch die Steifigkeit der Saite e<strong>in</strong><br />

schnelleres Abkl<strong>in</strong>gen der Schw<strong>in</strong>gung. Die Steifigkeit der Saite ist e<strong>in</strong>e l<strong>in</strong>eare Eigenschaft,<br />

die auf den endlichen Radius a der Saite zurückzuführen ist [Morse, 1981]. Sie bewirkt e<strong>in</strong>e<br />

Rückstellkraft, die proportional zur vierten Ortsableitung der Saitenauslenkung ist [Morse,<br />

1981; Cremer, 1984]. Die Wellengleichung (3.1) erhält hierfür e<strong>in</strong>en weiteren Verlustterm:<br />

mit<br />

Onl<strong>in</strong>e-Version 1.0<br />

2<br />

2<br />

4<br />

∂ y ∂ y ∂ y<br />

ε ⋅ = K ⋅ −κ<br />

⋅<br />

2<br />

2<br />

4<br />

∂t<br />

∂x<br />

∂x<br />

κ = Υπ<br />

als sogenannte Steifigkeit. Υ ist hierbei das Elastizitätsmodul 17 (Young-Modul) <strong>und</strong> a der<br />

Radius der zyl<strong>in</strong>drischen Saite. Mit dem Ansatz y(x,t) = e st+vx erhält man für die ‚steife‘<br />

Wellengleichung:<br />

37<br />

4 a<br />

4<br />

ε ⋅ κ<br />

2 2<br />

s = K ⋅ v − ⋅<br />

Bei sehr kle<strong>in</strong>en Frequenzen s oder wenn die Steifigkeit unwesentlich ist im Vergleich zu<br />

K/v 2 , erhält man die Dispersionsrelation der nichtsteifen Saite (siehe auch Abschnitt 3.1.):<br />

ε⋅s 2 ≈ K⋅v 2 ⇒ v(s) = ±s/c. Bei sehr hohen Frequenzen oder wenn die Saitenspannung K <strong>in</strong><br />

Bezug auf κ⋅v 2 zu vernachlässigen ist, erhält man die Dispersionsrelation der sogenannten<br />

idealen Stab-Approximation: ε⋅s 2 ≈ -κ⋅v 4 ⇒<br />

v(<br />

s)<br />

≈ ± e<br />

Die e<strong>in</strong>zige Rückstellkraft <strong>in</strong> e<strong>in</strong>em idealen Stab wird durch die Steifigkeit erzeugt.<br />

Setzt man s = jω, so erhält man die Lösungen<br />

1<br />

ε 4<br />

π 1<br />

± j ε 4 ( ) 4<br />

v ( s)<br />

= j(<br />

) ω <strong>und</strong> v(<br />

s)<br />

= ( ) ω<br />

κ<br />

κ<br />

Im ersten Fall ist die Wellengeschw<strong>in</strong>digkeit proportional zu √ω. Hier bewegt sich die Welle<br />

schneller entlang des Stabes oder der steifen Saite, als die Oszillationsfrequenz ansteigt<br />

<strong>und</strong> zwar steigend mit der Quadratwurzel der Frequenz. Die zweite Lösung entspricht e<strong>in</strong>er<br />

17 Das Elastizitätsmodul ist allgeme<strong>in</strong> def<strong>in</strong>iert als Verhältnis von Spannung zu Dehnung.<br />

κ<br />

v<br />

s<br />

4<br />

1<br />

ε 4<br />

( 3.<br />

23)<br />

( 3.<br />

24)<br />

(<br />

3.<br />

25)<br />

( 3.<br />

26)<br />

( 3.<br />

27)


DIPLOMARBEIT HENRI HAGENOW<br />

Veränderung der Wellenform auf der Saite, da aufgr<strong>und</strong> der Steifigkeit scharfe<br />

Eckenbildungen nicht mehr möglich s<strong>in</strong>d [Cremer, 1984].<br />

Realisiert man die Saitensimulation im Übergang von der idealen Saite zum idealen Stab im<br />

mittleren Frequenzbereich, so kann man die Steifigkeit wie e<strong>in</strong>en Korrekturterm behandeln<br />

[Cremer, 1984]. Da sich die Steifigkeit e<strong>in</strong>er Saite stark auf den durch die Saitenschw<strong>in</strong>gung<br />

erzeugten Klang auswirkt 18 , ersche<strong>in</strong>t die H<strong>in</strong>zunahme e<strong>in</strong>es weiteren Korrekturterms <strong>in</strong> die<br />

Simulation gerechtfertigt. Setzt man voraus, daß κ 0 := κ/K


DIPLOMARBEIT HENRI HAGENOW<br />

Im Falle e<strong>in</strong>er frequenzabhängigen Ausbreitungsgeschw<strong>in</strong>digkeit muß die E<strong>in</strong>heitsverzöge-<br />

rung z -1 daher durch z -1 → z –C0 /C(ω) ersezt werden. Jedes E<strong>in</strong>heitsdelay wird nun zu e<strong>in</strong>em<br />

Allpaßfilter 19 , das die benötigte, von der Frequenz abhängige Verzögerung approximiert<br />

(Abb. 3.6). In der Abbildung stellt H a(z) den Allpaßfilter der rationalen Approximation<br />

z –C0 /C(ω) dar. Die Darstellung <strong>in</strong> der Frequenzebene wird <strong>in</strong> diesem Falle mit der<br />

z-Transformation erreicht [Strum & Kirk, 1988]. Die z-Transformation ersetzt für zeitdiskrete<br />

Systeme die Rolle der Laplace-Transformation bei zeitkont<strong>in</strong>uierlichen Systemen. Näheres<br />

zur Konstruktion e<strong>in</strong>es solchen Allpaßfilters f<strong>in</strong>det sich im Anhang A3.<br />

Abb. 3.6: Wellenleiterdarstellung e<strong>in</strong>er steifen Saite; Allpaßfilter H a(z) nehmen<br />

den Platz der E<strong>in</strong>heitsverzögerer e<strong>in</strong> (Abb. aus [Smith, 2000]).<br />

3.2.3 Die digitale verlustbehaftete steife Saite<br />

Die komplette l<strong>in</strong>eare zeit<strong>in</strong>variante Verallgeme<strong>in</strong>erung der verlustbehafteten steifen Saite<br />

wird beschrieben durch<br />

woraus mit dem Ansatz y(x,t) = e st+vx folgt<br />

Man erhält als quantisierte Eigenlösungen die Teilwellen<br />

19 Ist H(f) die Übertragungsfunktion e<strong>in</strong>es verzerrungsfreien digitalen LTI-Systems (l<strong>in</strong>eares<br />

zeit<strong>in</strong>variantes System), so wird e<strong>in</strong> System mit der Eigenschaft ⏐H(f)⏐ = const. bei beliebigem<br />

Phasenverlauf e<strong>in</strong> Allpaß genannt [Lüke, 1999].<br />

Onl<strong>in</strong>e-Version 1.0<br />

∞<br />

∑<br />

k = 0<br />

α<br />

k<br />

∂<br />

k<br />

y(<br />

x,<br />

t)<br />

=<br />

k<br />

∂t<br />

∞<br />

∑<br />

l=<br />

0<br />

39<br />

β<br />

∞<br />

∑α<br />

k<br />

∞<br />

k<br />

= ∑<br />

k = 0 l = 0<br />

s β v<br />

l<br />

l<br />

∂ y(<br />

x,<br />

t)<br />

l<br />

∂x<br />

l<br />

l<br />

( 3.<br />

32)<br />

(<br />

3.<br />

33)


DIPLOMARBEIT HENRI HAGENOW<br />

mit<br />

e<br />

j n m<br />

r m n m<br />

= e ⋅ e<br />

ω⋅t ± v(<br />

jω)<br />

⋅x<br />

± v ( ω)<br />

⋅x<br />

jω(<br />

t ± x / c(<br />

ω ))<br />

( ω ) ⋅ e<br />

E<strong>in</strong>e allgeme<strong>in</strong>e Darstellung der Dispersionsrelation von v gegen s nach der Gleichung<br />

∞<br />

∑α<br />

k<br />

k<br />

∞<br />

= ∑<br />

k=<br />

0 l=<br />

0<br />

s β v<br />

l<br />

l<br />

= G<br />

kann nun pr<strong>in</strong>zipiell <strong>in</strong> e<strong>in</strong>e genaue, lokale, l<strong>in</strong>eare, zeit<strong>in</strong>variante <strong>und</strong><br />

zeitdiskrete Simulation übersetzt werden, wobei die Randbed<strong>in</strong>gungen <strong>und</strong><br />

Ausgangszustände die jeweiligen möglichen Lösungsräume festlegen.<br />

Zusammenfassend kann man sagen, daß zur Beschreibung gedämpfter, dispersiver<br />

Wanderwellen e<strong>in</strong>e große Anzahl an Ableitungstermen mit konstanten Koeffizienten<br />

notwendig s<strong>in</strong>d. Ableitungen gerader Ordnung entsprechen hierbei e<strong>in</strong>er<br />

frequenzabhängigen Streuung, ungerade Ordnungen entsprechen frequenzabhängigen<br />

Verlusten. Die entsprechende digitale Simulation e<strong>in</strong>es willkürlich langen Abschnitts des<br />

Wellenmediums kann über die Kommutativität weiter auf höchstens zwei re<strong>in</strong>e<br />

Verzögerungse<strong>in</strong>heiten <strong>und</strong> höchstens zwei l<strong>in</strong>eare, zeit<strong>in</strong>variante Filter vere<strong>in</strong>facht werden<br />

(frequenzabhängige Dämpfung, Dispersion). Da jeder l<strong>in</strong>eare, zeit<strong>in</strong>variante Filter als<br />

Nullphasen-Filter <strong>in</strong> Reihe mit e<strong>in</strong>em Allpaßfilter dargestellt werden kann, läßt sich e<strong>in</strong> zu<br />

implementierender Filter zur Simulation realistischer Saiteneigenschaften <strong>in</strong> e<strong>in</strong>en<br />

Verlustteil <strong>und</strong> e<strong>in</strong>en Dispersionsteil aufteilen. Der Nullphasen-Filter sorgt hierbei für die<br />

frequenzabhängige Verstärkung (Dämpfung im digitalen Wellenleiter), <strong>und</strong> der Allpaß-Teil<br />

sorgt für die frequenzabhängige Verzögerung (Dispersion im digital Wellenleiter).<br />

Bisher wurde die Tatsache vernachlässigt, daß die Schallgeschw<strong>in</strong>digkeit zusätzlich noch<br />

vom Druck abhängt, so auch <strong>in</strong> realen Saiten von der Spannung der Saite. Die Spannung<br />

e<strong>in</strong>er Saite variiert während des Instrumentenspieles, da sie auch von der<br />

Saitenauslenkung abhängt. Daher kl<strong>in</strong>gt e<strong>in</strong>e extrem stark angezupfte Saite zuerst mit e<strong>in</strong>er<br />

höheren Frequenz an <strong>und</strong> verläuft dann erst mit dem Abkl<strong>in</strong>gen <strong>in</strong> die Gr<strong>und</strong>frequenz der<br />

Saite 20 . Im Folgenden wird dieser Effekt aber vernachlässigt.<br />

20 E<strong>in</strong> gutes Beispiel für die Hörbarkeit dieses Effekts liefert die ‚S<strong>in</strong>gende Säge‘.<br />

Onl<strong>in</strong>e-Version 1.0 40<br />

G<br />

m<br />

m<br />

( ω ) ≡ e<br />

r<br />

jω<br />

( n±<br />

m ) ⋅T<br />

( ω )<br />

± v ( ω)<br />

⋅X<br />

s<br />

s<br />

( 3.<br />

34)<br />

(<br />

3.<br />

35)


DIPLOMARBEIT HENRI HAGENOW<br />

3.3 Alternative Wellenvariablen:<br />

Anstelle der transversalen Saitenauslenkung y kann man zur Beschreibung der<br />

Saitenschw<strong>in</strong>gung genauso gut ihre Ableitungen v = ∂y/∂t (transversale<br />

Saitengeschw<strong>in</strong>digkeit), a = ∂ 2 y/∂t 2 (Saitenbeschleunigung) oder auch y´ ≡ ∂y/∂x<br />

(Wellenform/Saitenform) benutzen. Da Integration <strong>und</strong> Differentiation l<strong>in</strong>eare Operationen<br />

s<strong>in</strong>d <strong>und</strong> da die Argumente der Wellenausbreitung <strong>in</strong> Zeite<strong>in</strong>heiten dargestellt werden, gilt<br />

bei e<strong>in</strong>er entsprechenden Darstellung für die Wellenkomponenten ebenso die<br />

Wellenleiterlösung y ± , v ± , a ± . In der zeitdiskreten Realisierung werden die Operationen<br />

‚Integration‘ <strong>und</strong> ‚Differentiation‘ mit Hilfe digitaler Filter durchgeführt. Die zeitdiskrete<br />

Beschleunigung a d(n) wird def<strong>in</strong>iert als die zeitlich abgetastete zeitkont<strong>in</strong>uierliche<br />

Beschleunigung: a d(n) := a(n⋅T s,x) = ∂ 2 y(n⋅T s,x)/∂t 2 .<br />

Zusätzlich zu zeitlichen Ableitungen kann man natürlich auch räumliche Ableitungen<br />

beliebiger Ordnung nutzen, um weitere Wellenvariablen zu erhalten, aus denen man e<strong>in</strong>e<br />

geeignete wählen kann, um e<strong>in</strong> anfallendes Problem optimal zu beschreiben (weitere<br />

alternative Wellenvariablen siehe Anhang A4).<br />

Zusammenfassend läßt sich sagen, daß sich alle Wanderwellenvariablen gegenseitig<br />

ause<strong>in</strong>ander berechnen lassen, solange beide Teilwellenzustände bekannt s<strong>in</strong>d. Weil aber<br />

e<strong>in</strong>e digitale Differentiation oder Integration zeit- <strong>und</strong> rechenaufwenig ist, da hierfür e<strong>in</strong><br />

digitaler Filter hoher Ordnung verwendet werden muß, um zufriedenstellende Ergebnisse<br />

erzielen zu können, werden <strong>in</strong> den meisten Fällen die beiden Wellenvariablen ‚transversale<br />

Saitenauslenkung‘ y(x,t 0) <strong>und</strong> ‚transversale Saitengeschw<strong>in</strong>digkeit‘ ∂y(x,t 0)/∂t zur<br />

Berechnung des Schw<strong>in</strong>gungszustandes e<strong>in</strong>er Saite benutzt. Dargestellt werden die<br />

Wellenzustände meistens durch Geschw<strong>in</strong>digkeitswellen, da e<strong>in</strong>e digitale Integration<br />

leichter zu realisieren ist, als e<strong>in</strong>e digitale Differentiation. Aus Geschw<strong>in</strong>digkeitswellen kann<br />

man durch e<strong>in</strong>fache Skalierung mit der Wellengeschw<strong>in</strong>digkeit c direkt auf die<br />

Auslenkungswellen schließen. Die Berechnung von Auslenkungswellen kann sehr nützlich<br />

se<strong>in</strong>, da diese direkt proportional s<strong>in</strong>d zu den Kraftwellen.<br />

3.3.1 Kraftwellen<br />

In speziellen Fällen kann es von Vorteil se<strong>in</strong>, den Zustand des schw<strong>in</strong>genden Systems<br />

durch se<strong>in</strong>e Kraftwirkung zu beschreiben. Die vertikale Kraft f l zur Zeit t an e<strong>in</strong>em beliebigen<br />

Punkt x entlang der Saite, die von dem l<strong>in</strong>ken Teil der durch den Punkt x getrennten Saite<br />

auf den rechten Teil der Saite wirkt, ist gegeben durch<br />

Onl<strong>in</strong>e-Version 1.0<br />

41


DIPLOMARBEIT HENRI HAGENOW<br />

wobei wie bei der Ableitung der Wellengleichung davon ausgegangen wird, daß<br />

|∂y(x,t) / ∂x|


DIPLOMARBEIT HENRI HAGENOW<br />

K K<br />

wobei R = = = Kε<br />

als Wellenimpedanz der Saite bezeichnet wird.<br />

c K<br />

ε<br />

Die Wellenimpedanz oder auch charakteristische Impedanz der Saite wird meist dargestellt<br />

als<br />

R ≡<br />

K<br />

Kε<br />

= = cε<br />

c<br />

( 3.<br />

40)<br />

Man kann sie als geometrisches Mittel der beiden Trägheitswiderstände ‚Spannung‘<br />

(Federkraft) <strong>und</strong> ‚Masse‘ (Trägheitskraft) betrachten [Smith, 2000].<br />

Die digitalisierten Wanderwellenkomponenten der Kraftwelle können somit durch die<br />

Wellenimpedanz R <strong>und</strong> die Geschw<strong>in</strong>digkeitswellenkomponenten v beschrieben werden:<br />

Dies zeigt, daß <strong>in</strong>nerhalb e<strong>in</strong>er Wanderwelle die Kraft immer mit der Geschw<strong>in</strong>digkeit <strong>in</strong><br />

Phase ist 21 . Die f<strong>und</strong>amentale Beziehung f + = Rv + wird manchmal als das mechanische<br />

Äquivalent zum Ohmschen Gesetz der Elektrodynamik bezeichnet [Smith, 2000].<br />

Im Falle e<strong>in</strong>er akustischen Röhre, wie z.B. e<strong>in</strong>er Flöte, wird die Kraft durch den Druck<br />

ersetzt. Man erhält die analoge Beziehung<br />

mit R t als Wellenimpedanz der akustischen Röhre <strong>und</strong> p + (n) als nach rechts laufende<br />

longitud<strong>in</strong>ale Druckwellenkomponente; u ± (n) s<strong>in</strong>d die Schallschnellewellen.<br />

Innerhalb e<strong>in</strong>er akustischen Röhre berechnet sich die Wellenimpedanz nach [Morse, 1981;<br />

K<strong>in</strong>sler&Frey et.al., 2000] aus<br />

Onl<strong>in</strong>e-Version 1.0<br />

f<br />

f<br />

( n)<br />

= Rv ( n)<br />

−<br />

( n)<br />

= −Rv<br />

( n)<br />

R<br />

t<br />

⋅c<br />

≡<br />

A<br />

ρ<br />

wobei ρ die Masse pro Luftvolumen <strong>und</strong> c L die Schallgeschw<strong>in</strong>digkeit <strong>in</strong> Luft ist. A ist die<br />

Querschnittsfläche der akustischen Röhre [McIntyre et al., 1983].<br />

+<br />

−<br />

+<br />

+<br />

p ( n)<br />

= R u ( n)<br />

−<br />

−<br />

p ( n)<br />

= −R<br />

u ( n)<br />

t<br />

+<br />

t<br />

21 Dies gilt nur mit der Annahme, daß das M<strong>in</strong>uszeichen e<strong>in</strong>e Richtungsänderung angibt <strong>und</strong> ke<strong>in</strong>e<br />

Phasenänderung. Das M<strong>in</strong>uszeichen verschw<strong>in</strong>det, wenn man die l<strong>in</strong>ksgerichtete Kraftwelle als<br />

Saitenkraft def<strong>in</strong>iert betrachtet, die nur nach l<strong>in</strong>ks wirkt (s.o., f l = -f r).<br />

43<br />

L<br />

( 3.<br />

41)<br />

( 3.<br />

42)<br />

(<br />

3.<br />

43)


DIPLOMARBEIT HENRI HAGENOW<br />

3.3.2 Leistungswellen<br />

Leistungswellen s<strong>in</strong>d wichtig, da sie die Fähigkeit der Welle veranschaulichen, an äußeren<br />

Systemen, wie z.B. am Steg e<strong>in</strong>er Viol<strong>in</strong>e, Arbeit zu verrichten. Da Energie <strong>in</strong><br />

geschlossenen Systemen erhalten bleibt, geben Leistungswellen manchmal e<strong>in</strong>e<br />

e<strong>in</strong>fachere, gr<strong>und</strong>legendere Ansicht der Wellenphänomene, wie etwa <strong>in</strong> konischen<br />

akustischen Röhren. Näheres zu den Leistungswellen f<strong>in</strong>det sich <strong>in</strong> Anhang A5.<br />

3.4 Streuung <strong>und</strong> Reflexion an Impedanzdiskont<strong>in</strong>uitäten<br />

Trifft e<strong>in</strong>e Welle auf e<strong>in</strong>e Verb<strong>in</strong>dung zwischen Bereichen verschiedener<br />

Wellenimpedanzen, bewirkt die Veränderung der Wellenimpedanz e<strong>in</strong>e S<strong>in</strong>galstreuung.<br />

Trifft e<strong>in</strong>e Wanderwelle auf e<strong>in</strong>e solche Impedanzdiskont<strong>in</strong>uität, so wird sie teilweise daran<br />

reflektiert <strong>und</strong> teilweise h<strong>in</strong>durchgelassen; die Gesamtenergie bleibt dabei erhalten [Ma<strong>in</strong>,<br />

1978]. In Simulationen akustischer Röhren, wie z.B. dem menschlichen Stimmtrakt [Cook,<br />

1990; Markel&Gray, 1976] oder <strong>in</strong> Blas<strong>in</strong>strumentenmodellen [Hirschmann, 1991] werden<br />

verlustbehaftete streuende Abzweigungen implementiert, um z.B. Tonlöcher zu simulieren.<br />

Die Implementierung der Streueigenschaften der Verb<strong>in</strong>dungspunkte zwischen<br />

Wellenleitern unterschiedlicher Wellenimpedanzen wird <strong>in</strong> Anhang A6 behandelt.<br />

3.5 Die e<strong>in</strong>gespannte Saite<br />

Die schw<strong>in</strong>genden Medien <strong>in</strong> den mechanischen Systemen der akustischen<br />

Musik<strong>in</strong>strumente (Saiten, Steg, Korpus; Luftvolumen usw.) s<strong>in</strong>d nicht unendlich<br />

ausgedehnt. Die Begrenzung auf e<strong>in</strong>e bestimmte Abmessung gibt gewisse<br />

Randbed<strong>in</strong>gungen vor, die die möglichen Schw<strong>in</strong>gungszustände des Mediums stark<br />

e<strong>in</strong>schränken. Die Art der Begrenzung, ob starr oder beweglich, <strong>und</strong> ihrer Ankopplung an<br />

das schw<strong>in</strong>gende Medium s<strong>in</strong>d für die Übertragung der Schw<strong>in</strong>gungsenergie auf den<br />

schallabstrahlenden Teil des Gesamtsystems von großer Wichtigkeit.<br />

3.5.1 Starre Begrenzungen<br />

Der e<strong>in</strong>fachste Fall für die E<strong>in</strong>schränkung des schw<strong>in</strong>genden Systems auf e<strong>in</strong>e bestimmte<br />

Länge ist die absolut starre Begrenzung. Diese wird durch die Vorgabe der<br />

Randbed<strong>in</strong>gungen<br />

y(0,t) := 0<br />

Onl<strong>in</strong>e-Version 1.0 44


DIPLOMARBEIT HENRI HAGENOW<br />

Onl<strong>in</strong>e-Version 1.0<br />

y(L,t) := 0<br />

erreicht. Setzt man diese <strong>in</strong> die Wanderwellenlösung aus Abschnitt 3.1.1 e<strong>in</strong><br />

so folgt damit für die Teilwellen<br />

y(0,t ) = y r(t) + y l(t) = y + (t/T) + y - (t/T)<br />

y(L,t ) = y r(t-L/c) + y l(t-L/c)<br />

y + (n) = -y - (n)<br />

y - (n+N/2) = -y + (n-N/2)<br />

wobei N = 2L/X s die Zeit <strong>in</strong> Samples ist, die die Teilwelle zur Ausbreitung von e<strong>in</strong>em Ende<br />

der Saite <strong>und</strong> wieder zurück benötigt. Die Teilwelle wird also an der Begrenzung <strong>in</strong>vertiert<br />

reflektiert. Abb. 3.8 gibt über die oben dargestellten Zusammenhänge Aufschluß, wobei an<br />

beliebiger Stelle x = ξ e<strong>in</strong> virtueller Tonabnehmer <strong>in</strong>tegriert wurde.<br />

Abb. 3.8: Wellenleitermodell der beidseitig starr begrenzten idealen Saite mit Signalabgriff<br />

bei x = ξ (Abb. aus [Smith, 2000]).<br />

Der beschriebene Wellenleiter verhält sich analog zum elektrischen Fall der<br />

Wellenausbreitung auf Leitungen (Telegraphengleichung) bzw. der Ausbreitung von<br />

Lichtwellen <strong>in</strong> optischen Medien mit variablem Brechungs<strong>in</strong>dex [Nolt<strong>in</strong>g, 2001].<br />

3.5.2 Bewegliche Begrenzungen<br />

E<strong>in</strong> schw<strong>in</strong>gungsfähiges System, das über e<strong>in</strong>e nicht-starre Begrenzung des schw<strong>in</strong>genden<br />

Mediums an e<strong>in</strong> weiteres schw<strong>in</strong>gungsfähiges System gekoppelt ist, überträgt e<strong>in</strong>en Teil<br />

der Schw<strong>in</strong>gungsenergie <strong>in</strong> das angekoppelte System. Im Falle der Saiten<strong>in</strong>strumente ist<br />

die Saite über den Steg an den Korpus gekoppelt <strong>und</strong> überträgt e<strong>in</strong>en Teil der<br />

45


DIPLOMARBEIT HENRI HAGENOW<br />

Schw<strong>in</strong>gungen auf den Resonanzkörper, der dadurch wiederum <strong>in</strong> Eigenschw<strong>in</strong>gung<br />

versetzt wird <strong>und</strong> e<strong>in</strong>en Teil der Energie als Schall abstrahlt. Bei der Geige stellt der<br />

aufliegende Bogen zusätzlich e<strong>in</strong>e weitere nicht-starre Saitenbegrenzung dar, an der die<br />

Wanderwellen teilweise reflektiert werden. E<strong>in</strong>e gestrichene Saite läßt sich im e<strong>in</strong>fachsten<br />

Fall durch zwei bewegliche begrenzte Saiten approximieren: Während der Zeit<strong>in</strong>tervalle, <strong>in</strong><br />

denen der Bogen <strong>und</strong> die Saite ane<strong>in</strong>ander haften, fungiert der Bogen als e<strong>in</strong>e e<strong>in</strong>fache, <strong>in</strong><br />

vertikaler Richtung bewegliche Begrenzung.<br />

Um e<strong>in</strong>en Viol<strong>in</strong>enklang mittels Wellenleitersynthese zu simulieren, ist es hilfreich, sich den<br />

Fall e<strong>in</strong>er fest e<strong>in</strong>gespannten idealen Saite vor Augen zu führen, dessen l<strong>in</strong>kes Ende durch<br />

e<strong>in</strong>e externe Kraft bewegt wird. Zur Zeit t = 0 wird die l<strong>in</strong>ke Begrenzung der idealen Saite,<br />

wie <strong>in</strong> Abb. 3.9 dargestellt, mit konstanter Geschw<strong>in</strong>digkeit v 0 <strong>in</strong> Bewegung gesetzt. Die<br />

aufwärts gerichtete Kraft des bewegten Endpunktes errechnet sich durch f 0 = Rv 0, mit R als<br />

Wellenimpedanz der Saite. Zu Zeiten t 0 < L/c hat die Störung e<strong>in</strong>en Abstand c⋅t 0 entlang der<br />

Saite. Man bedenke, daß die Saitenform am bewegten Endpunkt durch<br />

∂<br />

y<br />

∂x<br />

v 0 ⋅t<br />

= −<br />

c ⋅t<br />

Onl<strong>in</strong>e-Version 1.0 46<br />

0<br />

0<br />

0<br />

v 0 f 0 / R f 0<br />

= − = − = −<br />

c c K<br />

gegeben ist. Hierbei f<strong>in</strong>det man die aus Abschnitt 3.3.1 bekannte Beziehung zwischen<br />

Kraftwellen <strong>und</strong> dem Produkt aus Auslenkungswellen <strong>und</strong> der negativen Spannungskraft<br />

wieder.<br />

Abb. 3.9: Bewegliche Begrenzung bei e<strong>in</strong>er idealen Seite zur Zeit 0 < t 0 < L/c<br />

(Abb. aus [Smith, 2000])<br />

In Teilabbildung a) der Abb. 3.10 wird e<strong>in</strong> Wellenleitermodell für Geschw<strong>in</strong>digkeitswellen<br />

gezeigt, <strong>in</strong> b) dagegen e<strong>in</strong>e Kraftwellensimulation. Beide Schaltkreise s<strong>in</strong>d äquivalent<br />

[Smith, 2000]. Im Falle der Geschw<strong>in</strong>digkeitswellen erzeugt die bewegte Begrenzung e<strong>in</strong>e<br />

zusätzliche konstante Geschw<strong>in</strong>digkeit v 0, die am l<strong>in</strong>ken Rand des digitalen Wellenleiters


DIPLOMARBEIT HENRI HAGENOW<br />

periodisch zum Gesamtsystem addiert wird. Dies <strong>in</strong>itiiert zur Zeit t = 0 e<strong>in</strong>en<br />

Geschw<strong>in</strong>digkeitsschub von 0 auf v 0, der zum rechten Rand h<strong>in</strong> wandert. Erreicht die<br />

wandernde Geschw<strong>in</strong>digkeitsstufe die rechte Begrenzung, wird sie <strong>in</strong>vertiert reflektiert <strong>und</strong><br />

wandert als ‚Auslöschungswelle‘ wieder <strong>in</strong> Richtung des l<strong>in</strong>ken Saitenendes. H<strong>in</strong>ter dieser<br />

Auslöschungswelle ist die Geschw<strong>in</strong>digkeit gleich Null <strong>und</strong> die Saite bewegt sich nicht.<br />

Erreicht die Auslöschungswelle das l<strong>in</strong>ke Saitenende, wird sie wieder <strong>in</strong>vertiert reflektiert<br />

<strong>und</strong> zum externen Geschw<strong>in</strong>digkeitssignal des bewegten Saitenendes addiert. Das neue<br />

Treppen-signal hat nun die Amplitude 2⋅v 0 <strong>und</strong> bewegt sich wieder zum rechten Ende der<br />

Saite. Dieser Prozeß wiederholt sich immer wieder, was dar<strong>in</strong> resultiert, daß die<br />

Wanderwellenkomponenten ohne Grenze weiter wachsen, wobei die Summe der oberen<br />

<strong>und</strong> unteren Verzögerungskette aber immer entweder gleich 0 oder v 0 bleibt. Zu allen Zeiten<br />

kann man die Saite nun <strong>in</strong> zwei Segmente unterteilen, wobei das l<strong>in</strong>ke Segment sich nach<br />

oben mit der Geschw<strong>in</strong>digkeit v 0 ausbreitet, während das rechte Segment bewegungslos<br />

bleibt.<br />

Onl<strong>in</strong>e-Version 1.0<br />

Abb. 3.10: Äquivalente Wellenleitermodelle. In a) ist e<strong>in</strong> Wellenleitermodell<br />

für Geschw<strong>in</strong>digkeitswellen, <strong>in</strong> b) e<strong>in</strong> Wellenleiter für<br />

Kraftwellen dargestellt. Bei Kraftwellen entfällt die Signal<strong>in</strong>vertierung<br />

bei der Reflexion (Abb. aus [Smith, 2000]).<br />

Im Falle der Kraftwellensimulation ersche<strong>in</strong>t die Bewegung des begrenzten Endes als e<strong>in</strong>e<br />

dem System zusätzlich an der Stelle der Begrenzung zugeführte konstante Kraft f 0 = R⋅v 0.<br />

Dies <strong>in</strong>itiiert zur Zeit 0 e<strong>in</strong>en Sprung der Kraftkomponente von 0 auf f 0, der sich nach rechts<br />

47


DIPLOMARBEIT HENRI HAGENOW<br />

weiterbewegt. Im Pr<strong>in</strong>zip gleicht der Vorgang dem oben Beschriebenen für<br />

Geschw<strong>in</strong>digkeitswellen, mit dem Unterschied, daß die Kraftwellen an der Begrenzung nicht<br />

<strong>in</strong>vertiert reflektiert werden. Dies führt zu e<strong>in</strong>em endlosen Anstieg der Kraftkomponenten.<br />

Die Form der Saite h<strong>in</strong>ter der Kraftwelle errechnet sich durch (∂/∂x)⋅y = -(n+1)⋅f 0/K, mit n als<br />

Anzahl der Reflexionen am rechten Saitenende. Die Saite ist immer stückweise l<strong>in</strong>ear <strong>und</strong><br />

besteht aus m<strong>in</strong>destens zwei l<strong>in</strong>earen Segmenten, die sich pro Umlaufzyklus jeweils um -f 0/K<br />

unterscheiden. Abb. 3.11 zeigt e<strong>in</strong>ige Momentaufnahmen.<br />

Abb. 3.11: Dargestellt s<strong>in</strong>d E<strong>in</strong>zelbilder e<strong>in</strong>er durch e<strong>in</strong> bewegtes Saitenende<br />

angereten Saitenschw<strong>in</strong>gung. Um die Abbildung übersichtlicher zu<br />

halten, s<strong>in</strong>d die E<strong>in</strong>zelbilder der Saitenbewegung stückweise nach oben<br />

verschoben; die Gesamtanordnung wird sozusagen zusätzlich mit konstanter<br />

Geschw<strong>in</strong>digkeit <strong>in</strong> y-Richtung bewegt (Abb. aus [Smith, 2000]).<br />

3.5.3 Die Anregung der starr begrenzten idealen Saite<br />

E<strong>in</strong>e ideale starr begrenzte Saite läßt sich auf vielerlei Arten zu e<strong>in</strong>er Eigenschw<strong>in</strong>gung<br />

anregen. Die e<strong>in</strong>fachsten Anregungsmechanismen s<strong>in</strong>d Zupfen, Schlagen <strong>und</strong> Streichen,<br />

wobei nur beim Anstreichen der Saite e<strong>in</strong> anhaltender Ton entsteht.<br />

Die ideale gezupfte Saite besitzt zum Anfangszeitpunkt t 0 e<strong>in</strong>e Auslenkung ungleich Null mit<br />

e<strong>in</strong>er Geschw<strong>in</strong>digkeitsverteilung gleich Null [Morse, 1981]. Im allgeme<strong>in</strong>en legen die<br />

Ausgangsausrichtung y(x,0) <strong>und</strong> die Ausgangsgeschw<strong>in</strong>digkeit v(x,0) zusammen mit den<br />

Randbed<strong>in</strong>gungen <strong>in</strong> Abwesenheit von weiteren Erregungen den Zustandsraum des<br />

Systems fest.<br />

Onl<strong>in</strong>e-Version 1.0 48


DIPLOMARBEIT HENRI HAGENOW<br />

In Abb. 3.12 ist e<strong>in</strong> Beispiel der beiden Teilwellen <strong>und</strong> der resultierenden Saitenform e<strong>in</strong>er<br />

zweiseitig starr e<strong>in</strong>gespannten Saite kurz nach dem Anzupfen an e<strong>in</strong>em Punkt ß = _ der<br />

Saitenlänge dargestellt. Die negativen Auslenkungsbereiche der Wanderwellen s<strong>in</strong>d hierbei<br />

als <strong>in</strong>vertierte Reflexionen an den Saitenenden zu deuten.<br />

Abb. 3.12: Abbildung e<strong>in</strong>er idealen, beidseitig starr begrenzten Saite der Länge L,<br />

die an der Stelle ß = _ angezupft wird. Die Form der Saite ergibt sich zu jeder Zeit<br />

aus der Superposition der beiden sich mit der Wellengeschw<strong>in</strong>digkeit c ausbreitenden<br />

<strong>und</strong> an den Saitenenden <strong>in</strong>vertiert reflektierenden Wanderwellenkomponenten.<br />

E<strong>in</strong> Beispiel für e<strong>in</strong>e digitale Wellenleitersimulation ist <strong>in</strong> Abb. 3.13 dargestellt. Im zeit-<br />

diskreten Fall ist die Simulation scharfer Ecken <strong>in</strong> der angezupften Saite jedoch unmöglich,<br />

da man hierfür e<strong>in</strong>e unendliche Bandbreite benötigen würde, was beim Abtasten zu<br />

unerwünschten Alias<strong>in</strong>g-Effekten führt. Die Beliebigkeit der Saitenform wird deshalb nach<br />

e<strong>in</strong>er Bandbegrenzung durch das Spektrum des Signals auf die halbe Sampl<strong>in</strong>grate F s<br />

e<strong>in</strong>geschränkt. Alternativ dazu könnte man die Signalform auch durch die E<strong>in</strong>schränkung<br />

der Ausgangsauslenkung (also dem Anzupfen) auf e<strong>in</strong>e Bandbreite e<strong>in</strong>schränken, die<br />

kle<strong>in</strong>er ist als X s/2c.<br />

Abb. 3.13: Anfangsbed<strong>in</strong>gungen für die Simulation e<strong>in</strong>er angezupften, beidseitig<br />

starr begrenzten idealen Saite im digitalen Wellenleiter. Zur Veranschaulichung<br />

wurden die Wellenformen der beiden Wanderwellen <strong>in</strong> die Blockschaltbilder der<br />

Verzögerungse<strong>in</strong>heiten gezeichnet. Die Amplitude der beiden Auslenkungswellen<br />

<strong>in</strong> den Verzögerungsketten s<strong>in</strong>d halb so groß, wie die des Initialisierungsimpulses.<br />

Die Summe der Signale <strong>in</strong> den beiden Verzögerungsleitungen ergibt die aktuelle<br />

Saitenauslenkung (Abb. aus [Smith, 2000]).<br />

Onl<strong>in</strong>e-Version 1.0<br />

49


DIPLOMARBEIT HENRI HAGENOW<br />

Da reale Saiten nicht die Eigenschaften e<strong>in</strong>er idealen Saite, sondern immer e<strong>in</strong>e gewisse<br />

Steifigkeit besitzen, ist e<strong>in</strong>e wirklich scharfe Ecke auch <strong>in</strong> der Realität gar nicht möglich.<br />

Auch berühren Plektren oder zupfende F<strong>in</strong>ger die gespielte Saite nie an nur e<strong>in</strong>em e<strong>in</strong>zigen<br />

Punkt <strong>und</strong> erzeugen immer abger<strong>und</strong>ete Ecken auf der Saite. Die Bandlimitierung, die <strong>in</strong><br />

der digitalen Simulation verlangt wird, bee<strong>in</strong>trächtigt den Bereich des menschlichen<br />

Hörspektrums nicht, so daß diese ke<strong>in</strong>e Beschränkung im praktischen S<strong>in</strong>ne nach sich<br />

zieht.<br />

Zur Simulation von gezupften Saiten s<strong>in</strong>d Beschleunigungswellen e<strong>in</strong>e gute Wahl; der<br />

Anfangsimpuls im Verzögerungsleiter an der Stelle des Anzupfpunktes entspricht hier<br />

genau den Anfangsbed<strong>in</strong>gungen e<strong>in</strong>er idealen gezupften Saite. Die Anfangsbed<strong>in</strong>gungen<br />

für Beschleunigungswellen s<strong>in</strong>d <strong>in</strong> Abb. 3.14 dargestellt.<br />

Abb. 3.14: Anfangsbed<strong>in</strong>gungen für die Simulation e<strong>in</strong>er angezupften, beidseitig<br />

starr begrenzten idealen Saite im digitalen Wellenleiter für Beschleunigungswellen<br />

(Abb. aus [Smith, 2000]).<br />

Für die Simulation e<strong>in</strong>er angeschlagenen idealen Saite (z.B. durch e<strong>in</strong>en Klavierhammer)<br />

müssen im Pr<strong>in</strong>zip nur die Anfangsbed<strong>in</strong>gungen ausgetauscht werden. Hier ist zwar die<br />

Anfangsauslenkung gleich Null, aber die Geschw<strong>in</strong>digkeitsverteilung ist ungleich Null. Zum<br />

Zeitpunkt t 0 würde im Falle des Klaviers der Hammer auf die Saite treffen <strong>und</strong> im<br />

idealisierten Fall sofort e<strong>in</strong>en Impuls auf die Anschlagstelle der Saite übertragen. Die<br />

Saitenform übernimmt dann die Form des anschlagenden Hammers. Da nach den<br />

Gleichungen (3.41) <strong>und</strong> (A4.3)<br />

f ∂<br />

= c ⋅ y<br />

R ∂x<br />

±<br />

±<br />

v ± = m<br />

gilt, läßt sich die Anfangsgeschw<strong>in</strong>digkeitsverteilung über die Orte x <strong>in</strong>tegrieren <strong>und</strong> so die<br />

dazu equivalente Anfangsauslenkungsverteilung bestimmen [Morse, 1981].<br />

Onl<strong>in</strong>e-Version 1.0 50<br />

±


DIPLOMARBEIT HENRI HAGENOW<br />

E<strong>in</strong>e gestrichene Saite läßt sich im e<strong>in</strong>fachsten Fall als e<strong>in</strong>e periodisch oder statistisch<br />

gleichverteilt angezupfte Saite betrachten.<br />

3.5.4 Die äußere Anregung<br />

Die vorangehenden Unterabschnitte veranschaulichten die Anregung des ruhenden<br />

Wellenleiters mittels der Vorgabe von Ausgangsbed<strong>in</strong>gungen: e<strong>in</strong>e Anfangsauslenkung<br />

beim Zupfen <strong>und</strong> e<strong>in</strong>e Anfangsgeschw<strong>in</strong>digkeit beim Anschlagen. E<strong>in</strong>e solche<br />

Beschreibung f<strong>in</strong>det sich auch <strong>in</strong> den Lehrbüchern der Akustik [K<strong>in</strong>sler&Frey et.al., 2000].<br />

Bef<strong>in</strong>det sich die Saite bereits <strong>in</strong> Bewegung, so wie es <strong>in</strong> der Praxis häufig der Fall ist, so<br />

kann man die Saite zusätzlich von außen durch e<strong>in</strong> ‚Plektrum‘ oder e<strong>in</strong>en ‚Hammer‘<br />

anregen, so wie es auch zur Klangerzeugung bei realen Instrumenten getan wird.<br />

Für die Anregung von außen benötigt man <strong>in</strong> der Wellenleitersimulation e<strong>in</strong>en<br />

Signale<strong>in</strong>gang für e<strong>in</strong>e externe Anregungsfunktion. Abb. 3.15 zeigt das Wellenleitermodell<br />

e<strong>in</strong>er an zwei Enden begrenzten Saite mit e<strong>in</strong>em E<strong>in</strong>gang für externe Anregung. Die<br />

E<strong>in</strong>gangsvariable ω kann jeder der Wellengrößen (a, v, ∂y/∂x...) entsprechen, wobei bei der<br />

Wahl von Kraftwellen darauf geachtet werden sollte, daß die Vorzeichen<strong>in</strong>version bei den<br />

Reflexionen an den Saitenenden entfernt werden. Für idealisierte angezupfte Saiten setzt<br />

man ω = a (Beschleunigungswellen). Die externe Anregung wird <strong>in</strong> der Abbildung mit Δω<br />

bezeichnet, um zu veranschaulichen, daß es sich um e<strong>in</strong> additives Inkrement handelt, das<br />

mit dem jeweiligen Saitenzustand superpositioniert wird.<br />

Abb. 3.15: Digitale Simulation e<strong>in</strong>er fest e<strong>in</strong>gespannten idealen Saite unter<br />

äußerer Anregung. Erfolgt die äußere Anregung durch Anzupfen, so wählt<br />

man ω = a (Beschleunigungswellen). Die Signalauskopplung erfolgt über e<strong>in</strong>en<br />

idealen Tonabnehmer am Steg.<br />

Onl<strong>in</strong>e-Version 1.0<br />

51


DIPLOMARBEIT HENRI HAGENOW<br />

Δω kann e<strong>in</strong> e<strong>in</strong>ziges, von Null verschiedenes Sample se<strong>in</strong> oder auch e<strong>in</strong> Impuls im<br />

Augenblick des Anzupfens. Nichtganzzahlige Zeit- <strong>und</strong> Ortwerte vermeidet man durch<br />

bandlimitierte Interpolation. Zupft man die Saite mittels e<strong>in</strong>er Kraftverteilung f p(x m,t n), so<br />

kann man die am entsprechenden Punkt angreifende Kraft mittels der Wellenimpedanz <strong>in</strong><br />

die jeweiligen Geschw<strong>in</strong>digkeits<strong>in</strong>kremente übersetzen:<br />

Der Faktor 2 kommt durch die zwei parallel durchlaufenen Saitensegmente (rechts- <strong>und</strong><br />

l<strong>in</strong>kskaufende Welle) des bidirektionalen Wellenleiters zustande 22 .<br />

Man beachte, daß die Wirkung der von außen auf die Saite wirkenden Kraft je nach<br />

Schw<strong>in</strong>gungszustand der Saite, <strong>in</strong> dem sie sich zum Zeitpunkt der externen Anregung<br />

bef<strong>in</strong>det, variiert. In der Realität stellen Hammer, Plektrum oder F<strong>in</strong>ger, die mit der<br />

schw<strong>in</strong>genden Saite <strong>in</strong> Kontakt kommen, e<strong>in</strong>e zeitweise Begrenzung der Saite dar, was zu<br />

Reflexionen <strong>in</strong> beiden durch den Kontakt geteilten Saitenteilen führt. E<strong>in</strong> e<strong>in</strong>faches Modell<br />

hierfür ist e<strong>in</strong>e für die Dauer des Kontaktes am Anregungspunkt befestigte Masse.<br />

Allgeme<strong>in</strong>er wäre e<strong>in</strong>e beliebige Impedanz oder Kraftquelle am Anregungspunkt für die<br />

Dauer des Kontaktes. In e<strong>in</strong>em Wellenleitermodell für gestrichene Saiten ist der Bogen-<br />

Saite-Kontakt durch e<strong>in</strong>e nichtl<strong>in</strong>eare streuende Verb<strong>in</strong>dung (‚nonl<strong>in</strong>ear scatter<strong>in</strong>g junction‘)<br />

realisiert [Smith, 2000] (siehe auch Anhang A6).<br />

3.5.5 Die gedämpfte angezupfte Saite<br />

Ohne Dämpfung kl<strong>in</strong>gt die digitale Implementierung der idealen gezupften Saite eher nach<br />

e<strong>in</strong>er preiswerten elektronischen Orgel, als nach e<strong>in</strong>er realen schw<strong>in</strong>genden Saite. Dies<br />

liegt an der perfekten Periodizität des Klanges, der zudem niemals abkl<strong>in</strong>gt. E<strong>in</strong> statisches<br />

Spektrum ist für das menschliche Ohr eher langweilig <strong>und</strong> unspektakulär.<br />

Die Simulation der Dämpfung der schw<strong>in</strong>genden Saite erreicht man mit exponentiell<br />

abgeschwächten Teilwellen. In der Realität ist der Verlust während e<strong>in</strong>er<br />

Schw<strong>in</strong>gungsperiode kont<strong>in</strong>uierlich über die gesamte Saitenlänge verteilt. In der digitalen<br />

Simulation werden die Verlustfaktoren g pro Teil<strong>in</strong>tervall N auf e<strong>in</strong>en resultierenden<br />

Verlustfaktor g N an e<strong>in</strong>er e<strong>in</strong>zigen Stelle im Wellenleiter reduziert, um Rechenlast zu sparen<br />

<strong>und</strong> R<strong>und</strong>ungsfehler zu m<strong>in</strong>imieren.<br />

22 Physikalisch s<strong>in</strong>d sie parallel, als Impedanzen aber formal <strong>in</strong> Serie geschaltet.<br />

Onl<strong>in</strong>e-Version 1.0 52<br />

f p<br />

Δ v =<br />

(<br />

3.<br />

44)<br />

2R


DIPLOMARBEIT HENRI HAGENOW<br />

Abb. 3.16: Digitale Simulation e<strong>in</strong>er fest e<strong>in</strong>gespannten, gedämpften idealen Saite.<br />

Damit das System stabil bleibt, sollte g N < 1 bleiben.<br />

E<strong>in</strong>en vere<strong>in</strong>fachten Algorithmus erhält man durch Zusammenschaltung der bidirektionalen<br />

Verzögerungsleiter (Abb. 3.15) zu e<strong>in</strong>em e<strong>in</strong>zigen Verzögerungsleiter mit doppelter<br />

Verzögerungszeit (Abb. 3.16). E<strong>in</strong> <strong>in</strong> das System e<strong>in</strong>gebrachter Impuls durchläuft das<br />

Verzögerungselement, das durch die Vorgabe der (auf das Sampl<strong>in</strong>g<strong>in</strong>tervall T s normierten)<br />

Verzögerungszeit N die Saitenlänge L <strong>und</strong> dadurch auch die Tonhöhe des entstehenden<br />

Klanges f 1 festlegt:<br />

Aufgr<strong>und</strong> der Quantelung von Zeit <strong>und</strong> Raum s<strong>in</strong>d nur äquidistante Frequenzzustände<br />

möglich. Um Frequenzen synthetisieren zu können, die ungerade Vielfache des kle<strong>in</strong>sten<br />

Frequenzunterschiedes s<strong>in</strong>d, ist e<strong>in</strong>e Modellierung partieller Verzögerungszeiten durch<br />

l<strong>in</strong>eare Interpolation, Allpaß-Interpolation oder Lagrange-Interpolation (‚Fractional Delay‘)<br />

notwendig. Die bekannten Verfahren führen allerd<strong>in</strong>gs meist zu unerwünschten<br />

Dämpfungsersche<strong>in</strong>ungen (l<strong>in</strong>eare Interpolation) oder zu zeitabhängigen Verzerrungen<br />

hoher Frequenzen (Lagrange-Interpolation) [Välimäki, 1995; Smith, 1996].<br />

Da zwischen E<strong>in</strong>gang <strong>und</strong> Ausgang ke<strong>in</strong>e Kopplung stattf<strong>in</strong>det, lassen sich alle Verluste <strong>in</strong><br />

e<strong>in</strong>em e<strong>in</strong>zigen Multiplikator G = g N zusammenfassen. Die beiden Vorzeichen<strong>in</strong>vertierer an<br />

den Saitenenden (Verstärkungsfaktoren -1) löschen sich bei der Zusammenschaltung der<br />

bidirektionalen Verzögerungsleitungen der l<strong>in</strong>ks- <strong>und</strong> rechtslaufenden Teilwellen<br />

gegenseitig aus. Es bleibt e<strong>in</strong> e<strong>in</strong>ziger Verzögerer mit der Verzögerungszeit N übrig. Die<br />

reduzierte Schaltung ist <strong>in</strong> Abb. 3.16 dargestellt. Durch die Zusammenfassung auf e<strong>in</strong>e<br />

e<strong>in</strong>zige Verzögerungse<strong>in</strong>heit reduziert man die N R<strong>und</strong>ungsfehler der N<br />

E<strong>in</strong>zelmultiplikatoren g für die Dämpfung (siehe Abschnitt 3.2) pro Periode auf e<strong>in</strong>en<br />

e<strong>in</strong>zigen R<strong>und</strong>ungsfehler pro Periode durch den Gesamtmultiplikator G.<br />

Der Vorteil e<strong>in</strong>er bidirektionalen Verzögerungskette liegt <strong>in</strong> der Möglichkeit, die spektrale<br />

Zusammensetzung des Ausgangssignals von der Position der Anregungsstelle abhängig zu<br />

Onl<strong>in</strong>e-Version 1.0<br />

2L<br />

Fs<br />

N =<br />

=<br />

X f<br />

53<br />

s<br />

1<br />

( 3.<br />

45)


DIPLOMARBEIT HENRI HAGENOW<br />

machen (Anordnung wie <strong>in</strong> Abb. 3.15, mit Invertierungsfaktoren -g N/2 anstatt -1). Die<br />

Anregungsstelle unterteilt die Saite <strong>in</strong> zwei Teilbereiche. Jedem Teilbereich entspricht e<strong>in</strong>e<br />

Verzögerungskette, deren Verzögerungszeiten mit der Position der Anzupfstelle variieren.<br />

Die Implementierung e<strong>in</strong>es solchen Wellenleiters f<strong>in</strong>det sich <strong>in</strong> Kapitel 5.<br />

3.5.5.1 Frequenzabhängige Dämpfung<br />

Um die im Verzögerungsleiter synthetisch erzeugten Klänge noch realistischer kl<strong>in</strong>gen zu<br />

lassen, sollte die Dämpfung wie <strong>in</strong> der Realität frequenzabhängig se<strong>in</strong> <strong>und</strong> der<br />

Dämpfungsgrad mit der Frequenz ansteigen. Der <strong>in</strong> Abschnitt 3.2 e<strong>in</strong>geführte Verlustfaktor<br />

g sollte dann durch l<strong>in</strong>earphasige digitale Filter mit Tiefpaßcharakteristik ausgetauscht<br />

werden, deren Verstärkung mit der Frequenz abnimmt <strong>und</strong> wegen der Stabilität der<br />

Rückkopplungsleitung niemals den Wert 1 übersteigen darf (siehe Abschnitt 3.4.4).<br />

Ist _(z) der dadurch resultierende passive l<strong>in</strong>earphasige Filter, so ist die Stabilitätsbe-<br />

d<strong>in</strong>gung | _(e jωT ) | ≤ 1 (passiv). Die Bed<strong>in</strong>gung e<strong>in</strong>er konstanten Verzögerung für alle<br />

Frequenzen (l<strong>in</strong>earphasiger Filter) beschränkt die möglichen Filtertypen auf symmetrische<br />

FIR-Filter. Näheres zur Generierung e<strong>in</strong>es solchen frequenzabhängigen Dämpfungsfilter<br />

f<strong>in</strong>det sich <strong>in</strong> Anhang A7.<br />

E<strong>in</strong> e<strong>in</strong>faches Modell der idealen Saite mit frequenzabhängigem Dämpfungsfilter ist <strong>in</strong> Abb.<br />

3.17 dargestellt. E<strong>in</strong>e solche Schaltung nennt man auch ‚Karplus-Strong-Algorithmus‘<br />

[Karplus&Strong,1983; Roads, 1996; Jaffe&Smith, 1983; Sullivan, 1990].<br />

Wird die Karplus-Strong-Schaltung anstatt durch e<strong>in</strong>en re<strong>in</strong>en Impuls durch e<strong>in</strong><br />

tiefpaßgefiltertes kurzzeitiges Weißes Rauschen angeregt, läßt sich mit der Grenzfrequenz<br />

des benutzten Tiefpaßes die Klangfarbe bei unterschiedlich gespielter Dynamik des<br />

resultierenden Klanges steuern. Auf diese Weise kann man das Klangverhalten realer<br />

Saiten<strong>in</strong>strumente simulieren, deren Klang heller wird, wenn die Saite stärker (‚lauter‘)<br />

angeschlagen wird [Jaffe&Smith, 1983].<br />

Abb. 3.17: E<strong>in</strong>faches Modell e<strong>in</strong>er idealen Saite mit frequenzabhängigem<br />

Dämpfungsfilter (Karplus-Strong Algorithmus). Auf den N-Sample Verzögerer<br />

folgt e<strong>in</strong> digitaler Tiefpaß erster Ordnung.<br />

Onl<strong>in</strong>e-Version 1.0 54


DIPLOMARBEIT HENRI HAGENOW<br />

3.5.6 Saitensteifigkeit<br />

Für die Realisierung e<strong>in</strong>er steifen Saite, z.B. zur Simulation von Piano-Saiten, nutzt man<br />

Schaltungen wie sie <strong>in</strong> Abb. 3.18 dargestellt s<strong>in</strong>d. Durch die Saitensteifigkeit breiten sich die<br />

hochfrequenten Signalanteile schneller aus, als die niederfrequenten Anteile, so daß die<br />

Welle dispergiert (s.o. Abschnitt 3.2.2). E<strong>in</strong> solches Verhalten simuliert man durch die<br />

Integration e<strong>in</strong>es Allpaßfilters mit frequenzabhängiger Verzögerung, der die Dispersion an<br />

e<strong>in</strong>er e<strong>in</strong>zigen Stelle im Wellenleiter zusammenfaßt. E<strong>in</strong>e solche steife Saite erzeugt e<strong>in</strong>e<br />

disharmonische Obertonreihe, d.h. die Oberschw<strong>in</strong>gungen s<strong>in</strong>d nicht mehr ganzzahlige<br />

Vielfache der Gr<strong>und</strong>schw<strong>in</strong>gung 23 .<br />

Abb. 3.18: Simulation e<strong>in</strong>er fest e<strong>in</strong>gespannten steifen Saite. Der Allpaßfilter<br />

sorgt durch e<strong>in</strong>e frequenzabhängige Signalverzögerung für die Nachbildung<br />

von Dispersionsersche<strong>in</strong>ungen <strong>in</strong> den sich auf der Saite ausbreitenden Teilwellen.<br />

3.5.7 Dynamische Saitenbegrenzungen<br />

Um die Simulation des Klanges e<strong>in</strong>er gezupften Saite realistisch zu gestalten, muß man von<br />

der totalen Reflexion an den beiden Saitenenden Abstand nehmen. E<strong>in</strong> absolut starrer Steg<br />

e<strong>in</strong>er Gitarre oder e<strong>in</strong>er Viol<strong>in</strong>e kann ke<strong>in</strong>e Schw<strong>in</strong>gungen auf den Korpus des Instrumentes<br />

übertragen. Die Saitenschw<strong>in</strong>gung wird durch die Kopplung der Saite an die Brücke<br />

gedämpft. Im e<strong>in</strong>fachsten Fall verhält sich die Schw<strong>in</strong>gung ähnlich wie die e<strong>in</strong>es Systems<br />

aus e<strong>in</strong>er e<strong>in</strong>fachen Feder, die parallel zu e<strong>in</strong>em frequenzunabhängigen Widerstand<br />

(Dämpfungzyl<strong>in</strong>der, ‚dashpot‘) geschaltet wird [LePage, 1961; Cremer, 1984].<br />

Wird e<strong>in</strong>e Wanderwelle am Steg e<strong>in</strong>es realen Instrumentes reflektiert, so wird dieser bewegt<br />

<strong>und</strong> überträgt e<strong>in</strong>en Teil der Schw<strong>in</strong>gungsenergie <strong>in</strong> den Instrumentenklangkörper. In<br />

welchem Maße sich der Steg bewegt, wird durch die sogenannte ‚driv<strong>in</strong>g-po<strong>in</strong>t‘-Impedanz<br />

R b(s) bestimmt. Dies ist die Impedanz des Steges am Aufsatzpunkt der jeweiligen Saite. Die<br />

23 Beim Klavier werden aufgr<strong>und</strong> der Dispersionsersche<strong>in</strong>ung die Saiten der oberen Lagen etwas<br />

höher, als ihre theoretischen Notenwerte gestimmt, um im Zusammenspiel mit Tönen der unteren<br />

Oktavlage disharmonische Klänge zu vermeiden.<br />

Onl<strong>in</strong>e-Version 1.0<br />

55


DIPLOMARBEIT HENRI HAGENOW<br />

‚driv<strong>in</strong>g-po<strong>in</strong>t‘-Impedanz ist gleich dem Verhältnis der Laplacetransformierten der Kraft<br />

F b(s), die auf den Steg wirkt, zur Geschw<strong>in</strong>digkeit der resultierenden Bewegung V b(s):<br />

Für passive Systeme, also alle natürlichen Instrumente, ist die ‚driv<strong>in</strong>g-po<strong>in</strong>t‘-Impedanz<br />

positiv-reellwertig [Smith, 1983; VanValkenburg, 1960], was bedeutet<br />

(1) R b(s) ist reell, wenn s reell ist<br />

(2) Re{s} ≥ 0 ⇒ Re{R b(s)} ≥ 0<br />

Diese sche<strong>in</strong>bar e<strong>in</strong>fachen Eigenschaften haben große Auswirkungen auf das Verhalten<br />

von R b(s). So kann z.B. die Phase von R b(jω) für ke<strong>in</strong>e Frequenz größer oder kle<strong>in</strong>er als 90°<br />

werden, <strong>und</strong> im verlustlosen Fall müssen die Pole <strong>und</strong> Nullstellen mit der jω-Achse<br />

zusammenfallen.<br />

Fb<br />

( s)<br />

Rb<br />

( s)<br />

=<br />

V ( s)<br />

Für x = 0 wird die Kraft auf den Steg dargestellt durch<br />

In der Frequenzebene gilt aufgr<strong>und</strong> der L<strong>in</strong>earität<br />

<strong>und</strong> damit für die Geschw<strong>in</strong>digkeit des Saitenendes<br />

Die Transformation der zeitkont<strong>in</strong>uierlichen ‚driv<strong>in</strong>g-po<strong>in</strong>t‘-Impedanz R b(s) <strong>in</strong> den digitalen<br />

Bereich ist analog zur Transformation analoger elektrischer <strong>in</strong> entsprechende digitale Filter;<br />

Techniken hierfür f<strong>in</strong>den sich <strong>in</strong> [Parks&Burrus, 1987]. Smith bevorzugt hierfür die<br />

sogenannte Bil<strong>in</strong>ear-Transformation, da sie die Eigenschaft der Positiv-Reellwertigkeit<br />

erhält, wobei man hier für die Def<strong>in</strong>ition der Eigenschaft positiv-reellwertig Re{s} ≥ 0 durch<br />

|z| ≥ 1 zu ersetzen hat [Smith, 1983; Appendix C].<br />

Onl<strong>in</strong>e-Version 1.0 56<br />

f b<br />

F b<br />

∂<br />

( t)<br />

= K y(<br />

0,<br />

t)<br />

= − f ( 0,<br />

t)<br />

∂x<br />

∂<br />

( s)<br />

= K Y(<br />

0,<br />

s)<br />

= −F<br />

( 0,<br />

s)<br />

∂x<br />

Fb<br />

( s)<br />

F(<br />

0,<br />

s)<br />

V(<br />

0,<br />

s)<br />

= Vb<br />

( s)<br />

≡ = −<br />

R ( s)<br />

R ( s)<br />

b<br />

b<br />

b<br />

( 3.<br />

46)<br />

( 3.<br />

47)<br />

( 3.<br />

48)<br />

(<br />

3.<br />

49)


DIPLOMARBEIT HENRI HAGENOW<br />

Abb. 3.19: Darstellung e<strong>in</strong>er Saitenbegrenzung durch e<strong>in</strong>e ‚driv<strong>in</strong>g-po<strong>in</strong>t‘-Impedanz<br />

zweiter Ordnung als simples Masse-Feder-System, wobei m die Masse, k<br />

die Federkonstante <strong>und</strong> μ der Widerstand des Dämpfungszyl<strong>in</strong>ders ist.<br />

Betrachtet man die Kopplung der Saite an den Steg als e<strong>in</strong> wie <strong>in</strong> Abb. 3.19 dargestelltes<br />

e<strong>in</strong>faches Masse-Feder-System, so ist die ‚driv<strong>in</strong>g-po<strong>in</strong>t‘-Impedanz von zweiter Ordnung<br />

<strong>und</strong> errechnet sich wie folgt:<br />

wobei m die Masse <strong>und</strong> k die Federkonstante darstellt. μ ist der Widerstand des<br />

Dämpfungszyl<strong>in</strong>ders. Die obige allgeme<strong>in</strong>e Impedanz zweiter Ordnung kann man als die<br />

Summe der E<strong>in</strong>zelimpedanzen von Masse, Feder <strong>und</strong> Dämpfungszyl<strong>in</strong>der betrachten.<br />

Formal sche<strong>in</strong>en diese also <strong>in</strong> Reihe geschaltet zu se<strong>in</strong> <strong>und</strong> die Regeln der<br />

Stromkreistheorie zu befolgen. Es s<strong>in</strong>d dann m⋅s der Sche<strong>in</strong>widerstand der Masse m, k/s<br />

der Sche<strong>in</strong>widerstand der Feder <strong>und</strong> μ ist e<strong>in</strong> realer Widerstand. Da sich die<br />

Sche<strong>in</strong>widerstände so verhalten, als seien sie <strong>in</strong> Reihe geschaltet, ist es gleichgültig, wie<br />

kompliziert e<strong>in</strong>e beliebige Komb<strong>in</strong>ation von MFD 24 -Schw<strong>in</strong>gern für e<strong>in</strong>e optimierte<br />

Simulation der Stegeigenschaften wird – e<strong>in</strong>e e<strong>in</strong>fache ‚Widerstandsnetzwerkanalyse‘ ergibt<br />

die ‚driv<strong>in</strong>g-po<strong>in</strong>t‘-Impedanz des Steges. Die Admittanz 25 des Steges verhält sich h<strong>in</strong>gegen<br />

wie parallelgeschaltete Elemente [Smith, 2000].<br />

Natürlich s<strong>in</strong>d die komplizierten mechanischen Konstruktionen der Musik<strong>in</strong>strumente nicht<br />

mit e<strong>in</strong>fachen Masse-Feder-Schw<strong>in</strong>gern zu vergleichen. Diese e<strong>in</strong>fach zu berechnenden<br />

Systeme werden aber oft verwendet, um mit Teilsystemen zweiter Ordnung wichtige<br />

Resonanzbereiche im Instrumentenkörper zu modellieren.<br />

24 MFD = Masse-Feder-Dämpfer<br />

25 Die Admittanz ist die reziproke Impedanz.<br />

Onl<strong>in</strong>e-Version 1.0<br />

R b<br />

k<br />

( s)<br />

= m ⋅ s + μ +<br />

(<br />

3.<br />

50)<br />

s<br />

57


DIPLOMARBEIT HENRI HAGENOW<br />

3.5.8 Die Reflexions-Transferfunktion<br />

Benutzt man die Bil<strong>in</strong>ear-Transformation zur digitalen Implementierung der ‚driv<strong>in</strong>g-po<strong>in</strong>t‘-<br />

Impedanz <strong>in</strong> den Wellenleiter [Smith, 1983], erhält man für die digitale Impedanz-<br />

Transferfunktion _ b(z):<br />

wobei F b(z) die z-Transformierte, auf den Steg wirkende Kraft darstellt <strong>und</strong> V b(z) die<br />

z-Transformierte vertikale Geschw<strong>in</strong>digkeit des Steges ist. _ b(z) nennt man auch<br />

Reflektanz. Da Steg <strong>und</strong> Saite sich <strong>in</strong> dieselbe Richtung bewegen, ist V b(z)= V(z). Die auf<br />

die Brücke wirkende Kraft ist gegeben durch f l(0,t). Da aber die nach rechts wirkende Kraft<br />

zur Wellenvariablen f erklärt wurde (siehe auch Abschnitt 3.3.1), gilt F b(z) = - F(0,z). Nun<br />

kann die Impedanz der Saitenbegrenzung durch den Steg <strong>in</strong> den Größen ausgedrückt<br />

werden, die den Zustand der Saitenbewegung beschreiben:<br />

Im Kontext der Simulation s<strong>in</strong>d die Werte für die Reflektanz _ b(z), die Wellenimpedanz der<br />

Saite R <strong>und</strong> die Wellenvariablen, die auf die Brücke e<strong>in</strong>wirken (<strong>in</strong> diesem Fall F - (z) wie <strong>in</strong><br />

obiger Gleichung) bekannt. Dies führt zur Reflexions-Transferfunktion an der Stelle des<br />

Steges:<br />

(<br />

−1<br />

⎛ 2 1−<br />

z ⎞ Fb<br />

( z)<br />

Rb<br />

( z)<br />

≡ Rb<br />

⎜ ⋅ = 1<br />

T 1 z<br />

⎟ −<br />

⎝ + ⎠ Vb<br />

( z)<br />

(<br />

−<br />

+<br />

−<br />

F(<br />

z)<br />

F ( z)<br />

+ F ( z)<br />

F ( z)<br />

+ F ( z)<br />

( z)<br />

= − = −<br />

= −R<br />

⋅<br />

−<br />

+<br />

V ( z)<br />

V ( z)<br />

+ V ( z)<br />

F ( z)<br />

− F ( z)<br />

Rb +<br />

+<br />

−<br />

(<br />

+<br />

F ( z)<br />

Rb<br />

( z)<br />

− R<br />

Sb<br />

( z)<br />

≡ = (<br />

−<br />

F ( z)<br />

R ( z)<br />

+ R<br />

Da _ b(z) positiv-reell ist, ist S b(z) e<strong>in</strong>e Schur-Funktion 26 [Smith, 2000]: |S b(z)| ≤ 1 für |z| ≤ 1.<br />

Schur-Funktionen werden zu Allpaßfiltern, wenn die Dämpfung gegen Null geht. Sie<br />

verstärken ke<strong>in</strong>e Frequenzbereiche, so daß die Stabilität der Rückkopplungsschleife nicht<br />

gefährdet wird. Reflexionsfilter haben immer e<strong>in</strong>e gerade Anzahl an Polen <strong>und</strong> Nullstellen,<br />

was man auch aus obiger Gleichung herauslesen kann.<br />

Die Reflexions-Transferfunktion S b(z) wurde für Kraftwellen def<strong>in</strong>iert. Wächst die<br />

Impedanzfunktion des Steges gegen unendlich, wird die Verb<strong>in</strong>dung zwischen Saite <strong>und</strong><br />

Steg starr <strong>und</strong> S b(z) erreicht den Wert 1 - e<strong>in</strong> Ergebnis, das mit der Analyse steifer<br />

26 E<strong>in</strong>e Schur-Funktion S(z) ist def<strong>in</strong>iert als e<strong>in</strong>e komplexe analytische Funktion, wobei z beschränkt<br />

ist auf |z| ≤ 1. Die Funktion S(z) ≡ (1-R(z)) / (1+R(z)) ist e<strong>in</strong>e Schur-Funktion, wenn <strong>und</strong> nur wenn<br />

R(z) positiv real ist.<br />

Onl<strong>in</strong>e-Version 1.0 58<br />

b<br />

( 3.<br />

51)<br />

(<br />

3.<br />

52)<br />

( 3.<br />

53)


DIPLOMARBEIT HENRI HAGENOW<br />

Endpunkte übere<strong>in</strong>stimmt. Da die typischen Instrumentenbrücken sehr fest s<strong>in</strong>d, ist der<br />

Wert der Reflexions-Transferfunktion <strong>in</strong> praktischen Anwendungen meist S b(z) ≈ 1.<br />

Ähnliches gilt für den Fall, wenn die Brückenimpedanz gegen Null geht. S b(z) geht dann<br />

gegen –1, was mit der Physik e<strong>in</strong>er Saite mit e<strong>in</strong>em freien Ende übere<strong>in</strong>stimmt. In allen<br />

Fällen gilt: |S b(e jωT )| ≤ 1 für alle ω.<br />

Die Geschw<strong>in</strong>digkeitswellen-Version der Brückenreflexions-Transferfunktion folgt aus der<br />

Kraftwellen-Reflektanz wie folgt:<br />

ist also e<strong>in</strong>fach die negative Kraftwellen-Brückenreflexions-Transferfunktion.<br />

Die Reflexions-Transferfunktion S b(z) spezifiziert die Reflexionsanteile der e<strong>in</strong>zelnen<br />

Frequenzen am Steg Die Transmissions-Transferfunktion oder auch ‚Transmittanz‘ ist das<br />

Komplement zu S b(z). Es gilt V b(z) / V + (z) = 1 - S b(z) für Geschw<strong>in</strong>digkeitswellen <strong>und</strong><br />

F b(z) / F + (z) = 1 + S b(z) für Kraftwellen. Addiert man die reflektierte <strong>und</strong> transmittierte<br />

Leistung, so erhält man entsprechend der Energieerhaltung den Wert 1 [Smith, 2000].<br />

3.6 Kopplungsersche<strong>in</strong>ungen<br />

In e<strong>in</strong>er realistischen digitalen Implementierung e<strong>in</strong>es Saiten<strong>in</strong>strumentes darf das<br />

Phänomen der Kopplung nicht ignoriert werden. Kopplungseffekte be<strong>in</strong>halten hörbare<br />

Ersche<strong>in</strong>ungen im Klangspektrum, wie die Modulation der Amplitudenhüllkurven e<strong>in</strong>zelner<br />

Obertöne, die sich auf Schwebungen zwischen zwei oder mehreren gekoppelten<br />

Schw<strong>in</strong>gungsmoden zurückführen lassen, Zwei-Phasen-Abkl<strong>in</strong>gverhalten (two-stage decay,<br />

s.u.) <strong>und</strong> sogenanntes ‚Nachkl<strong>in</strong>gen‘ [We<strong>in</strong>reich, 1977]. Kopplung kann zwischen zwei oder<br />

mehreren Saiten, aber auch zwischen den Polarisationsebenen e<strong>in</strong>er e<strong>in</strong>zigen Saite<br />

stattf<strong>in</strong>den.<br />

Implementiert man nur e<strong>in</strong>en e<strong>in</strong>zigen Wellenleiter zur digitalen Synthese des Klanges e<strong>in</strong>er<br />

Saitenschw<strong>in</strong>gung, erhält man e<strong>in</strong> qualitativ noch recht schlechtes Klangbild, da hier die<br />

verschiedenen Kopplungsmechanismen der natürlichen Saiten<strong>in</strong>strumente noch nicht<br />

berücksichtigt werden. Die Obertöne im Klang gekoppelter Saiten bilden mit ihren<br />

<strong>in</strong>terssanteren Amplitudenhüllkurven e<strong>in</strong> lebendiges Klangbild. In e<strong>in</strong>er realen Saite<br />

existieren im allgeme<strong>in</strong>en zwei orthogonale transversale Schw<strong>in</strong>gungsebenen, die<br />

gegenseitig <strong>in</strong>tr<strong>in</strong>sisch mite<strong>in</strong>ander gekoppelt s<strong>in</strong>d [Hanson, 1994]. Ebenso besteht auch<br />

e<strong>in</strong>e <strong>in</strong>tr<strong>in</strong>sische Kopplung zwischen transversalen Schw<strong>in</strong>gungswellen <strong>und</strong> longitud<strong>in</strong>alen<br />

Onl<strong>in</strong>e-Version 1.0<br />

V<br />

V<br />

+<br />

−<br />

( z)<br />

( z)<br />

+<br />

F ( z)<br />

/ R<br />

= −Sb<br />

( z)<br />

− F ( z)<br />

/ R<br />

= −<br />

59<br />

(<br />

3.<br />

54)


DIPLOMARBEIT HENRI HAGENOW<br />

Wellen [Elmore&Heald, 1969]. Die bisher betrachteten transversalen Wellen repräsentierten<br />

nur Schw<strong>in</strong>gungen <strong>in</strong> der x-y-Ebene – die vertikale Polarisation transversaler<br />

Saitenschw<strong>in</strong>gungen. Um e<strong>in</strong>e reale Saite zu modellieren, benötigt man zusätzlich noch<br />

transversale Wellen <strong>in</strong> der x-z-Ebene, also horizontale Polarisation. Jede Polarisation<br />

transversaler Wanderwellen kann durch e<strong>in</strong>e L<strong>in</strong>earkomb<strong>in</strong>ation horizontaler <strong>und</strong> vertikaler<br />

Polarisationen dargestellt werden.<br />

S<strong>in</strong>d die Saitenenden starr, so ist die horizontale Polarisation unabhängig von der vertikalen<br />

Polarisation. In diesem Fall wird für die horizontale Schw<strong>in</strong>gungsebene e<strong>in</strong>e eigene<br />

Rückkopplungsschleife implementiert, die identisch ist mit der für die Simulation vertikaler<br />

Wellen. Der kle<strong>in</strong>e Grad der nichtl<strong>in</strong>earen Kopplung zwischen den horizontalen <strong>und</strong><br />

vertikalen Wanderwellen, der auftritt, wenn die Ortsableitung der Saitenauslenkung sehr viel<br />

kle<strong>in</strong>er als E<strong>in</strong>s ist, wird vernachlässigt [Elmore&Heald, 1969]. In akustischen<br />

Saiten<strong>in</strong>strumenten ist allerd<strong>in</strong>gs ke<strong>in</strong>e schw<strong>in</strong>gende Saite absolut starr e<strong>in</strong>gespannt, da<br />

e<strong>in</strong>e solche Konstruktion den Klangkörper nicht zur Klangabstrahlung br<strong>in</strong>gen würde 27 .<br />

H<strong>in</strong>zu kommt, daß vertikale <strong>und</strong> horizontale transversale Wellen unterschiedlich stark über<br />

den Steg übertragen werden.<br />

Die Brückenadmittanz e<strong>in</strong>es Pianos zum Beispiel ist <strong>in</strong> vertikaler Richtung wesentlich<br />

größer als <strong>in</strong> horizontaler Richtung, was die Horizontalkomponente langsamer abkl<strong>in</strong>gen<br />

läßt, als die vertikale Schw<strong>in</strong>gungskomponente. Dies erhöht die Energietransferrate der<br />

vertikalen Schw<strong>in</strong>gungsmoden der Saite auf den Steg [We<strong>in</strong>reich, 1977]. Die hörbare<br />

Konsequenz dieser ungleichen Abkl<strong>in</strong>graten ist e<strong>in</strong>e zweiphasige Amplitudenhüllkurve des<br />

Ausklangbereiches e<strong>in</strong>es Tones (two-stage decay, siehe Abb. 3.20). Das anfänglich<br />

schnelle Abkl<strong>in</strong>gen gibt der gespielten Note e<strong>in</strong>en starken Ansatz, während der langsame<br />

späte Abfall den anhaltenden Nachklang unterstützt [Askenfelt, 1990; Kapitel We<strong>in</strong>reich].<br />

Die Kopplung der horizontalen <strong>und</strong> vertikalen Moden geschieht über den Steg. Das<br />

natürliche Modell der über den Steg gekoppelten orthogonalen Polarisationen ist dasselbe,<br />

wie das für zwei vertikale Polarisationen der Schw<strong>in</strong>gungen auf zwei verschiedenen Saiten<br />

(siehe Abschnitt 3.7).<br />

27 Elektrische Gitarren mit magnetischen Tonabnehmern haben fast starre Saitenenden, aber selbst<br />

<strong>in</strong> solche Fällen können Kopplungsphänomene beobachtet werden, besonders oberhalb der<br />

sechsten Harmonischen [Smith, 2000].<br />

Onl<strong>in</strong>e-Version 1.0 60


DIPLOMARBEIT HENRI HAGENOW<br />

Abb. 3.20: Teilabbildung a) zeigt das typisches Abkl<strong>in</strong>gverhalten e<strong>in</strong>es Klaviertones<br />

(Eb3 = 311 Hz). Der Abkl<strong>in</strong>gprozeß wird <strong>in</strong> zwei Teile unterteilt: Der sogenannte<br />

‚Attack‘ mit e<strong>in</strong>em schnellen Abkl<strong>in</strong>gen (‚prompt so<strong>und</strong>‘) gefolgt von e<strong>in</strong>em<br />

anhaltenden Teil mit langsamem Abkl<strong>in</strong>gen (‚afterso<strong>und</strong>‘). In Teilabbildung b) sieht<br />

man den Schalldruckpegelabfall des gleichen Tones wie <strong>in</strong> a) bei e<strong>in</strong>er anderen Mikrofonposition.<br />

E<strong>in</strong> Vergleich mit a) läßt das Vorhandense<strong>in</strong> von zwei Klangkomponenten<br />

erkennen, die durch die vertikalen <strong>und</strong> horizontalen Stegbewegungen abgestrahlt<br />

werden. Die Schnittpunkte der Teilsteigungen beider Komponenten haben<br />

die gleichen Schalldruckpegel; <strong>in</strong> diesem Bereich variiert der resultierende Schalldruck<br />

stark mit der Mikrofonposition (Abb. aus [We<strong>in</strong>reich, 1977])<br />

3.6.1 Longitud<strong>in</strong>ale Wellen<br />

Zusätzlich zu transversalen Wellen s<strong>in</strong>d auf e<strong>in</strong>er schw<strong>in</strong>genden Saite auch longitud<strong>in</strong>ale<br />

Wellen vorhanden. Diese be<strong>in</strong>halten die gesamte potentielle Energie der transversalen<br />

Wellen <strong>und</strong> tragen den Impuls <strong>in</strong> Richtung der Ausbreitung der transversalen Wanderwellen<br />

[Elmore&Heald, 1969]. Longitud<strong>in</strong>ale Wellen <strong>in</strong> Saiten besitzen e<strong>in</strong>e um Größenordnungen<br />

höhere Ausbreitungsgeschw<strong>in</strong>digkeit, als transversale Wellen auf derselben Saite, die sich<br />

auch bei Variation der Saitenspannung nur wenig ändert. Sie s<strong>in</strong>d gegenüber den<br />

longitud<strong>in</strong>alen Wellen verstimmt. Diesem Umstand müßte man <strong>in</strong> e<strong>in</strong>er digitalen<br />

Implementierung durch e<strong>in</strong>e Verkürzung der Verzögerungszeiten <strong>in</strong> den jeweiligen<br />

Rückkopplungsschleifen Rechnung tragen.<br />

Longitud<strong>in</strong>ale Wellen werden <strong>in</strong> der Viol<strong>in</strong>enakustik häufig vernachlässigt, da ihre Kopplung<br />

mit dem Korpus über den Steg sehr leistungsschwach ist. Beim Piano s<strong>in</strong>d die<br />

longitud<strong>in</strong>alen Wellen sogar hörbar [Askenfelt, 1990; Kapitel Conkl<strong>in</strong>].<br />

Onl<strong>in</strong>e-Version 1.0<br />

61


DIPLOMARBEIT HENRI HAGENOW<br />

3.6.2 Torsionswellen<br />

Geht man davon aus, daß die Saite e<strong>in</strong>e endliche Ausdehnung (e<strong>in</strong>en Radius a) hat, so<br />

muß man e<strong>in</strong>en weiteren Freiheitsgrad der Wellenpolarität berücksichtigen. Beim<br />

Anstreichen e<strong>in</strong>er Saite tritt die Reibungskraft des Bogens auf die Saite am Kontaktpunkt<br />

zwischen Bogen <strong>und</strong> Saite auf. Die Kraft der Massenelemente der Saite wirkt aber auf die<br />

Saitenachse, also auf den Massenmittelpunkt. Dadurch entsteht e<strong>in</strong> von der Kraft<br />

abhängiges Drehmoment M, das e<strong>in</strong>en Teil der Energie <strong>in</strong> Torsionswellen überführt (Abb.<br />

3.21). Die Fortpflanzungsgeschw<strong>in</strong>digkeit dieser Wellen ist - abhängig von Material <strong>und</strong><br />

Stärke der Saite - ungefähr um den Faktor vier größer als die der transversalen Wellen<br />

[Schelleng, 1973]. Auch die Impedanz der Saite für Torsionswellen unterscheidet sich von<br />

der transversaler Wellen.<br />

Abb. 3.21: Darstellung des Querschnitts e<strong>in</strong>er mit der Kraft F B angestrichenen<br />

Viol<strong>in</strong>ensaite zur Veranschaulichung des Entstehungsprozesses des<br />

zu Torsionsschw<strong>in</strong>gungen führenden Drehmoments M.<br />

Die E<strong>in</strong>beziehung der Torsionswellen <strong>in</strong> das Instrumentenmodell erfordert eigentlich e<strong>in</strong>e<br />

Implementierung weiterer Verzögerungsleitungen, deren Verzögerungszeiten entsprechend<br />

der größeren Wellenausbreitungsgeschw<strong>in</strong>digkeit kürzer se<strong>in</strong> müßten als die der<br />

transversalen Verzögerungsleiter. Auch ihr Reflexionsverhalten unterscheidet sich; der<br />

Reflexionsfilter im Torsionswellenleiter würde e<strong>in</strong>e eigene Reflexionsfunktion<br />

beanspruchen.<br />

Im weiteren Verlauf dieser Arbeit werden die Torsionswellen als für den Klangverlauf<br />

unwesentlich angenommen <strong>und</strong> vernachlässigt.<br />

3.7 Die Kopplung mehrerer Saiten über den Steg<br />

Alle Saiten e<strong>in</strong>es Saiten<strong>in</strong>strumentes (Gitarre, Viol<strong>in</strong>e, Piano usw.) s<strong>in</strong>d über denselben<br />

Steg an e<strong>in</strong>en Resonanzkörper gekoppelt. Diese geme<strong>in</strong>same Verb<strong>in</strong>dung führt zu e<strong>in</strong>er<br />

Kopplung der Saiten untere<strong>in</strong>ander. Die Kopplung der Saiten über den Steg erzeugt e<strong>in</strong>e<br />

Onl<strong>in</strong>e-Version 1.0 62


DIPLOMARBEIT HENRI HAGENOW<br />

Modulation der partialen Amplitudenhüllkurven <strong>und</strong> e<strong>in</strong>en zweistufigen Ausklang (two-stage<br />

decay, siehe Abb. 3.20) [We<strong>in</strong>reich, 1977]. Physikalisch resultiert dies aus der Kopplung<br />

zwischen der horizontalen <strong>und</strong> vertikalen Polarisation der Schw<strong>in</strong>gungen <strong>in</strong>nerhalb<br />

derselben Saite <strong>und</strong> der Kopplung zwischen den verschiedenen Saiten des betreffenden<br />

Instrumentes (siehe auch Abschnitt 3.6).<br />

Die Bewegung des Steges, die aus der Saitenschw<strong>in</strong>gung resultiert, erzeugt Wanderwellen<br />

<strong>in</strong> allen anderen Saiten, die mit dem Steg <strong>in</strong> Verb<strong>in</strong>dung stehen. Im e<strong>in</strong>fachsten Fall der<br />

Implementierung des Steges s<strong>in</strong>d diese Wellen <strong>in</strong> allen angekoppelten Saiten identisch.<br />

E<strong>in</strong>e e<strong>in</strong>fache Simulation von gekoppelten Saiten erhält man durch Summation zweier oder<br />

mehrerer leicht gegene<strong>in</strong>ander verstimmter Saiten-Implementierungen. E<strong>in</strong>e bessere<br />

Simulation erreicht man nur durch e<strong>in</strong>en Signalfluß zwischen allen gekoppelten Saiten.<br />

3.7.1 Kopplung zweier Saiten<br />

Abb. 3.23 zeigt die Kopplung zweier Saiten, implementiert als Verb<strong>in</strong>dung zweier<br />

Wellenleiter. Am Verb<strong>in</strong>dungspunkt besitzt der durch die Saite bewegte Steg die<br />

transversale ‚driv<strong>in</strong>g-po<strong>in</strong>t‘-Impedanz R b(s) (siehe auch Abschnitt 3.5.7); er stellt die<br />

Verb<strong>in</strong>dung zwischen den Saiten her.<br />

Abb. 3.23: Darstellung zweier Saiten, die über e<strong>in</strong>e geme<strong>in</strong>same Brückenimpedanz<br />

mite<strong>in</strong>ander verb<strong>und</strong>en s<strong>in</strong>d (Abb. aus [Smith, 2000]).<br />

Für e<strong>in</strong>e direkte Ableitung muß man nur sicherstellen, daß die Saitengeschw<strong>in</strong>digkeiten an<br />

den jeweiligen Endpunkten der Saiten identisch mit der Geschw<strong>in</strong>digkeit der Brücke s<strong>in</strong>d<br />

(v 1 = v 2 = v b) <strong>und</strong> daß die Summe der Kräfte beider Saiten der Gesamtkraft gleicht, die auf<br />

die Brücke wirkt (f b = f 1 + f 2). Die Stegimpedanz steht <strong>in</strong> Beziehung zu Kraft <strong>und</strong><br />

Geschw<strong>in</strong>digkeit über die Relation F b(s) = R b(s)⋅V b(s). Transformiert man die<br />

Wanderwellenvariablen <strong>in</strong> den Laplace-Raum, so erhält man<br />

Onl<strong>in</strong>e-Version 1.0<br />

63


DIPLOMARBEIT HENRI HAGENOW<br />

oder<br />

Rb b<br />

Vb b<br />

( s)<br />

V ( s)<br />

= F ( s)<br />

= F ( s)<br />

+ F ( s)<br />

= [ F<br />

+<br />

1<br />

= R [ V<br />

( s)<br />

+ F<br />

( s)]<br />

+ [ F<br />

( s)<br />

− ( V ( s)<br />

− V ( s))]<br />

+ R [ V<br />

Onl<strong>in</strong>e-Version 1.0 64<br />

b<br />

1<br />

( s)<br />

+ F<br />

mit<br />

wobei R i (i = 1,2) die Wellenimpedanz der i-ten Saite ist.<br />

Um die Geschw<strong>in</strong>digkeit v b(t) des Steges <strong>in</strong> der Zeitebene zu ermitteln, werden die<br />

e<strong>in</strong>gehenden Geschw<strong>in</strong>digkeitswellen durch ihre jeweiligen Impedanzen skaliert, addiert<br />

<strong>und</strong> entsprechend der Transferfunktion H b = 2 / (R b(s)+R 1+R 2) gefiltert 28 . Die ausgegebenen<br />

Geschw<strong>in</strong>digkeitswanderwellen s<strong>in</strong>d dann gegeben durch<br />

+<br />

1<br />

( s)<br />

= H ( s)[<br />

R1V<br />

1 ( s)<br />

+ R2V2<br />

+<br />

Letztendlich wird von den e<strong>in</strong>gehenden Geschw<strong>in</strong>digkeitswellen die<br />

Brückengeschw<strong>in</strong>digkeit subtrahiert, um die ausgehenden Wellen zu erhalten. Die<br />

Kopplung von mehr als zwei Saiten wird im Anhang A8 behandelt.<br />

1<br />

v<br />

v<br />

+<br />

−<br />

1<br />

b<br />

( s)]<br />

−<br />

1<br />

−<br />

2<br />

2<br />

+<br />

2<br />

+<br />

1<br />

( t)<br />

= v ( t)<br />

− v<br />

b<br />

( t)<br />

= v ( t)<br />

− v<br />

b<br />

( s)<br />

− ( V ( s)<br />

−V<br />

( s))]<br />

28<br />

Da V2 - + + +<br />

(s) = H b(s)R1V1 (s) = Hb(s)F1 (s) ist, wenn V1 (s) = 0 <strong>und</strong> umgekehrt bei Vertauschung der<br />

Saiten 1 <strong>und</strong> 2, läßt sich Hb(s) als zur Brückenkopplung gehörigen Transmissions-Admittanzfilter<br />

<strong>in</strong>terpretieren oder als Brücken-Admittanz-Transferfunktion von jeder Saite, da der Ausgabewert die<br />

Brückengeschw<strong>in</strong>digkeit ist, die aus der Summe der auftreffenden Kraftwanderwellen resultiert.<br />

+<br />

1<br />

+<br />

2<br />

( t)<br />

−<br />

2<br />

( t)<br />

( s)]<br />

2<br />

+<br />

2<br />

b<br />

+<br />

2<br />

2<br />

H b(<br />

s)<br />

≡<br />

R ( s)<br />

+ R + R<br />

b<br />

1<br />

2<br />

( 3.<br />

55)<br />

( 3.<br />

56)<br />

(<br />

3.<br />

57)


DIPLOMARBEIT HENRI HAGENOW<br />

4. Analogien zu optischen Systemen<br />

Nicht nur <strong>in</strong> der Elektronik <strong>und</strong> der Akustik ist die gezielte Wellenformgestaltung durch<br />

E<strong>in</strong>flußnahme auf das Signalspektrum möglich. Auch <strong>in</strong> der Optik gibt es Möglichkeiten zur<br />

Signalformgestaltung. E<strong>in</strong> Beispiel hierfür ist das sogenannte ‚Puls Shap<strong>in</strong>g‘.<br />

4.1 Wellenformsynthese <strong>in</strong> der Optik durch ‚Puls Shap<strong>in</strong>g‘ ultrakurzer Laserpulse<br />

Neben den fortlaufenden Weiterentwicklungen zur Verkürzung von Laserpulsen <strong>in</strong> den<br />

Pico- <strong>und</strong> Femtosek<strong>und</strong>enbereich ist es für viele Anwendungen <strong>in</strong>teressant, die Pulse nicht<br />

nur <strong>in</strong> ihrer zeitlichen Dauer, sondern auch <strong>in</strong> ihrem zeitlichen Intensitätsverlauf zu steuern.<br />

Beim ‚Puls Shap<strong>in</strong>g‘ handelt es sich um e<strong>in</strong> Verfahren, mit dessen Hilfe die<br />

Intensitätshüllkurve von Ultrakurzzeit-Laserpulsen gezielt verformt werden kann. Hierzu<br />

wurden <strong>in</strong> den letzten Jahren verschiedene Techniken entwickelt. E<strong>in</strong>ige dieser Techniken<br />

modulieren die Wellenform direkt im Zeitbereich [Haner&Warren, 1988], andere wenden<br />

holographische Filterkonzepte an [Hill&Brady, 1993]. Die meistgenutzte Methode zur<br />

gezielten Pulsverformung ist jedoch die passive Filterung e<strong>in</strong>es E<strong>in</strong>gangspulses im<br />

Frequenzraum [We<strong>in</strong>er et.al., 1988; Heritage et.al., 1985; Emplit et.al., 1992]. Der<br />

Versuchsaufbau e<strong>in</strong>er möglichen Realisierung der gezielten Verformung der<br />

Intensitätshüllkurve e<strong>in</strong>es kurzen Laserpulses ist <strong>in</strong> Abb. 4.1 dargestellt <strong>und</strong> wird im<br />

Folgenden beschrieben.<br />

Abb. 4.1: Darstellung e<strong>in</strong>es möglichen Versuchsaufbaus zur gezielten Formung<br />

ultrakurzer Laserpulse mit Hilfe computergesteuerter passiver Frequenzfilter.<br />

Onl<strong>in</strong>e-Version 1.0<br />

65


DIPLOMARBEIT HENRI HAGENOW<br />

E<strong>in</strong> ultrakurzer Laserpuls wird durch e<strong>in</strong> optisches Gitter <strong>in</strong> se<strong>in</strong> Spektrum zerlegt. Die<br />

Strahlengänge der spektralen Anteile werden durch entsprechende L<strong>in</strong>sen parallelisiert <strong>und</strong><br />

durch e<strong>in</strong> optisches Filter geleitet, das z.B. aus e<strong>in</strong>em computergesteuerten LC-Display<br />

besteht. Mit Hilfe des Computers kann man im vorgestellten Fall nun spezielle Bereiche des<br />

LCDs ‚schwärzen‘ <strong>und</strong> so bestimmte Spektralanteile um e<strong>in</strong>en gewünschten Betrag<br />

phasenverzögert passieren lassen. Nachdem das spektral aufgespaltene Licht den Filter<br />

passiert hat, wird es wieder zu e<strong>in</strong>em Strahl zusammengefügt. Der so entstandene<br />

Ausgangsimpuls besitzt nun den nach Fourier zu erwartenden, von den<br />

Phasenbeziehungen der Spektralanteile abhängigen, zeitlichen Intensitätsverlauf. E<strong>in</strong><br />

Beispiel für den Intensitätsverlauf e<strong>in</strong>es auf diese Weise verformten 80 fs TiSa Laserpulses<br />

bei 770 nm ist <strong>in</strong> Abb. 4.2 zu sehen.<br />

Abb. 4.2: Darstellung e<strong>in</strong>es verformten ‚ungechirpten‘ 80 fs TiSa Laserpulses bei<br />

770 nm. Die Pulsform wurde mit zeit- <strong>und</strong> wellenlängenkorrigierter Kreuz-Korrelationstechnik<br />

gemessen. (Abb. aus [Wöste, 2001])<br />

Der Bereich der möglichen Impulsprofile wird hauptsächlich durch die durch den<br />

E<strong>in</strong>gangsimpuls vorgegebene spektrale Bandbreite, die Auflösung des benutzten Filters<br />

<strong>und</strong> die Vorgabe der größten zu akzeptierenden zeitlichen Pulsverlängerung vorgegeben.<br />

E<strong>in</strong>e mögliche Anwendung f<strong>in</strong>det dieses Verfahren z.B. <strong>in</strong> der Femtochemie, die den Ablauf<br />

chemischer Reaktionen <strong>in</strong> Zeitbereichen weniger Femtosek<strong>und</strong>en untersucht - der Zeitskala<br />

weniger Atombewegungen [Kiefer et. al., 2000]. Hier erhoffen sich die Forscher unter<br />

Verwendung der ‚Puls Shap<strong>in</strong>g‘-Methode die Abläufe auf molekularer Ebene gezielt steuern<br />

zu können, um e<strong>in</strong>e effiziente Synthese chemischer Verb<strong>in</strong>dungen unter gleichzeitiger<br />

Reduzierung unerwünschter <strong>und</strong> eventuell schädlicher Nebenprodukte zu verwirklichen.<br />

Onl<strong>in</strong>e-Version 1.0 66


DIPLOMARBEIT HENRI HAGENOW<br />

5. Digitale Implementierung virtuell-elektronischer Schaltungen zur Simulation<br />

mehrdimensionaler akustischer Systeme<br />

Im Folgenden werden <strong>in</strong>nerhalb der modularen Programmierumgebung ‚Reaktor‘ (Version<br />

2.3) digitale Modelle der akustischen Musik<strong>in</strong>strumente ‚Viol<strong>in</strong>e‘ <strong>und</strong> ‚Flöte‘ implementiert.<br />

‚Reaktor‘ stellt signalgenerierende <strong>und</strong> –verarbeitende Module zur Verfügung, die die<br />

Physik analoger elektronischer Schaltungen simulieren. Zur Erzeugung <strong>und</strong> Bearbeitung<br />

der Klangsignale werden also die Eigenzustände virtuell-elektronischer Systeme genutzt.<br />

Abschnitt 5.1 beschäftigt sich mit der Implementierung e<strong>in</strong>es Wellenleitermodells zur<br />

Simulation von Viol<strong>in</strong>enklängen. In Abschnitt 5.2 werden drei unterschiedliche<br />

<strong>Klangsynthese</strong>methoden zur Generierung e<strong>in</strong>es Flötenklanges gegenübergestellt (additive<br />

Synthese, Synthese durch Frequenzmodulation, Wellenleitersynthese).<br />

Abb. 5.1: Schematische Darstellung des <strong>in</strong> ‚Reaktor‘ implementierten<br />

Wellenleitermodells e<strong>in</strong>er Viol<strong>in</strong>e.<br />

5.1 Implementierung des Wellenleitermodells e<strong>in</strong>er Viol<strong>in</strong>e<br />

In diesem Abschnitt wird e<strong>in</strong> Wellenleitermodell zur Erzeugung von Viol<strong>in</strong>enklängen<br />

konstruiert. Hierzu wird der Klangentstehungsprozeß <strong>in</strong>nerhalb der Geige <strong>in</strong> e<strong>in</strong>zelne<br />

Bereiche unterteilt <strong>und</strong> diese unter idealisierten Bed<strong>in</strong>gungen <strong>in</strong> der Programmierumgebung<br />

‚Reaktor‘ als sogenannte ‚Makros' 29 implementiert. Die Makros werden dann nache<strong>in</strong>ander<br />

zusammengefügt, um auf diese Weise e<strong>in</strong>e schrittweise Annäherung an die realen<br />

29 Makros fassen Funktionsblöcke zusammen, um e<strong>in</strong>e hierarchische Struktur <strong>und</strong> damit e<strong>in</strong>en<br />

übersichtlichen Aufbau komplexer Strukturen zu ermöglichen. Die Makros be<strong>in</strong>halten<br />

Basisschaltungen, die das idealisierte physikalische Verhalten der Teilkomponenten des<br />

Instrumentenmodells simulieren.<br />

Onl<strong>in</strong>e-Version 1.0<br />

67


DIPLOMARBEIT HENRI HAGENOW<br />

physikalischen Prozesse zu erreichen. E<strong>in</strong>e schematische Darstellung der Gr<strong>und</strong>struktur<br />

des konstruierten ‚Reaktor‘-Instrumentes f<strong>in</strong>det sich <strong>in</strong> Abb. 5.1 Die theoretischen Gr<strong>und</strong>-<br />

lagen zu den implementierten Signalverarbeitungsalgorithmen f<strong>in</strong>den sich <strong>in</strong> Kapitel 3.<br />

5.1.1 Das Geigenmodell<br />

Zur Funktionsweise <strong>und</strong> den Modellen der Klangentstehung bei der Viol<strong>in</strong>e verweise ich auf<br />

[Cremer, 1984] <strong>und</strong> me<strong>in</strong>e Studienarbeit [Hagenow, 2000], sowie auf die dar<strong>in</strong> enthaltene<br />

umfangreiche Literaturliste. E<strong>in</strong> Modell zur Beschreibung e<strong>in</strong>er gestrichenen Saite wurde<br />

schon im 19. Jahrh<strong>und</strong>ert von Hermann von Helmholtz entwickelt [Helmoltz, 1863]. 1918<br />

formulierte Raman e<strong>in</strong> Modell für die Saite <strong>und</strong> ihre Wechselnwirkung mit dem<br />

Geigenbogen, welches im wesentlichen für die <strong>Klangsynthese</strong> mit digitalen Wellenleitern<br />

genutzt wird [Raman, 1918]. E<strong>in</strong>e kurze Zusammenfassung der Gr<strong>und</strong>pr<strong>in</strong>zipien der beiden<br />

Geigenmodelle wird <strong>in</strong> Anhang A9 vorgestellt.<br />

5.1.2 Die Implementierung des Modells der starr e<strong>in</strong>gespannten Saite<br />

In Abb. 5.2 ist das <strong>in</strong> ‚Reaktor‘ implementierte Modell e<strong>in</strong>er e<strong>in</strong>gespannten Saite, wie es <strong>in</strong><br />

Abschnitt 3.5.1 theoretisch beschrieben wurde, schematisch dargestellt. Die äußere<br />

Anregung des Systems erfolgt vorerst durch die E<strong>in</strong>speisung e<strong>in</strong>es Impulses δ(n), der mit<br />

Hilfe e<strong>in</strong>es Impulsgeneratormoduls erzeugt wird.<br />

Abb. 5.2: Schematische Darstellung der Implementierung des digitalen<br />

bidirektionalen Wellenleitermodells. Die Position der Anregung auf der<br />

Saite teilt diese <strong>in</strong> e<strong>in</strong> l<strong>in</strong>kes <strong>und</strong> e<strong>in</strong> rechtes Saitensegment, die getrennt<br />

vone<strong>in</strong>ander modelliert werden. Als Anregung des Systems dient das Signal<br />

e<strong>in</strong>es digitalen Impulsgenerators.<br />

Der Impuls entspricht der Anfangsgeschw<strong>in</strong>digkeit ∂y(x,t 0)/∂t beim Anzupfen der Saite. Um<br />

die spitze Ecke der Saitenform abzuschwächen, wird dem Impulsgenerator e<strong>in</strong> Tiefpaßfilter<br />

nachgeschaltet. Mit diesem läßt sich die Saite nun je nach Grenzfrequenz scharf (Plektrum)<br />

Onl<strong>in</strong>e-Version 1.0 68


DIPLOMARBEIT HENRI HAGENOW<br />

oder sanft (F<strong>in</strong>ger) anzupfen bzw. verschiedene Spieldynamiken simulieren (piano, forte<br />

usw.).<br />

In Abb. 5.3 ist das implementierte bidirektionale Wellenleitermodell detaillierter dargestellt.<br />

Jedes Saitenelement wird durch zwei Verzögerungsleiter simuliert, wobei jeweils e<strong>in</strong><br />

Verzögerer für die Simulation der Teilstrecken vor <strong>und</strong> nach der <strong>in</strong>vertierenden Reflexion an<br />

den Saitenenden verantwortlich ist. Die E<strong>in</strong>zelverzögerungszeiten der<br />

Verzögerungselemente, die die beiden Saitenelemente simulieren, entsprechen den<br />

Laufzeiten des Impulses von der Anzupfstelle zum Steg bzw. zur Nut <strong>und</strong> wieder zurück.<br />

Die Position β des zupfenden F<strong>in</strong>gers oder Plektrums auf der Saite kann durch die<br />

Variation der Verzögerungszeiten t i +/- (i = 1,2) verändert werden (sieh Abb. 5.4). Dies hat<br />

E<strong>in</strong>fluß auf den entstehenden Klang, da die Anzupfstelle zu den Randbed<strong>in</strong>gungen gehört<br />

<strong>und</strong> den Raum der möglichen E<strong>in</strong>genzustände e<strong>in</strong>schränkt: Am Ort der Anregung kann es<br />

ke<strong>in</strong>e Schw<strong>in</strong>gungsknoten geben. Teilwellen mit Knoten am Anregungspunkt <strong>und</strong> alle<br />

Schw<strong>in</strong>gungen, deren Frequenz e<strong>in</strong>em natürlichen Vielfachen derselben entsprechen, s<strong>in</strong>d<br />

im Spektrum des enstehenden Tones nicht mehr vorhanden.<br />

Bei der Variation der Anzupfstelle ist darauf zu achten, daß die Gesamtverzögerungszeit<br />

konstant bleibt: t F = t 1 - + t2 - . Hierbei entspricht die Gesamtverzögerungszeit tF der halben<br />

Periodendauer des entstehenden Tones. t 1,2 - s<strong>in</strong>d die E<strong>in</strong>zelverzögerungszeiten der durch<br />

die Anzupfstelle <strong>in</strong> zwei Bereiche aufgeteilten Saite. Die Indizes +/- entsprechen den<br />

Laufrichtungen des Impulses auf der Saite, wobei e<strong>in</strong> M<strong>in</strong>us ‚aus der Anregung h<strong>in</strong>aus‘ <strong>und</strong><br />

e<strong>in</strong> Plus ‚<strong>in</strong> die Anregung h<strong>in</strong>e<strong>in</strong>‘ bedeutet. Es gilt t 1 -/+ = t2 +/- . Die ‚Anregung‘ kann je nach<br />

Vorgabe der Anregungsfunktion, e<strong>in</strong> F<strong>in</strong>ger, e<strong>in</strong> Plektrum oder auch e<strong>in</strong> Geigenbogen se<strong>in</strong>.<br />

Die Implementierung der Variation der Anregungsstelle wird <strong>in</strong> Abb. 5.4 veranschaulicht.<br />

Durch die Wahl des Parameters β ∈ [0,1] werden die e<strong>in</strong>zelnen Verzögerungszeiten t 1,2 -/+<br />

der <strong>in</strong> Abb. 5.3 dargestellten Verzögerungselemente berechnet. ß läßt sich sowohl über<br />

virtuelle Schieberegler variieren, als auch über extern an die MIDI 30 -Schnittstelle des<br />

Computers angeschlossene E<strong>in</strong>gabegeräte.<br />

Die beiden Reflexionsstellen (Nut, Steg) <strong>in</strong>vertieren die Amplituden der Teilwellen <strong>und</strong><br />

absorbieren e<strong>in</strong>en gewissen Energieanteil bei jeder Reflexion. Die Beträge der beiden<br />

Absorptionsparameter α 1,2 ∈ [0,1] bestimmen die Abkl<strong>in</strong>gdauer des Tones. Sie sollten<br />

immer kle<strong>in</strong>er als e<strong>in</strong>s bleiben, um die Systemstabilität zu gewährleisten.<br />

30 MIDI bedeutet ‚<strong>Music</strong>al Instrument Digital Interface‘ <strong>und</strong> ist der derzeitige Standard zur Steuerung<br />

elektronischer Musik<strong>in</strong>strumente.<br />

Onl<strong>in</strong>e-Version 1.0<br />

69


DIPLOMARBEIT HENRI HAGENOW<br />

Diese Nachbildung der Reflexionseigenschaften an der Nut <strong>und</strong> am Steg wurden idealisiert<br />

dargestellt. Genauer ist e<strong>in</strong>e frequenzabhängige Reflexion, die e<strong>in</strong>e Impulsverbreiterung<br />

bewirkt. E<strong>in</strong>e realistischere Behandlung des Reflexionsverhaltens der Geige ist Abschnitt<br />

5.1.5 zu f<strong>in</strong>den.<br />

Abb. 5.3: Detaillierte schematische Darstellung der Wellenleiterimplementierung<br />

- +<br />

e<strong>in</strong>er fest e<strong>in</strong>gespannten Saite. Die Verzögerungszeit tF = t1,2 + t1,2 bestimmt die<br />

Saitenlänge <strong>und</strong> somit die Tonhöhe des synthetisierten Signals. An den Saitenenden<br />

wird das Signal <strong>in</strong>vertiert reflektiert <strong>und</strong> erfährt e<strong>in</strong>e Dämpfung α1,2 < 1. An der<br />

Anregungsstelle ß = x/L wird e<strong>in</strong> Dirac-Impuls <strong>in</strong> das System e<strong>in</strong>gespeist; ß bee<strong>in</strong>+/flußt<br />

die e<strong>in</strong>zelnen Verzögerungszeiten t1,2 wie <strong>in</strong> Abb. 5.4 veranschaulicht.<br />

Die Schaltung aus Abb. 5.3 läßt sich, vor allem zur e<strong>in</strong>fachen Simulation angezupfter oder<br />

angeschlagener Saiten<strong>in</strong>strumente (Gitarre, Chembalo), auf die <strong>in</strong> Abb. 5.5 dargestellte<br />

Anordnung reduzieren. Die Position des Plektrums wird dann durch die E<strong>in</strong>b<strong>in</strong>dung e<strong>in</strong>es<br />

nachgeschalteten Kammfilters (siehe rechte Teilabbildung) simuliert. Durch die um t ß<br />

verzögerte Rückführung des Klangsignals löschen sich alle Frequenzanteile aus, deren<br />

Phasenverzögerung t ß der halben Wellenlänge entsprechen. Der mittlere Teil der Schaltung<br />

ist als ‚Karplus-Strong‘-Algorithmus bekannt.<br />

Onl<strong>in</strong>e-Version 1.0 70


DIPLOMARBEIT HENRI HAGENOW<br />

Abb. 5.4: Dargestellt ist das <strong>in</strong> ‚Reaktor‘ implementierte Makro ‚[t→t1,2]‘, das aus<br />

der zu e<strong>in</strong>er bestimmten Saitenlänge gehörenden Verzögerungszeit t zwei über<br />

die Beziehung t = t 1 + t 2 zusammenhängende E<strong>in</strong>zelverzögerungszeiten t 1 = (ß⋅t)<br />

<strong>und</strong> t 2 = (1-ß)⋅t generiert. Durch Variation des Parameters ß (Schieberegler) simuliert<br />

man e<strong>in</strong>e Veränderung der Anregungsstelle der Saite.<br />

Abb. 5.5: Dargestellt ist die reduzierte Schaltung aus Abb. 5.3. Die Anregung<br />

erfolgt <strong>in</strong> diesem Falle durch e<strong>in</strong>en Dirac-Impuls, der das Anzupfen der Saite<br />

simuliert. E<strong>in</strong> nachgeschalteter Tiefpaß simuliert die Abr<strong>und</strong>ung der Zupfstelle<br />

auf der Saite. Die Verzögerungszeit t F bestimmt die Tonhöhe des synthetisierten<br />

Klanges. Die Reflexionskonstante α ist aufgr<strong>und</strong> der Zusammenfassung<br />

der e<strong>in</strong>zelnen Teilwellenleiter nicht mehr negativ; für die Systemstabilität muß<br />

gelten α < 1; t ß bestimmt die Anregungsstelle auf der Saite, da alle um die halbe<br />

Wellenlänge verzögerten Frequenzanteile ausgelöscht werden.<br />

Onl<strong>in</strong>e-Version 1.0<br />

71


DIPLOMARBEIT HENRI HAGENOW<br />

Die Auskopplung der Saitenschw<strong>in</strong>gung erfolgt jeweils ohne weitere Signalbewertung durch<br />

e<strong>in</strong>en virtuellen idealen Tonabnehmer, der ohne weiterfolgende Signalbee<strong>in</strong>flussung sofort<br />

zur Schallabstrahlung führt. Das gesamte System, das <strong>in</strong> Abb. 5.3 nur schematisch<br />

dargestellt wird, ist <strong>in</strong> Abb. 5.6 nochmals so abgebildet, wie es <strong>in</strong> ‚Reaktor‘ implementiert<br />

wurde. Abb. 5.7 zeigt die Implementierung des reduzierten Wellenleiters aus Abb. 5.5.<br />

Die Ansteuerung des Modells erfolgt über e<strong>in</strong> Tastatur<strong>in</strong>strument oder e<strong>in</strong> sonstiges<br />

E<strong>in</strong>gabegerät (im Folgenden als ‚Masterkeyboard‘ bezeichnet), das über das<br />

Datentransferprotokoll MIDI mit dem Computer kommuniziert. Wird e<strong>in</strong>e Taste des<br />

Keyboards gedrückt, übermittelt dieses MIDI-Signale an den MIDI-E<strong>in</strong>gang von ‚Reaktor‘.<br />

Diese Signale be<strong>in</strong>halten die Informationen über Tönhöhe, Anschlaggeschw<strong>in</strong>digkeit,<br />

Haltedauer usw.. Innerhalb von Reaktor wird daraus mit dem ‚Gate‘-Modul e<strong>in</strong> Steuersignal<br />

generiert. Dieses startet wiederum den Impulsgenerator, was e<strong>in</strong>em Anzupfen der virtuellen<br />

Saite gleichkommt. Die Tonhöhe des erzeugten Tones ist über die Saitenlänge L def<strong>in</strong>iert,<br />

die durch die Verzögerungszeit t F simuliert wird: f T = 1/t F. Für die Umrechnung der durch<br />

den Spieler angeschlagenen Taste des Masterkeyboards <strong>in</strong> die entsprechende<br />

Verzögerungszeit ist das Makro ‚[P->t]‘ verantwortlich (siehe Abschnitt 5.1.4).<br />

Abb. 5.6: Implementierung des bidirektionalen Wellenleitermodells für e<strong>in</strong>e<br />

beidseitig e<strong>in</strong>gespannte Saite der Länge 2L mit variabler Anregungsstelle ß.<br />

Die e<strong>in</strong>zelnen Makros werden <strong>in</strong> den entsprechenden Abschnitten näher beschrieben.<br />

Onl<strong>in</strong>e-Version 1.0 72


DIPLOMARBEIT HENRI HAGENOW<br />

Abb. 5.7: Implementierung des reduzierten Wellenleitermodells aus Abb. 5.5<br />

für e<strong>in</strong>e beidseitig e<strong>in</strong>gespannte Saite der Länge L mit variabler Anregungsstelle<br />

ß, simuliert durch e<strong>in</strong>en e<strong>in</strong>fachen Kammfilter.<br />

5.1.3 Das Makro ‚Lagrange-Interpolat.‘<br />

Pr<strong>in</strong>zipiell erlauben digitale Signalverzögerer ke<strong>in</strong>e Verzögerungszeiten, die nicht e<strong>in</strong><br />

ganzzahliges Vielfaches des Sampl<strong>in</strong>g<strong>in</strong>tervalls T s s<strong>in</strong>d. Für e<strong>in</strong>en Wellenleiter der Länge L<br />

<strong>und</strong> e<strong>in</strong>e zeitdiskrete Verzögerungsleitung der Länge N = L/X s = L⋅(T s⋅c) -1 s<strong>in</strong>d mit<br />

ganzzahligen Verzögerungen nur äquidistante Frequenzen f N möglich (L = λ/2, c = λ⋅f):<br />

Die kle<strong>in</strong>sten Frequenzabstände f 0 = f N=1 werden durch die Größe des Sampl<strong>in</strong>g<strong>in</strong>tervalls T s<br />

bestimmt. Um diese E<strong>in</strong>schränkung zu umgehen, wurde das Makro ‚Lagrange-Interpolat.‘<br />

konstruiert, das dem von Välimäki vorgestellten ‚Fractional Delay‘ entspricht [Välimäki,<br />

1995; Välimäki&Laakso, 2000]. Das ‚Fractional Delay‘ approximiert die Samplewerte, die<br />

durch e<strong>in</strong>en zeitkont<strong>in</strong>uierlichen Signalverzögerer generiert werden würden, dessen Verzö-<br />

gerungszeit also e<strong>in</strong> nicht-ganzzahliges Vielfaches der Sampl<strong>in</strong>gdauer T s wäre. Die<br />

Transferfunktion der FIR-Filterapproximation e<strong>in</strong>es ‚Fractional Delays‘ ist gegeben durch<br />

wobei N die Filterordnung darstellt <strong>und</strong> h(n) die die Impulsantwort formenden reellen Filter-<br />

koeffizienten s<strong>in</strong>d. Für die Verzögerungszeit N Frac werden die Samplewerte<br />

generiert, wobei für h(n) gilt:<br />

Onl<strong>in</strong>e-Version 1.0<br />

f<br />

x<br />

N −1<br />

1<br />

( N,<br />

Ts<br />

) =<br />

N ⋅T<br />

H ( z)<br />

=<br />

app<br />

( n)<br />

=<br />

h(<br />

n)<br />

=<br />

N<br />

∑<br />

n=<br />

0<br />

N<br />

∑<br />

n=<br />

0<br />

N<br />

∏<br />

k = 0<br />

k ≠n<br />

73<br />

s<br />

h(<br />

n)<br />

⋅ z<br />

− n<br />

h(<br />

n)<br />

⋅ x(<br />

n)<br />

N Frac − k<br />

n - k<br />

( 5.<br />

1)<br />

( 5.<br />

2)<br />

( 5.<br />

3)<br />

(<br />

5.<br />

4)


DIPLOMARBEIT HENRI HAGENOW<br />

mit n = 0,1,2,...,N. E<strong>in</strong>e detaillierte Diskussion der ‚Fractional Delay‘-Approximation f<strong>in</strong>det<br />

sich <strong>in</strong> [Laakso et. al., 1996]. [Ca<strong>in</strong> et.al., 1994] vergleicht vier verschiedene FIR-Filter zur<br />

Erzeugung von ‚Fractional Delay‘.<br />

Innerhalb des implementierten Wellenleiters wurde das Makro ‚Lagrange-Interpolat.‘<br />

konstruiert, das e<strong>in</strong>en FIR-Filter dritter Ordnung mit den Filterkoeffizienten<br />

h(0) = -1/6 ⋅ (N Frac - 1) ⋅ ( N Frac - 2) ⋅ ( N Frac - 3)<br />

h(1) = 1/2 ⋅ N Frac ⋅ ( N Frac - 2) ⋅ ( N Frac - 3)<br />

h(2) = -1/2 ⋅ N Frac ⋅ ( N Frac - 1) ⋅ ( N Frac - 3)<br />

h(3) = 1/6 ⋅ N Frac ⋅ ( N Frac - 1) ⋅ ( N Frac - 2)<br />

enthält. Die im Tonhöhen-Makro ‚[P->t]‘ (siehe Abschnitt 5.1.4) generierte Verzögerungszeit<br />

t wird hierfür mit Hilfe des Makros ‚Fraction-a-lator‘ <strong>in</strong> Samplewerte N umgerechnet <strong>und</strong> <strong>in</strong><br />

e<strong>in</strong>en ganzzahligen Teil N Int <strong>und</strong> e<strong>in</strong>en Restteil N Frac aufgeteilt: N = N Int + N Frac , wobei<br />

N Frac ∈ [0,1]. Daraufh<strong>in</strong> werden die Samplewerte wieder <strong>in</strong> Zeitwerte umgerechnet. Der<br />

ganzzahlige Teil t Int steuert die Verzögerungszeit des Wellenleiterverzögerers <strong>und</strong> der<br />

Restteil t Frac wird <strong>in</strong> das Interpolationsmakro ‚Lagrange-Interpolat.‘ geleitet. Beide Makros<br />

s<strong>in</strong>d <strong>in</strong> Abb. 5.8 bzw. Abb. 5.9 dargestellt.<br />

Da der quadratische Fehler bei der Interpolation durch e<strong>in</strong> Lagrange-Filter dritter Ordnung<br />

im Bereich zwischen den Werten 1 <strong>und</strong> 2 am ger<strong>in</strong>gsten ist (siehe Abb. 5.11), wird zu t Frac<br />

noch der Wert 1 addiert. Die Phasenverzögerung <strong>und</strong> der Betragsfrequenzgang des Inter-<br />

polationsfilters (siehe Abb. 5.10) besitzen Tiefpaßcharakteristik <strong>und</strong> ergänzen somit die<br />

Reflexionsfilter im Makro ‚Steg‘ (siehe Abschnitt 5.1.5). Der Betrag der Übertragungs-<br />

funktion bleibt immer kle<strong>in</strong>er oder gleich E<strong>in</strong>s, so daß die Systemstabilität gewährleistet<br />

bleibt.<br />

Im bidirektionalen Wellenleiter mit Lagrange-Interpolation kommt es zu Frequenz-<br />

schwankungen des erzeugten Klanges, wenn man den Bogenpositionsparameter ß variiert.<br />

Dies ist auf die Ungenauigkeit der implementierten Interpolation zurückzuführen. Für jede<br />

Position ß wird im Makro ‘Fraction-a-lator‘ e<strong>in</strong> neuer Wert für t Frac berechnet, was die<br />

Frequenzabstände zwischen den Teiltönen verändert. Die Phasenlaufzeit <strong>und</strong> der<br />

Betragsfrequenzgang des Lagrange-Interpolationsfilters ‚ Lagrange-Interpolat.‘ variiert mit<br />

den Werten der fraktionalen Verzögerung (Abb. 5.10). Im Pr<strong>in</strong>zip kann man e<strong>in</strong> solches<br />

‚Fractional Delay‘ also auch zur Fe<strong>in</strong>stimmung e<strong>in</strong>es Wellenleiters benutzen.<br />

Onl<strong>in</strong>e-Version 1.0 74


DIPLOMARBEIT HENRI HAGENOW<br />

Abb.5.8: Aufbau der Makros ‚Fraction-a-lator‘ , ‚[P->t]‘ <strong>und</strong> ‚[t->t1,2]‘. Das Modell aus<br />

Abb. 5.6 wird um die Makros ‚Fraction-a-lator‘ <strong>und</strong> ‚Lagrange-Interpolat.‘ erweitert,<br />

dessen Aufbau <strong>in</strong> Abb. 5.9 dargestellt ist.<br />

Abb.5.9: Aufbau des Makros ‚Lagrange-Interpolat.‘ Der ‚Frac‘-E<strong>in</strong>gang erhält<br />

die fraktionalen Verzögerungswerte aus dem Makro ‚Fraction-a-lator‘, dessen<br />

Aufbau <strong>in</strong> Abb. 5.8 dargestellt ist. Der E<strong>in</strong>gang ‚In‘ ist mit dem Signalausgang<br />

e<strong>in</strong>es der Verzögerungsmodule des Wellenleiters verb<strong>und</strong>en.<br />

Onl<strong>in</strong>e-Version 1.0<br />

75


DIPLOMARBEIT HENRI HAGENOW<br />

Abb.5.10: Phasenverzögerung <strong>und</strong> Betragsfrequenzgang des implementierten<br />

FIR-Filters dritter Ordnung zur l<strong>in</strong>earen Interpolation von Verzögerungszeiten<br />

zwischen zwei Abtastwerten (Lagrange-Interpolation) (Abb. aus [Rank, 1996]).<br />

Abb.5.11: Quadratische Fehler von Lagrange-Interpolatoren der Ordnungen 1,<br />

3 <strong>und</strong> 5 (Abb. aus [Välimäki, 1995])<br />

5.1.4 Das Tonhöhen-Makro<br />

Um das Saitenmodell über e<strong>in</strong>e Keyboardtastatur oder e<strong>in</strong> sonstiges MIDI-E<strong>in</strong>gabegerät<br />

ansteuern zu können, muß e<strong>in</strong> e<strong>in</strong>treffendes Notensignal <strong>in</strong> die entsprechenden<br />

Steuerwerte umgesetzt werden. Im Falle des Wellenleiters benötigt man zur Festlegung der<br />

Tonhöhe die entsprechenden Verzögerungszeiten für die klangerzeugenden<br />

Onl<strong>in</strong>e-Version 1.0 76


DIPLOMARBEIT HENRI HAGENOW<br />

rückgekoppelten Verzögerungsmodule. Zu diesem Zweck wurde das Tonhöhen-Makro ‚[P-<br />

>t]‘ implementiert, das <strong>in</strong> Abb.5.12 schematisch dargestellt ist <strong>und</strong> dessen Position<br />

<strong>in</strong>nerhalb des Viol<strong>in</strong>en-modells <strong>in</strong> Abb. 5.6 veranschaulicht wird.<br />

Abb.5.12: Das Tonhöhen-Makro ‚[P→t]‘ wandelt die <strong>in</strong> Reaktor e<strong>in</strong>gehenden<br />

MIDI-NotePitch-Daten <strong>in</strong> die entsprechenden Verzögerungszeiten der im<br />

Wellenleiter für die Tonhöhe verantwortlichen Signalverzögerungsmodule<br />

um.<br />

Das im Makro enthaltene NotePitch-Modul überträgt die Tonhöhenwerte der am MIDI-<br />

E<strong>in</strong>gang e<strong>in</strong>gehenden MIDI-Note-On Events. E<strong>in</strong> Note-On Event setzt den Ausgang des<br />

Moduls auf e<strong>in</strong>en Wert zwischen 0 <strong>und</strong> 127, der der Notennummer der gedrückten<br />

Masterkeyboard-Taste entspricht. Jede Notennummer entspricht <strong>in</strong> der MIDI-Norm e<strong>in</strong>em<br />

Halbtonschritt. Nach Art der wohltemperierten Stimmung entspricht dies e<strong>in</strong>er<br />

logarithmischen Skala der Form<br />

Onl<strong>in</strong>e-Version 1.0<br />

f<br />

= 2<br />

( P −69)<br />

/ 12<br />

⋅ 440Hz<br />

bzw.<br />

Das mittlere C besitzt den Wert P = 60, das A mit f = 440 Hz entspricht dann P = 69.<br />

Die <strong>in</strong> das Tonhöhenmodul [P→t] e<strong>in</strong>gehenden, logarithmisch skalierten Notennummern<br />

werden mittels des Moduls [Exp] <strong>in</strong> l<strong>in</strong>eare Daten umgerechnet <strong>und</strong> <strong>in</strong> den Nenner-E<strong>in</strong>gang<br />

e<strong>in</strong>es Teiler-Moduls geleitet, an dessen Zähler der konstante Wert 1000 anliegt. Dadurch<br />

werden alle e<strong>in</strong>gehenden NotePitch-Werte 31 P <strong>in</strong> die Zeitwerte t (<strong>in</strong> [ms]) umgerechnet.<br />

5.1.5 Frequenzabhängige Dämpfung <strong>und</strong> Dispersion<br />

Bei der Ausbreitung der Geschw<strong>in</strong>digkeitswelle auf der Saite <strong>und</strong> der Reflexion an den<br />

e<strong>in</strong>gespannten Saitenenden erfährt das Wanderwellensignal, wie <strong>in</strong> Abschnitt 3.2<br />

31 Pitch-Daten s<strong>in</strong>d <strong>in</strong>nerhalb Reaktors Steuerdaten, die von den Audio-Daten zu unterscheiden s<strong>in</strong>d<br />

<strong>und</strong> an den Module<strong>in</strong>- <strong>und</strong> -ausgängen mit e<strong>in</strong>em ° gekennzeichnet werden.<br />

77<br />

f<br />

log( )<br />

P =<br />

69 + 12⋅<br />

440Hz<br />

log( 2)


DIPLOMARBEIT HENRI HAGENOW<br />

beschrieben, frequenzabhängige Verluste <strong>und</strong> Verzögerungen (Dispersion). Um diese<br />

Ersche<strong>in</strong>ungen getrennt vone<strong>in</strong>ander simulieren zu können, müßten digitale Filter<br />

implementiert werden, die <strong>in</strong>nerhalb der Modulbibliothek von ‚Reaktor‘ nicht zur Verfügung<br />

stehen. Zur Simulation der frequenzabhängigen Dämpfung benötigt man e<strong>in</strong>en<br />

l<strong>in</strong>earphasigen Tiefpaß, der nur als symmetrischer frequenzabhängiger FIR-Filter<br />

realisierbar ist. Zur Nachbildung des Dispersionsverhaltens der Saite ist e<strong>in</strong> Allpaßfilter mit<br />

frequenzabhängiger Verzögerung notwendig (IIR-Filter). Die zur Konstruktion solcher Filter<br />

notwendigen E<strong>in</strong>heitsverzögerer waren <strong>in</strong> der Version 2.3 von ‚Reaktor‘ noch nicht<br />

vorhanden. Erst kurz vor der Fertigstellung dieser Arbeit erschien die Version 3.0, die<br />

E<strong>in</strong>heitsverzögerer-Module be<strong>in</strong>haltet.<br />

Die Dämpfungs- <strong>und</strong> Dispersionsersche<strong>in</strong>ungen werden im vorliegenden Modell beide<br />

durch e<strong>in</strong>en Tiefpaß erster Ordnung im ‚Steg‘-Makro simuliert. Die Reflexion an der Nut wird<br />

durch e<strong>in</strong>en e<strong>in</strong>fachen Multiplizierer realisiert, dessen Multiplikationsfaktor ‚Ga<strong>in</strong>‘ im Bereich<br />

[-0,900; -0,999] variiert werden kann. In Abb. 5.13 ist der Aufbau des Makros ‚Steg‘<br />

dargestellt.<br />

Abb.5.13: Schematische Darstellung des Makros ‚Steg‘. Der Tiefpaß simuliert<br />

die Dämpfungs- <strong>und</strong> Dispersionsersche<strong>in</strong>ungen, die bei der Wellenausbreitung<br />

<strong>und</strong> den Reflexionen zu beobachten s<strong>in</strong>d. Die über den Steg erfolgende Auskopplung<br />

der Saitenschw<strong>in</strong>gungen wird mit der im Untermakro ‚AusKplng‘ dargestellten<br />

Schaltung realisiert (siehe Abschnitt 5.1.8).<br />

Onl<strong>in</strong>e-Version 1.0 78


DIPLOMARBEIT HENRI HAGENOW<br />

5.1.6 Die stetige äußere Anregung durch das Makro ‚Bogen‘<br />

Um das bisher erstellte Saitenmodell dem e<strong>in</strong>er gestrichenen Geige anzupassen, muß der<br />

Anregungsmechanismus ausgetauscht werden. Anstelle des Impulsgenerators, der bisher<br />

nur e<strong>in</strong> Anzupfen der Saite simulierte, wird e<strong>in</strong> sogenanntes ‚Geiger-Oszillator‘-Modul<br />

implementiert, dessen Ausgangssignal aus e<strong>in</strong>er Folge von E<strong>in</strong>zelimpulsen besteht, die <strong>in</strong><br />

zufälligen Abständen ausgelöst werden. Die durchschnittliche Rate der Impulsevents, also<br />

die Impulsdichte, wird am ‚P‘-E<strong>in</strong>gang des Moduls e<strong>in</strong>gestellt, der logarithmisch skaliert ist.<br />

Die ‚Zufälligkeit‘ der zeitlichen Verteilung der Events wird am ‚Rnd‘-E<strong>in</strong>gang bestimmt,<br />

wobei sich der Wert 0 mit ‚völlig zufällig‘ <strong>und</strong> der Wert 1 mit ‚völlig periodisch‘ b eschreiben<br />

läßt.<br />

Das Geiger-Modul bef<strong>in</strong>det sich <strong>in</strong>nerhalb des Makros ‚Bogen‘ im Untermakro ‚Anregung‘<br />

(siehe Abb. 5.14). Die Anregung der Saite durch den Bogen kann man sich als<br />

andauerndes, statistisch gleichverteiltes Anzupfen der Saite durch den stetigen<br />

Reibungskontakt zwischen Saite <strong>und</strong> dem mit Kolophonium bestrichenen Bogen vorstellen.<br />

Die Vorstellung von kle<strong>in</strong>en Haken auf den Bogenhaaren, die dieses Anzupfen<br />

verursachen, veranschaulicht diesen Vorgang bildlich. Für die Simulation der Geige<br />

betrachten wir die vom Geigeroszillator ausgegebene stochastische Impulsfolge als<br />

statistisch gleichverteilte Ane<strong>in</strong>anderreihung von Geschw<strong>in</strong>digkeitsimpulsen.<br />

Abb.5.14: Schematische Darstellung des Makros ‚Bogen‘ <strong>und</strong> der Untermakros<br />

‚Bogenreflexion‘ <strong>und</strong> ‚Anregung Streich‘.<br />

Onl<strong>in</strong>e-Version 1.0<br />

79


DIPLOMARBEIT HENRI HAGENOW<br />

Mit Hilfe des Makros ‚Anregung’ wird e<strong>in</strong>e Funktion generiert, die die Anregung durch den<br />

Bogen ausreichend simuliert. Zur Zeit wird noch daran gearbeitet, die Bogenfunktion soweit<br />

zu modellieren, daß sie gemäß dem Schelleng-Diagramm [Schelleng 1974] auf die<br />

Variation der Bogennormalkraft f B durch den Spieler reagiert. Das Schelleng-Diagramm<br />

stellt <strong>in</strong>nerhalb des von den Parametern f B <strong>und</strong> ß aufgespannten Raumes den Bereich<br />

graphisch dar, <strong>in</strong> dem es zur Entstehung e<strong>in</strong>es stabilen Tones bei konstanter<br />

Bogengeschw<strong>in</strong>digkeit v B kommt.<br />

E<strong>in</strong>e teilweise Reflexion der Geschw<strong>in</strong>digkeitsimpulse am Bogen wird mit Hilfe des<br />

Untermakros ‚Bogenreflexion‘ simuliert (siehe Abb. 5.14). Um das zeitvariable <strong>und</strong> von der<br />

Bogennormalkraft abhängige Reflexionsverhalten am Bogen zufriedenstellend zu<br />

implementieren, muß noch e<strong>in</strong> passendes digitales Filter konstruiert werden. Am besten<br />

geeignet sche<strong>in</strong>t die Konstruktion e<strong>in</strong>er Streuverb<strong>in</strong>dung (scatter<strong>in</strong>g junction), wie sie auch<br />

bei der Simulation der Kopplungsersche<strong>in</strong>ungen zur Anwendung kommt (siehe Abschnitt<br />

3.7 <strong>und</strong> Anhang A6).<br />

Da die Anregungstelle ß des Bogens auf der Saite nicht ohne Frequenzschwankungen<br />

simuliert werden kann <strong>und</strong> daher eher als Fe<strong>in</strong>stimmungs-Regler fungiert (siehe Abschnitt<br />

5.1.3 ), wird dem Viol<strong>in</strong>enmodel e<strong>in</strong> weiteres Makro h<strong>in</strong>zugefügt, das die spektralen<br />

Veränderungen bei Variation der Anstrichstelle realisieren soll. Innerhalb dieses <strong>in</strong> Abb.5.1<br />

dargestellten Makros ‘Anregungsstelle‘ bef<strong>in</strong>det sich die auch <strong>in</strong> Abb. 5.7 verwirklichte<br />

Schaltung, die die Bogenposition ß durch e<strong>in</strong>en e<strong>in</strong>fachen Kammfilter simuliert. Die<br />

Steuerzeiten des Kammfilter-Verzögerungsmoduls werden auf den Bereich t ß ∈ [0;T/2]<br />

e<strong>in</strong>geschränkt, wobei der Wert T/2 e<strong>in</strong>er Anregung auf der Mitte der Saite entspricht.<br />

5.1.7 Kopplungsersche<strong>in</strong>ungen<br />

E<strong>in</strong>e Kopplung zwischen den Schw<strong>in</strong>gungsmoden der Saiten <strong>und</strong> den Saiten untere<strong>in</strong>ander<br />

mit Hilfe e<strong>in</strong>es entsprechenden Kopplungsmatrix-Filters wurde noch nicht realisiert. Die<br />

Gesamtauswirkung aller Kopplungsersche<strong>in</strong>ungen auf den Klang wurde simuliert, <strong>in</strong>dem<br />

parallel zum bidirektionalen Wellenleiter zwei weitere Verzögerungsleitungen implementiert<br />

wurden, die durch abweichende Verzögerungszeiten leicht gegen den Hauptwellenleiter<br />

verstimmt wurden. Durch e<strong>in</strong>e Variation der fraktionalen Verzögerungszeiten der beiden<br />

Kopplungswellenleiter läßt sich e<strong>in</strong>e subjektive Fe<strong>in</strong>stimmung durchführen, bei der die<br />

Teiltöne der drei Wellenleiteroszillatoren verschieden stark gegene<strong>in</strong>ander verstimmt<br />

werden können.<br />

Onl<strong>in</strong>e-Version 1.0 80


DIPLOMARBEIT HENRI HAGENOW<br />

5.1.8 Das Resonanzsystem<br />

Da der Klang e<strong>in</strong>er Geige zum größten Teil vom Geigenkorpus bestimmt wird, muß e<strong>in</strong><br />

Resonanzsystem konstruiert werden, dessen Frequenzgang dem e<strong>in</strong>es Geigenkorpus nahe<br />

kommt. Für die Unterscheidung verschiedener Viol<strong>in</strong>en anhand ihres Klanges s<strong>in</strong>d u.a. die<br />

Positionen <strong>und</strong> Formen ihrer Resonanzgebiete verantwortlich. Vor allem die beiden tiefsten<br />

Resonanzen, die sogenannte Hohlraum- oder Helmholtzresonanz ‚A 0‘ (260-300 Hz), auch<br />

Luftton genannt, <strong>und</strong> die erste Korpusresonanz ‚T 1‘ (440-570 Hz), die auch als Holzton<br />

bezeichnet wird, charakterisieren den Klang e<strong>in</strong>er Geige [Beldie, 1974; Cremer 1984]. Es<br />

folgen die zweite <strong>und</strong> dritte Korpusresonanz C 3 <strong>und</strong> C 4 <strong>und</strong> e<strong>in</strong> schneller Anstieg im Bereich<br />

1,3 - 3 kHz. Charakteristsich ist auch e<strong>in</strong> M<strong>in</strong>imum um 1,6 kHz <strong>und</strong> starke Schwankungen<br />

zwischen 400 <strong>und</strong> 800 Hz. In Abb. 5.15 ist die E<strong>in</strong>gangs-Admittanzkurve e<strong>in</strong>er auf der<br />

Baßbalkenseite des Steges angeregten Guarneri Viol<strong>in</strong>e abgebildet.<br />

Abb.5.15: E<strong>in</strong>gangs-Admittanz e<strong>in</strong>er Guarneri-Viol<strong>in</strong>e, die für die Messung auf<br />

der Baßbalkenseite des Steges angeregt wurde. Die Buchstaben über den Signalspitzen<br />

bezeichnen die verschiedenen Hauptschw<strong>in</strong>gungsmoden des Korpus<br />

<strong>und</strong> werden im Text genauer erläutert (Abb. aus [Alonso&Jansson, 1982]).<br />

Auf der Basis der Meßdaten von Beldie [Beldie, 1974] wurde e<strong>in</strong> Resonanzkörper<br />

konstruiert, dessen Frequenzgang <strong>in</strong> Abb. 5.16 dargestellt ist.<br />

Im vorliegenden Geigenmodell wird der Resonanzkörper als l<strong>in</strong>earer Filter angesehen,<br />

wobei die Stegkraft als E<strong>in</strong>gangsgröße <strong>und</strong> der Körperschall als Ausgangsgröße<br />

angesehen wird, die den Audioausgängen von ‚Reaktor‘ zugeführt wird. Zur Konstruktion<br />

des Resonanzkörpers <strong>in</strong> ‚Reaktor‘ wurde für jedes Resonanzgebiet e<strong>in</strong> ‚PeakEQ‘-Modul<br />

implementiert <strong>und</strong> auf die jeweilige Mittenfrequenz, Güte <strong>und</strong> Verstärkung e<strong>in</strong>gestellt. Die<br />

Onl<strong>in</strong>e-Version 1.0<br />

81


DIPLOMARBEIT HENRI HAGENOW<br />

e<strong>in</strong>zelnen ‚PeakEQ‘-Module wurden <strong>in</strong> Reihe geschaltet <strong>und</strong> bef<strong>in</strong>den sich <strong>in</strong>nerhalb des<br />

Untermakros ‚Korpus‘; die Modulstruktur ist <strong>in</strong> Abb. 5.17 dargestellt.<br />

Abb.5.16: Dargestellt ist der Frequenzgang des <strong>in</strong> Abb. 5.17 abgebildeten<br />

Makros ‚Korpus‘. Für die Messung wurde das Ausgangssignal des Makros<br />

mit Hilfe e<strong>in</strong>er FFT analysiert. Als E<strong>in</strong>gangssignal wurde e<strong>in</strong> S<strong>in</strong>uston verwendet,<br />

der l<strong>in</strong>ear <strong>in</strong> der Frequenz im Bereich [20 Hz, 10 kHz] durchfahren<br />

wurde.<br />

Leider s<strong>in</strong>d die <strong>in</strong> der Literatur aufgef<strong>und</strong>enen Daten nicht e<strong>in</strong>deutig, da die<br />

Verstärkungsfaktoren der Resonanzfrequenzen nicht als Absolutwerte angegeben wurden<br />

oder meist e<strong>in</strong>e Beschriftung der Admittanz- oder Verstärkungsachse <strong>in</strong> der<br />

Meßdatendarstellung fehlt. Daher mußten die zur Verfügung stehenden Admittanzkurven<br />

von Hand ausgemessen werden um wenigstens die Relationen zwischen den<br />

Korpusresonanzen bestimmen zu können. E<strong>in</strong>e genaue Positionierung der Resonanzen mit<br />

vorausgehender Bestimmung der Mittenfrequenzen, Güten <strong>und</strong> Verstärkungsfaktoren ist für<br />

e<strong>in</strong>en realistischen Klange<strong>in</strong>druck sehr wichtig. E<strong>in</strong> zufriedenstellender Resonanzkörper ist<br />

bisher noch nicht konstruiert worden – Arbeiten s<strong>in</strong>d hierzu <strong>in</strong> Planung.<br />

Onl<strong>in</strong>e-Version 1.0 82


DIPLOMARBEIT HENRI HAGENOW<br />

Abb.5.17: Dargestellt ist die Modulstruktur des Makros ‚Korpus‘. Es besteht<br />

aus e<strong>in</strong>er großen Anzahl von <strong>in</strong> Reihe geschalteter ‚PeakEQ‘-Module, sowie<br />

weiterer Frequenzfilter-Module, die die Eigenschaften des Geigenkorpus<br />

nachbilden.<br />

Abb.5.18: Signalflußdiagramm der Auskopplung der Geschw<strong>in</strong>digkeitsimpulse<br />

über den Steg. Um das Ausgangssignal des Saitenmodells zu<br />

erhalten, werden die Geschw<strong>in</strong>digkeitswellen der Saite <strong>in</strong> Kraftwellen<br />

umgerechnet. Die Stegkraft wird erzeugt durch a) Subtraktion der Geschw<strong>in</strong>digkeitswellen<br />

vor <strong>und</strong> nach der Reflexion am Steg mit nachfolgender<br />

Skalierung durch den Wellenwiderstand Z = K/c (Realisierung<br />

siehe Abb. 5.13) oder b) mit Hilfe e<strong>in</strong>es Stegauskopplungs-Filters H Steg(z).<br />

Onl<strong>in</strong>e-Version 1.0<br />

83


DIPLOMARBEIT HENRI HAGENOW<br />

Die Auskopplung der im Wellenleiter zirkulierenden Geschw<strong>in</strong>digkeitsimpulse auf den<br />

Geigenkorpus erfolgt über den Steg. Die Signalübertragung über den Hals auf den Korpus<br />

wird als ger<strong>in</strong>g angenommen <strong>und</strong> vernachlässigt. Die Kraft am Kontaktpunkt ‚Saite-Steg‘,<br />

die durch die Geschw<strong>in</strong>digkeitsimpulse verursacht wird, kann durch Subtraktion der<br />

reflektierten Welle von der am Steg e<strong>in</strong>treffenden Welle berechnet werden. Die Differenz<br />

der Geschw<strong>in</strong>digkeitsimpulse wird durch Multiplikation mit dem Wellenwiderstand Z = K/c <strong>in</strong><br />

Kraftwellen umgerechnet. Dies wird im Untermakro ‚Auskopplung‘ <strong>in</strong>nerhalb des Makros<br />

‚Steg‘ realisiert, dessen Signalfluß <strong>in</strong> Abb. 5.18 a) schematisch dargestellt <strong>und</strong> <strong>in</strong> Abb. 5.13<br />

<strong>in</strong> ‚Reaktor‘ implementiert abgebildet ist. Alternativ könnte man e<strong>in</strong> Auskopplungsfilter<br />

H Steg(z) konstruieren, wie es <strong>in</strong> Abb. 5.13 b) veranschaulicht wird.<br />

5.1.9 Zusammenfassende Betrachtung<br />

Die hier vorgestellte digitale Modellierung e<strong>in</strong>es Geigenmodells mit Hilfe der<br />

Wellenleitersynthese führte zu zufriedenstellenden Ergebnissen. Die synthetisierten Töne<br />

kl<strong>in</strong>gen noch sehr metallisch <strong>und</strong> obertonreich, jedoch deutlich nach e<strong>in</strong>er angestrichenen<br />

Saite. Hohe Oktaven lassen sich schlechter synthetisieren, als tiefere, was an den<br />

Frequenz- <strong>und</strong> Phasengängen der benutzten Tiefpaßfilter erster Ordnung liegen dürfte, die<br />

nach dem Erregerfunktionsgenerator im Makro ‚Bogen‘ <strong>und</strong> zur Nachbildung der<br />

Impulsverbreiterung bei der Reflexion bzw. der Dämpfungs- <strong>und</strong> Dispersionseigenschaften<br />

der Saite im Makro ‚Steg‘ implementiert wurden. Sie bilden die theoretisch erforderlichen<br />

Frequenz- <strong>und</strong> Phasengänge der steifen Saite noch nicht optimal nach.<br />

Da <strong>in</strong>nerhalb ‚Reaktors‘ (Version 2.3) weder l<strong>in</strong>earphasige FIR-Filter noch Allpaßfilter mit<br />

frequenzabhängiger Verzögerung vorhanden s<strong>in</strong>d, um die frequenzabhängige Dämpfung<br />

bei der Reflexion an den Saitenenden getrennt von den Dispersionsersche<strong>in</strong>ungen<br />

simulieren zu können, ist e<strong>in</strong>e Anpassung der jeweiligen Makros an die theoretisch<br />

notwendigen Frequenz- <strong>und</strong> Phasengänge kaum zu realisieren. Das Fehlen e<strong>in</strong>es<br />

E<strong>in</strong>heitsverzögerer machte es bisher auch unmöglich, selbstständig FIR- <strong>und</strong> IIR-Filter zu<br />

konstruieren, die e<strong>in</strong> solches Verhalten simulieren würden. Erst kurz vor Fertigstellung<br />

dieser Arbeit wurde die Version 3.0 veröffenlicht, die E<strong>in</strong>heitsverzögerer bereitstellt, doch<br />

reichte die Zeit vor der Fertigstellung dieser Arbeit nicht mehr aus, um e<strong>in</strong>e<br />

zufriedenstellende Lösung präsentieren zu können.<br />

Zu beachten ist auch, daß die verschiedenen Oktaven auf e<strong>in</strong>er realen Geige auf vier<br />

unterschiedlichen Saiten gespielt werden. Im vorgestellten Modell wird jedoch jeder Ton auf<br />

nur e<strong>in</strong>er Saite generiert, deren Länge virtuell verändert wird. Diese Saite behält ihre<br />

Onl<strong>in</strong>e-Version 1.0 84


DIPLOMARBEIT HENRI HAGENOW<br />

vore<strong>in</strong>gestellten klangbee<strong>in</strong>flussenden Eigenschaften (Saitenspannung, Massendichte<br />

usw.) <strong>und</strong> kl<strong>in</strong>gt daher nur <strong>in</strong> e<strong>in</strong>em begrenzten Frequenzbereich e<strong>in</strong>er angestrichenen<br />

Saite sehr ähnlich.<br />

Für e<strong>in</strong> realistischeres physikalisches Saitenmodell sollten m<strong>in</strong>destens drei gekoppelte<br />

Wellenleitermodelle veranschlagt werden, die den horizontalen <strong>und</strong> transversalen<br />

Wellenpolarisationen entsprechen (siehe auch Abschnitt 3.6). Zusätzlich könnten Torsions-<br />

wellen berücksichtigt werden, die die Bogen-Saiten-Interaktion bee<strong>in</strong>flussen [McIntyre et al.,<br />

1983]. Zieht man noch die Kopplung der Saiten untere<strong>in</strong>ander <strong>in</strong> Betracht, steigt die Anzahl<br />

der benötigten Wellenleiter auf bis zu 16.<br />

Die Nachbildung der Korpusresonanzen durch <strong>in</strong> Reihe geschaltete parametrische<br />

Equalizer ist ebenso noch zu verbessern. Eigene Messungen der e<strong>in</strong>zelnen<br />

Resonanzgebiete realer Viol<strong>in</strong>en sche<strong>in</strong>en erforderlich. Die Nachbildung des<br />

Frequenzganges des gesamten Korpusfilters sche<strong>in</strong>t zwar im Groben mit den aus der<br />

Literatur entnommenen Messungen übere<strong>in</strong>zustimmen, doch der erzeugte Klang erfüllt<br />

noch nicht die Erwartungen.<br />

Mit Hilfe der Integrierung der Sampl<strong>in</strong>gsynthese <strong>in</strong> das Wellenleitermodell könnte man<br />

e<strong>in</strong>en Viol<strong>in</strong>enklang synthetisieren, ohne den Steg <strong>und</strong> den Geigenkorpus modellieren zu<br />

müssen. Dies könnte geschehen, <strong>in</strong>dem e<strong>in</strong> Samplermodul die zuvor gemessene <strong>und</strong><br />

gespeicherte Impulsantwort des Resonanzsystems ‚Geige‘ beim E<strong>in</strong>treffen e<strong>in</strong>es Impulses<br />

am Makro ‚Steg‘ abspielt. J.O. Smith nennt diese Art der Synthese ‚Commuted Synthesis‘<br />

[Smith, 2000_b]. Durch die Nutzung von gemessenen Impulsantworten des gesamten<br />

Resonanzsystems ließen sich auf schnelle <strong>und</strong> e<strong>in</strong>fache Art <strong>und</strong> Weise gute Ergebnisse<br />

erzielen. Diese Methode ist allerd<strong>in</strong>gs ke<strong>in</strong>e Simulation e<strong>in</strong>es physikalischen Modells <strong>und</strong><br />

besitzt nicht dessen umfangreiche Parametrisierung. Vor allem wäre der so erzeugte Klang<br />

auf den speziellen Klang der zur Messung der Impulsantwort herangezogenen Geige<br />

beschränkt <strong>und</strong> würde nur deren Reaktion bei Anregung e<strong>in</strong>es Impulses an der zur<br />

Messung erregten Stelle repräsentieren. Da bei Anfertigung dieser Arbeit ke<strong>in</strong>e Aufnahmen<br />

von Geigen-Impulsantworten zur Verfügung standen, konnte diese Methode der<br />

Klangerzeugung nicht implementiert werden.<br />

Onl<strong>in</strong>e-Version 1.0<br />

85


DIPLOMARBEIT HENRI HAGENOW<br />

5.2 Implementierung verschiedener Modelle zur digitalen Synthese e<strong>in</strong>es Flötentones<br />

In diesem Abschnitt soll versucht werden, die komplexen Klangabstrahlungen des durch<br />

äußere Anregung <strong>in</strong> Resonanz geratenden, mehrdimensionalen physikalischen Systems<br />

e<strong>in</strong>er Holzflöte zu synthetisieren. Hierzu werden verschiedene Synthesemethoden auf ihre<br />

Effektivität h<strong>in</strong> untersucht. Zur Anwendung kommen die Methoden der additiven Synthese,<br />

die FM-Synthese <strong>und</strong> die Wellenleitersynthese, die sich jeweils <strong>in</strong> Kapitel 2 beschrieben<br />

f<strong>in</strong>den.<br />

5.2.1 Simulation e<strong>in</strong>es Flötenklanges mit den Methoden der additiven Synthese<br />

Die Theorie der additiven Synthese wird <strong>in</strong> Abschnitt 2.3.1 näher beschrieben. Im folgenden<br />

kommt sie für die Simulation e<strong>in</strong>es Flötentones zur Anwendung. Der zu resynthetisierende<br />

Flötenton liegt als Klangdatei sus_c3_f.wav <strong>in</strong> der Auflösung (44,1 kHz; 16 Bit) vor; es<br />

handelt sich hierbei um den anhaltend forte gespielten Ton c3 mit e<strong>in</strong>er Dauer von ca. 3,2<br />

Sek<strong>und</strong>en.<br />

5.2.1.1 Die Analyse des realen Flötentones<br />

Bevor der Ton mit den Mitteln der additiven Synthese rekonstruiert werden kann, muß se<strong>in</strong>e<br />

spektrale Zusammensetzung <strong>und</strong> dessen zeitlicher Verlauf ausreichend genau analysiert<br />

werden.<br />

Zur Analyse wurde das Programm ‚Cool Edit Pro‘ der Firma ‚Syntrillium‘ verwendet, das<br />

e<strong>in</strong>e Vielzahl von Analyse- <strong>und</strong> Signalverarbeitungsprozessen für Audiodateien bereitstellt.<br />

Neben der Analyse <strong>und</strong> Bearbeitung von Klangdateien stellt das Programm auch e<strong>in</strong>en<br />

Mehrspurmodus zur Verfügung, der es ermöglicht, mehrere Klangdateien <strong>in</strong> parallelen<br />

Spuren anzuordnen <strong>und</strong> gleichzeitig abzuspielen.<br />

Die Analyse zur Bestimmung des zeitlich gemittelten Spektrums erfolgt durch e<strong>in</strong>e FFT 32 .<br />

Mit den FFT-E<strong>in</strong>stellungen [Hamm<strong>in</strong>g W<strong>in</strong>dow, 1024 pts] wurde für die Klangdatei<br />

sus_c3_f.wav im quasistationären Klangbereich e<strong>in</strong>e mittlere Frequenz von 262,23 Hz<br />

bestimmt. Dies entspricht im Vergleich zur theoretischen Frequenz der Note c3 von<br />

261,6256 Hz e<strong>in</strong>em Unterschied von +3 Cents 33 . Weiterh<strong>in</strong> werden Spektogramme erstellt,<br />

die den zeitlichen Verlauf des Klangspektrums darstellen <strong>und</strong> die aus sich überlappenden<br />

32 FFT = Fast Fourier Transformation<br />

33 E<strong>in</strong> ‚Cent‘ enstpricht e<strong>in</strong>em h<strong>und</strong>ertstel Halbtonschritt.<br />

Onl<strong>in</strong>e-Version 1.0 86


DIPLOMARBEIT HENRI HAGENOW<br />

Kurzzeitspektren erstellt werden. In Abb. 5.19 ist die analysierte Klangdatei <strong>und</strong> ihr<br />

spektraler zeitlicher Verlauf dargestellt.<br />

Abb. 5.19: a) Darstellung der Wellenform des Flötenklanges sus_c3_f.wav. Aufgetragen<br />

s<strong>in</strong>d die Amplitude [Samplewerte] über die Zeit [s]. In Teilabbildung b) ist<br />

der zeitliche Verlauf des Frequenzspektrums dargestellt. Hohe Amplitudenwerte<br />

werden hier durch dunklere Farbwerte gekennzeichnet. Die äquidistanten Eigenzustände<br />

(Obertöne) des schw<strong>in</strong>genden Systems s<strong>in</strong>d gut zu erkennen. In Teilabbildung<br />

c) ist das über den gesamten Zeitbereich gemittelte Frequenzspektrum des<br />

Klanges dargestellt<br />

Mittels des von ‚Cool Edit Pro‘ zur Verfügung gestellten FFT-Filters werden die e<strong>in</strong>zelnen<br />

Obertöne aus der Klangdatei isoliert <strong>und</strong> getrennt als neue Klangdateien abgespeichert<br />

(GT: Gr<strong>und</strong>ton, n.OT: n-ter Oberton). Das FFT-Filter filtert e<strong>in</strong> beliebig wählbares<br />

Onl<strong>in</strong>e-Version 1.0<br />

87


DIPLOMARBEIT HENRI HAGENOW<br />

Frequenzband vollständig aus e<strong>in</strong>er Klangdatei heraus (Bandpaß). Der Vorgang wird <strong>in</strong><br />

Abb. 5.20 illustriert. Hierbei ist darauf zu achten, daß die Bandbreite nicht so eng gewählt<br />

wird, daß der Algorithmus das Spektrum im <strong>in</strong>teressierenden Frequenzbereich verfälscht.<br />

Die Datei sus_c3_f.wav wurde unter Verwendung dieses Filters <strong>in</strong> zehn E<strong>in</strong>zeldateien<br />

aufgespalten: E<strong>in</strong>e der Dateien enthält die Gr<strong>und</strong>schw<strong>in</strong>gung <strong>und</strong> acht weitere die Obertöne<br />

1-8 (1.OT – 8.OT). Die letzte Klangdatei enthält die restlichen Obertöne <strong>und</strong> den residualen<br />

Rest mit dem Rauschanteil des Klanges. Diese Teiltondateien wurden im Weiteren mittels<br />

FFT e<strong>in</strong>zeln analysiert, um die mittlere Gr<strong>und</strong>frequenz der Teiltöne <strong>und</strong> deren zeitliche<br />

Amplituden- <strong>und</strong> Frequenzschwankungen zu bestimmen. E<strong>in</strong>e zusammenfassende<br />

Darstellung f<strong>in</strong>det sich <strong>in</strong> Abb. 5.21. Die aus der Analyse erhaltenen Dateien der e<strong>in</strong>zelnen<br />

Obertöne <strong>und</strong> ihre Abbildungen s<strong>in</strong>d im Datenteil der beiliegenden CD im Verzeichnis<br />

(./Analyse/Teiltöne/) zu f<strong>in</strong>den.<br />

Abb. 5.20: Darstellung des Filterungsprozesses zur Isolation der e<strong>in</strong>zelnen Teiltöne<br />

des Flötenklanges mit Hilfe e<strong>in</strong>es schmalbandigen, digitalen Bandpaßfilters (FFT-<br />

Filter) am Beispiel des zweiten Obertones. Die E<strong>in</strong>stellungen des Filterbandes <strong>in</strong> der<br />

Abbildung entsprechen nicht dem Frequenzbereich des zweiten Obertones <strong>und</strong> dienen<br />

nur zur Veranschaulichung des Filtervorganges.<br />

Zur Bestimmung der Amplitudenhüllkurve wurden alle Schw<strong>in</strong>gungsmaxima mittels e<strong>in</strong>es<br />

(Unixshell)-Programmes aus der Klangdatei isoliert. Hierbei wird jeder Samplewert A(n) zu<br />

e<strong>in</strong>em Maximum erklärt, dessen Betrag n folgende Bed<strong>in</strong>gungen erfüllt: A(n) := Max, wenn<br />

A(n-1) < A(n) > A(n+1). Die ermittelten Maxima bilden den Hüllkurvenverlauf der<br />

analysierten Klangdatei <strong>und</strong> werden zur Konstruktion der Hüllkurve des additiven<br />

Flötenmodells herangezogen.<br />

Onl<strong>in</strong>e-Version 1.0 88


DIPLOMARBEIT HENRI HAGENOW<br />

Die mittels FFT-Filter vone<strong>in</strong>ander getrennten Teiltöne wurden als Mehrspur-Session ‚Flute<br />

Sus c3f_splitted.ses‘ wieder zum Gesamtklang zusammengefügt. Durch Addition aller<br />

Teiltöne läßt sich überprüfen, ob das Gesamtspektrum des Klanges durch den FFT-Filter<br />

verändert wurde. Durch Stummschalten e<strong>in</strong>zelner Obertöne kann man sich e<strong>in</strong>en E<strong>in</strong>druck<br />

von der subjektiven ‚Wichtigkeit‘ der e<strong>in</strong>zelnen Teiltöne verschaffen. Versuche ergaben,<br />

daß sechs Teiltöne ausreichen, um den Klang e<strong>in</strong>er Flöte zuzuschreiben.<br />

Abb. 5.21: Ausschnitt aus der Mehrspursession ‚Flute Sus c3f_splitted.ses‘ mit<br />

Darstellung des Gr<strong>und</strong>tones (GT) <strong>und</strong> der ersten drei Obertöne (OT1-3) des<br />

analysierten Flötenklanges. Im rechten Teil der Abbildung ist der Tonhöhenverlauf<br />

des zweiten Obertones über die Zeit dargestellt. Man erkennt hier den E<strong>in</strong>fluß<br />

der Kopplung von Anblasdruck, Amplitude <strong>und</strong> Frequenz <strong>und</strong> die Frequenzschwankungen<br />

am Klangbeg<strong>in</strong>n.<br />

Vier der separierten Teiltöne s<strong>in</strong>d <strong>in</strong> Abb. 5.21 als Mehrspursession dargestellt.<br />

Der Zeitpunkt des Klangbeg<strong>in</strong>ns ist bei allen Dateien der gleiche, so daß die Teiltondateien<br />

untere<strong>in</strong>ander synchron bleiben <strong>und</strong> e<strong>in</strong>en e<strong>in</strong>heitlichen Zeitnullpunkt für die samplegenaue<br />

Bestimmung der Hüllkurvenstützpunkte besitzen.<br />

5.2.1.2 Implementierung e<strong>in</strong>er ‚additiven Flöte‘ auf Basis der Analysedaten<br />

Die ‚additive Flöte‘ besteht aus sieben verschiedenen Teilton-Makros, die jeweils für sich<br />

die e<strong>in</strong>zelnen Teiltöne (Gr<strong>und</strong>ton, Obertöne) <strong>und</strong> den Rauschanteil erzeugen <strong>und</strong> <strong>in</strong> ihrem<br />

zeitlichen Frequenz- <strong>und</strong> Amplitudenverlauf steuern.<br />

Onl<strong>in</strong>e-Version 1.0<br />

89


DIPLOMARBEIT HENRI HAGENOW<br />

5.2.1.2.1 Die Teilton-Makros<br />

Die ‚additive Flöte‘ wird <strong>in</strong> sechs Teilton-Untermakros <strong>und</strong> e<strong>in</strong> Rauschgenerator-Makro<br />

aufgeteilt, die jeweils aus e<strong>in</strong>em Oszillator-Makro <strong>und</strong> e<strong>in</strong>em Hüllkurven-Makro bestehen<br />

(siehe Abb. 5.22). Das Oszillatormodul der sechs Teiltonmodule erzeugt e<strong>in</strong> <strong>in</strong> Frequenz<br />

<strong>und</strong> Amplitude steuerbares S<strong>in</strong>ussignal, dessen Amplitudenwert vom Hüllkurvenmodul<br />

bestimmt wird. Das Makro für die Erzeugung des Rauschanteils besitzt anstelle e<strong>in</strong>es<br />

S<strong>in</strong>usgenerators e<strong>in</strong> Rauschgeneratormodul. Alle Teilton-Makros s<strong>in</strong>d mit dem Steuermodul<br />

‚Ansteuerung‘ verb<strong>und</strong>en, das die Daten des vom Instrumentalisten zu bedienenden<br />

Instrumenten-kontrollers, wie etwa e<strong>in</strong>em Masterkeyboard oder e<strong>in</strong>em W<strong>in</strong>dcontroller,<br />

empfängt, bearbeitet <strong>und</strong> weiterleitet. Se<strong>in</strong>e Struktur ist <strong>in</strong> Abb. 5.35 dargestellt <strong>und</strong> wird <strong>in</strong><br />

Abschnitt 5.2.1.2.9 beschrieben.<br />

Abb. 5.22: Gr<strong>und</strong>struktur der Modells der ‚additiven Flöte‘. Das Modell besteht aus<br />

sechs verschiedenen Untermodulen (GT <strong>und</strong> OT1-OT5), die jeweils e<strong>in</strong>en Teilton<br />

des Flötenklanges erzeugen (l<strong>in</strong>ke Modulreihe). E<strong>in</strong> weiteres Untermodul erzeugt<br />

tonales Rauschen zur Simulation der nichtl<strong>in</strong>earen Anblasgeräusche (Noiz). In den<br />

Signalweg der e<strong>in</strong>zelnen Teiltonmodule s<strong>in</strong>d ‚Switch‘-Module geschaltet, die durch<br />

e<strong>in</strong>e Unterbrechung des Signalweges die Abschaltung e<strong>in</strong>zelner Teiltöne gestatten<br />

(rechte Modulreihe). Das Modul ‚Ansteuerung‘ sendet die e<strong>in</strong>treffenden Notenwerte<br />

<strong>und</strong> Gatesignale <strong>und</strong> regelt den Datenaustausch der Teiltonmodule mit dem E<strong>in</strong>gabegerät<br />

des Instrumentalisten.<br />

Onl<strong>in</strong>e-Version 1.0 90


DIPLOMARBEIT HENRI HAGENOW<br />

Abb. 5.23: Gr<strong>und</strong>struktur der Makros ‚OT2‘ als Beispiel für den pr<strong>in</strong>zipiellen Aufbau der<br />

<strong>in</strong> Abb. 5.22 dargestellten Teiltongeneratoren. ‚HK‘ generiert die Steuerwerte für die Amplitude<br />

des im ‚S<strong>in</strong>e‘-Makro enthaltenen S<strong>in</strong>usgenerators. ‚Modulator‘ <strong>und</strong> ‚SimpleMod‘<br />

prägen der <strong>in</strong> ‚HK‘ generierten Hüllkurve statistische Schwankungen auf, deren Stärke<br />

<strong>und</strong> zeitlicher Verlauf steuerbar s<strong>in</strong>d. ‚FM-Ramp‘ steuert die Frequenzschwankungen<br />

im Klangbeg<strong>in</strong>n des Flötentones, um den Klang realistischer <strong>und</strong> lebendiger kl<strong>in</strong>gen zu<br />

lassen. Das ‚Amp‘-Modul ist e<strong>in</strong> Verstärker, der die Gesamtsignalamplitude bestimmt.<br />

Teilweise unterscheiden sich die verschiedenen Teilton-Makros im Detail vone<strong>in</strong>ander, da<br />

sie auf das <strong>in</strong> der Analyse bestimmte, <strong>in</strong>dividuelle Verhalten der Teiltöne angepaßt wurden.<br />

Das Gr<strong>und</strong>pr<strong>in</strong>zip ist jedoch <strong>in</strong> allen Teilton-Makros das gleiche. Als Beispiel für die Struktur<br />

e<strong>in</strong>es Teilton-Makros ist <strong>in</strong> Abb. 5.23 die Gr<strong>und</strong>struktur des ‚OT2‘-Makros dargestellt, das<br />

den Signalverlauf des zweiten Obertones des Flötenklanges simuliert.<br />

5.2.1.2.2 Das Amplitudenhüllkurven-Makro ‚HK‘<br />

Die Amplitudenhüllkurve der Teiltöne des analysierten Flötentones wird mittels L<strong>in</strong>e-<br />

Segment Approximation nachgebildet (siehe Abschnitt 2.3.1, Abb. 2.6). Die aus der Analyse<br />

erhaltenen Amplitudenhüllkurven werden durch e<strong>in</strong>e m<strong>in</strong>imale Anzahl von stückweise<br />

l<strong>in</strong>earen Kurvensegmenten nachgebildet (siehe Abb. 5.24). Der Amplitudenverlauf des<br />

jeweiligen Teiltons wurde <strong>in</strong> die drei Teilbereiche ‚E<strong>in</strong>schw<strong>in</strong>gvorgang‘, ‚quasistationärer<br />

Klangbereich‘ <strong>und</strong> ‚Auskl<strong>in</strong>gen‘ unterteilt <strong>und</strong> getrennt vone<strong>in</strong>ander nachgebildet. Da die<br />

Anzahl der Stützstellen des benötigten Hüllkurvenmoduls die maximale Anzahl der<br />

Stützstellen <strong>in</strong> den <strong>in</strong> ‚Reaktor‘ vorhandenen Hüllkurvenmodulen übersteigt, mußte zu<br />

diesem Zweck e<strong>in</strong> erweitertes Hüllkurven-Makro konstruiert werden. Je nach Teilton waren<br />

bis zu 15–stufige Hüllkurvengeneratoren notwendig, um den Amplitudenverlauf des<br />

jeweiligen Teiltons nachzubilden. Vor allem der Hüllkurvenverlauf der für e<strong>in</strong>en realistischen<br />

Onl<strong>in</strong>e-Version 1.0<br />

91


DIPLOMARBEIT HENRI HAGENOW<br />

Klange<strong>in</strong>druck wichtigen E<strong>in</strong>schw<strong>in</strong>gphase 34 wurde entsprechend der Analysedaten<br />

möglichst genau nachgebildet; hierfür wurden am meisten Hüllkurven-Stützstellen benötigt.<br />

Abb. 5.24: L<strong>in</strong>e-Segment-Approximation der Amplitudenhüllkurve des zweiten<br />

Obertones aus dem Spektrum des analysierten Flötentons sus_c3_f.wav. Die<br />

realistische Nachbildung des E<strong>in</strong>schw<strong>in</strong>gvorgangs (0-300 ms) benötigt die meisten<br />

Hüllkurvenstützstellen.<br />

Die aus der Analyse erhaltenen Amplituden/Zeit-Paare (a n;t n) i wurden entsprechen der<br />

Formeln<br />

an<br />

A m =<br />

32768<br />

auf die modulspezifischen Wertepaare (A m;t m) i umgerechnet. Hierbei steht der Index ‚n‘ für<br />

die aus der digitalen Klangdatei entnommenen Amplituden- <strong>und</strong> Zeitwerte der Stützstellen<br />

<strong>und</strong> ‚m‘ für die entsprechenden Steuerwerte der <strong>in</strong> Reaktor enthaltenen Hüllkurvenmodule.<br />

Die Amplitudenauflösung der 16-Bit-Klangdateien erlaubt e<strong>in</strong>e Unterscheidung von 32768<br />

verschiedenen Amplitudenwerten <strong>in</strong> jeweils positiver oder negativer Auslenkung. Die<br />

zeitliche Auflösung ist über die Sampl<strong>in</strong>gfrequenz F s = 44100 Hz festgelegt.<br />

Die Gr<strong>und</strong>struktur des Hüllkurvenmakros ‚HK‘ zur Steuerung des Amplitudenverlaufs ist bei<br />

allen Teiltonmodulen gleich: Drei Untermodule steuern jeweils die Hüllkurven der e<strong>in</strong>zelnen<br />

Klangphasen (Makros: ‚E<strong>in</strong>schw<strong>in</strong>gen‘, ‚Susta<strong>in</strong>‘, ‚Release‘), wobei das Untermakro<br />

‚E<strong>in</strong>schw<strong>in</strong>gen‘ wiederum <strong>in</strong> zwei weitere Untermakros (‚Ramp1, ‚Ramp2‘) unterteilt ist.<br />

Insgesamt be<strong>in</strong>haltet das ‚HK‘-Makro drei verschiedene ‚Ramp–Env‘-Generatoren 35 , die <strong>in</strong><br />

34 Bei Flöten liegt die Dauer der E<strong>in</strong>schw<strong>in</strong>gphase im zeitlichen Bereich von ca. 40 - 300 ms [Reuter,<br />

1995].<br />

35 ‚Ramp-Env‘: Mehrphasiges Hüllkurvengenerator-Modul.<br />

Onl<strong>in</strong>e-Version 1.0 92<br />

t<br />

m<br />

t n =<br />

20⋅<br />

log( )<br />

[ ms]


DIPLOMARBEIT HENRI HAGENOW<br />

den e<strong>in</strong>zelnen Untermakros ‚E<strong>in</strong>schw<strong>in</strong>gen‘ <strong>und</strong> ‚Susta<strong>in</strong>‘ verteilt s<strong>in</strong>d. Das ‚Release‘-<br />

Untermakro steuert das Abkl<strong>in</strong>gverhalten nach dem E<strong>in</strong>treffen e<strong>in</strong>es Gate-Null Signals<br />

mittels e<strong>in</strong>es ‚AR-Env 36 ‘-Moduls . Verdeutlicht wird die beschriebene Modulstruktur <strong>in</strong> Abb<br />

5.25.<br />

Abb. 5.25: Gr<strong>und</strong>struktur der Hüllkurvenmakros ‚HK‘ zur Steuerung der Teiltonamplituden<br />

des mittels additiver Synthese resynthetisierten Flötentons.<br />

Die e<strong>in</strong>zelnen Teilhüllkurven ‚Ramp1‘, ‚Ramp2- <strong>und</strong> ‚Susta<strong>in</strong>‘ unterscheiden sich zwar <strong>in</strong><br />

e<strong>in</strong>igen Details, das Arbeitspr<strong>in</strong>zip ist jedoch bei allen das gleiche: Das zur Konstruktion der<br />

Makros verwendete Hüllkurvenmodul ist e<strong>in</strong> meist 6-stufiger Rampengenerator mit l<strong>in</strong>earen<br />

Übergängen zwischen den e<strong>in</strong>zelnen Stützstellen (Modul ‚6-Ramp-Env‘). Das Modul wird<br />

durch e<strong>in</strong> Gate-Signal gestartet. Der Ausgabewert steigt während der ersten e<strong>in</strong>gestellten<br />

Zeit ‚T1‘ l<strong>in</strong>ear auf den ersten Pegel ‚L1‘, dann <strong>in</strong>nerhalb der zweiten Zeit ‚T2‘ auf den Pegel<br />

‚L2‘ usw.. Der fünfte Pegel ‚LS‘ ist der Susta<strong>in</strong>-Pegel, auf dessen Wert das Ausgabesignal<br />

solange gehalten wird, bis e<strong>in</strong> Gate-Event mit Wert Null e<strong>in</strong>trifft, wonach der Ausgabewert<br />

<strong>in</strong>nerhalb der letzten Zeit ‚TR‘ l<strong>in</strong>ear auf Null abkl<strong>in</strong>gt.<br />

36 ‚AR-Env‘ ist e<strong>in</strong> Hüllkurvengenerator mit Attack-Release Charakteristik. E<strong>in</strong> e<strong>in</strong>treffendes Gate-<br />

Signal löst die Hüllkurve aus, die dann <strong>in</strong>nerhalb der Attack-Zeit (E<strong>in</strong>gang ‚A‘) auf den Wert des am<br />

‚G‘-E<strong>in</strong>gang e<strong>in</strong>getroffenen Gate-Signals ansteigt. Dieser Wert bleibt am Signalausgang erhalten, bis<br />

e<strong>in</strong> Gate-Null Signal am E<strong>in</strong>gang ‚G‘ e<strong>in</strong>trifft <strong>und</strong> den Ausgabewert <strong>in</strong>nerhalb der an ‚R‘ anliegenden<br />

‚Release-Zeit‘ exponentiell auf Null abs<strong>in</strong>ken läßt.<br />

Onl<strong>in</strong>e-Version 1.0<br />

93


DIPLOMARBEIT HENRI HAGENOW<br />

Da die fünf Hüllkurvenstufen des von ‚Reaktor zur Verfügung gestellten ‚6-Ramp-Env‘-<br />

Moduls nicht ausreichen, um den komplexen Amplitudenverlauf der Teiltöne nachzubilden,<br />

mußte e<strong>in</strong> Makro erstellt werden, das die Steuerung von weit mehr als 5 Stützstellen<br />

ermöglicht. Dies wird durch e<strong>in</strong>e H<strong>in</strong>tere<strong>in</strong>anderschaltung von mehreren ‚Ramp-Env‘-<br />

Hüllkurven erreicht. Die Schwierigkeit hierbei ist die samplegenaue Ablösung der e<strong>in</strong>zelnen<br />

nache<strong>in</strong>ander folgenden Rampengeneratoren untere<strong>in</strong>ander, ohne daß im erzeugten<br />

Steuersignal e<strong>in</strong> Sprung auftritt, die zu e<strong>in</strong>em Knacken im synthetisierten Klang führen<br />

würde. Die Funktionsweise dieses ‚HK‘-Makros <strong>und</strong> der Signalwertübergabe zwischen den<br />

e<strong>in</strong>zelnen Rampengeneratoren wird anhand der Implementierung zur Steuerung des<br />

zweiten Obertones veranschaulicht. Die Modulstruktur ist <strong>in</strong> Abb. 5.26 dargestellt.<br />

Das Makro ‚Ramp1‘ steuert die erste Hälfte des E<strong>in</strong>schw<strong>in</strong>gvorgangs mittels des oben<br />

beschriebenen ‚6-Ramp-Env‘-Moduls. Zeitgleich mit diesem Rampengenerator wird durch<br />

das entsprechende Gate-Signal auch e<strong>in</strong> ‚H-Env‘-Modul 37 gestartet (<strong>in</strong> Abb. 5.26 wird<br />

dieses Modul mit ‚LS-Rmp1/2 Hold‘ bezeichnet), das <strong>in</strong>nerhalb der am ‚H‘-E<strong>in</strong>gang des ‚H-<br />

Env‘-Moduls festgelegten Zeit nach Erreichen der ‚LS‘-Phase das Ausgangssignal des<br />

‚Ramp1‘-Rampengenerators durch Deaktivierung e<strong>in</strong>es ‚Relay‘-Moduls 38 abschaltet. Zum<br />

gleichen Zeitpunkt, an dem das Ausgangssignal des ersten Hüllkurvenmoduls<br />

abgeschnitten wird, startet das mittels Verzögerungsmodul (‚Delay‘, <strong>in</strong> Abb. 5.26 als ‚Start<br />

Ramp2/3‘ bezeichnet) entsprechend lange zurückgehaltene Gate-Signal den<br />

Rampgenerator im ‚Ramp2‘-Makro. Hierbei ist darauf zu achten, daß der zweite<br />

Rampengenerator sofort nach dem Starten auf den Wert L1 spr<strong>in</strong>gt, der dem Wert der ‚LS‘-<br />

Phase aus dem im ‚Ramp1‘-Makro enthaltenen ersten Rampengenerator entsprechen muß.<br />

Der Amplitudenverlauf darf ke<strong>in</strong>e Sprungstellen<br />

37 Das ‚H-Env‘-Modul leitet den am ‚A‘-E<strong>in</strong>gang anliegenden Wert für die Dauer des am ‚H‘-E<strong>in</strong>gang<br />

anliegenden Zeitwertes an den Ausgang weiter, sobald am ‚T‘-E<strong>in</strong>gang e<strong>in</strong> Audiosignal anliegt, das<br />

sich von Null auf e<strong>in</strong>en positiven Wert verändert.<br />

38 Das ‚Relais‘-Modul schaltet die Weiterleitung des am ‚In‘-E<strong>in</strong>gang anliegenden Signals an den<br />

Modulausgang ab, sobald am ‚Crtl‘-E<strong>in</strong>gang der Wert Null anliegt. E<strong>in</strong> Wert größer als Null schaltet<br />

den E<strong>in</strong>gang wieder auf den Ausgang.<br />

Onl<strong>in</strong>e-Version 1.0 94


DIPLOMARBEIT HENRI HAGENOW<br />

Abb. 5.26: Struktur der Untermakros ‚E<strong>in</strong>schw<strong>in</strong>gen‘ <strong>und</strong> ‚Susta<strong>in</strong>‘ am Beispiel des<br />

‚HK‘-Makros zur Steuerung der Amplitude des zweiten Obertons des resynthetisierten<br />

Flötenklanges. Die Struktur des Makros ‚Release‘ f<strong>in</strong>det sich <strong>in</strong> Abb. 5.25.<br />

Abb. 5.27: Dargestellt s<strong>in</strong>d durch falsche Abstimmung der Steuerzeiten der ‚H-Env‘<strong>und</strong><br />

‚Delay‘-Module entstehende Amplitudenfehler, die im Signalverlauf des angesteuerten<br />

S<strong>in</strong>usoszillators zu Unstetigkeiten <strong>und</strong> somit zu Knacksern im Klangbild<br />

führen. Die Werte der Ablösezeiten müssen auf die Dauer e<strong>in</strong>es Sampl<strong>in</strong>g<strong>in</strong>tervalls<br />

T s genau se<strong>in</strong>.<br />

Onl<strong>in</strong>e-Version 1.0<br />

95


DIPLOMARBEIT HENRI HAGENOW<br />

enthalten, die durch sich unterscheidende Werte LS Ramp1 <strong>und</strong> L1 Ramp2 oder durch nicht<br />

samplegenau aufe<strong>in</strong>ander abgestimmte Ablösezeiten zwischen dem ‚H-Env‘-Modul aus<br />

‚Ramp1‘ <strong>und</strong> dem ‚Delay‘-Modul aus ‚Ramp2‘ entstehen. Bricht z.B. das ‚H-Env‘-Modul den<br />

ersten Rampengenerator zu schnell ab, spr<strong>in</strong>gt das Steuersignal auf Null <strong>und</strong> die<br />

Signalamplitude des angesteuerten S<strong>in</strong>usoszillators wird sofort auf Null gesetzt. Startet<br />

dann das im ‚Delay‘-Modul gehaltene Gate-Signal den zweiten Rampengenerator mit dem<br />

Wert L1 Ramp2, so spr<strong>in</strong>gt die Oszillatoramplitude unmittelbar auf diesen Wert <strong>und</strong> es entsteht<br />

e<strong>in</strong>e Unstetigkeit im Signalverlauf, was sich als knackendes Störgeräusch bemerkbar<br />

macht. Die Steuerzeiten der beiden Module müssen exakt aufe<strong>in</strong>ander abgestimmt se<strong>in</strong>.<br />

Beispiele für sich ergebende Fehler im Signalverlauf des angesteuerten S<strong>in</strong>usgenerators<br />

s<strong>in</strong>d <strong>in</strong> Abb. 5.27 zu f<strong>in</strong>den.<br />

Die Steuerwerte der TR-Phasen der beschriebenen Rampengeneratoren haben <strong>in</strong> diesen<br />

Makros ke<strong>in</strong>e Funktionen <strong>und</strong> sollten sehr kurze Abkl<strong>in</strong>gzeiten zugewiesen bekommen.<br />

Auf die Stützstellen der beiden E<strong>in</strong>schw<strong>in</strong>ghüllkurven folgen die Stützstellen der<br />

quasistationären Klangphase, die im Makro ‚Susta<strong>in</strong>‘ generiert werden. Dieser Teil des<br />

Amplitudenverlaufs benötigt weniger Rampenpunkte als der E<strong>in</strong>schw<strong>in</strong>gvorgang, so daß<br />

hier e<strong>in</strong> e<strong>in</strong>ziger Rampengenerator ausreicht. Das ‚Susta<strong>in</strong>‘-Makro gleicht <strong>in</strong> Funktion <strong>und</strong><br />

Aufbau dem ‚Ramp2‘-Makro, die Verzögerungszeit des enthaltenen Delay-Moduls speichert<br />

das Gate-Signal um die Dauer des E<strong>in</strong>schw<strong>in</strong>gvorganges <strong>und</strong> startet erst dann die<br />

Hüllkurve des letzten Rampengenerators.<br />

Die Abkl<strong>in</strong>gphase des Tones wird e<strong>in</strong>geleitet, wenn das E<strong>in</strong>gabegerät des Spielers e<strong>in</strong><br />

Gate-Off Signal sendet, also z.B. beim Loslassen der Masterkeyboardtaste. Da das Gate-<br />

Off Signal im Speicher des ‚Delay‘-Module verweilt <strong>und</strong> daher die Release-Phase des im<br />

‚Susta<strong>in</strong>‘-Makro enthaltenen Hüllkurvenmoduls verspätet startet, muß e<strong>in</strong> weiteres Makro<br />

konstruiert werden, das die Abkl<strong>in</strong>gphase des Tones generiert, sobald e<strong>in</strong> Gate-Off Signal<br />

gesendet wird. Der Aufbau dieses ‚Release‘-Makros ist <strong>in</strong> Abb. 5.25 dargestellt. Es läßt sich<br />

<strong>in</strong> e<strong>in</strong>en unteren <strong>und</strong> e<strong>in</strong>en oberen Signalweg unterteilen <strong>und</strong> besitzt zwei Signale<strong>in</strong>gänge:<br />

e<strong>in</strong>en E<strong>in</strong>gang für das Gate-Signal <strong>und</strong> e<strong>in</strong>en für das Hüllkurvensignal aus den Makros<br />

‚E<strong>in</strong>schw<strong>in</strong>gen‘ <strong>und</strong> ‚Susta<strong>in</strong>‘. Das e<strong>in</strong>treffende Gatesignal wird <strong>in</strong> beide Signalwege geleitet.<br />

Im unteren Signalweg wird es durch e<strong>in</strong> ‚Not‘-Modul geleitet, das das logische<br />

Komplement 39 des e<strong>in</strong>treffenden Signals generiert. Hierauf folgt e<strong>in</strong> ‚H-Env‘-Modul, dessen<br />

39 Der Ausgangswert des ‚Not‘-Moduls ist 0, wenn der E<strong>in</strong>gangswert positiv ist. Ansonsten ist der<br />

Ausgangswert 1.<br />

Onl<strong>in</strong>e-Version 1.0 96


DIPLOMARBEIT HENRI HAGENOW<br />

Ausgang <strong>in</strong> e<strong>in</strong> ‚A to Gate‘-Modul 40 geleitet wird. Trifft am ‚Not‘-Modul nun e<strong>in</strong> Gate-Off 41<br />

Signal e<strong>in</strong>, so gibt dieses den Wert 1 aus, welcher am Triggere<strong>in</strong>gang des ‚H-Env‘-Moduls<br />

die Hüllkurve auslöst, die kurz danach sofort wieder auf Null abfällt. Hierdurch wird die<br />

Amplitude des am ‚In‘-E<strong>in</strong>gang e<strong>in</strong>treffenden Hüllkurvensignals, das <strong>in</strong> den ‚A‘-E<strong>in</strong>gang des<br />

‚A to Gate‘-Moduls geleitet wird, gemessen <strong>und</strong> als Gate-Signal an den Triggere<strong>in</strong>gang des<br />

folgenden ‚AR-Env‘-Moduls 42 gesendet. Das Gate-Off Signal startet auf diese Weise die<br />

Abkl<strong>in</strong>g-Hüllkurve (das ‚AR-Env‘-Modul) mit der Amplitude des zu diesem Zeitpunkt<br />

aktuellen, am ‚In‘-E<strong>in</strong>gang anliegenden Hüllkurvenwertes.<br />

Damit sich die am ‚In‘-E<strong>in</strong>gang e<strong>in</strong>treffenden Hüllkurvenwerte nicht mit den im ‚AR-Env‘-<br />

Modul generierten Werten überlagern, wird der obere Signalweg über das ‚Relais‘-Modul<br />

‚Attack On‘ abgeschaltet, sobald e<strong>in</strong> Gate-Off Signal gesendet wird. Gleichzeitig wird das<br />

‚Relais‘-Modul ‚Release On‘ geöffnet, das während der ‚E<strong>in</strong>schw<strong>in</strong>g‘- <strong>und</strong> ‚Susta<strong>in</strong>‘-Phasen<br />

geschlossen bleibt. Das ‚Event-Delay‘-Modul im oberen Signalweg dient zur Verzögerung<br />

des Gate-Signals um die Zeit, die die untere Modulreihe für die Verarbeitung <strong>und</strong><br />

Weiterleitung des modifizierten Gate-Signals benötigt.<br />

Innerhalb der Susta<strong>in</strong>phase sollte das Hüllkurvensignal zur Steuerung der<br />

Teiltonamplituden <strong>und</strong> die Modulationstiefe der Teiltonfrequenzmodulation mit den<br />

E<strong>in</strong>gabeparametern zur Steuerung des Anblasdruckes verknüpft werden, damit der Spieler<br />

des virtuellen Instru-mentes <strong>in</strong> dieser andauernden Klangphase ausreichend E<strong>in</strong>fluß auf<br />

den Klang nehmen kann.<br />

Nachteilig an der Komb<strong>in</strong>ation der Hüllkurvengeneratoren zur Erweiterung der Stützstellen-<br />

anzahl ist, daß die Generierung kurzzeitig nache<strong>in</strong>ander gespielter Töne nicht möglich ist.<br />

Da das Gate-Off Signal <strong>in</strong>nerhalb der ‚Delay‘-Module gehalten wird, läuft die Hüllkurve um<br />

die Dauer der e<strong>in</strong>gestellten Verzögerungszeit weiter, bevor sie gestoppt wird. Wird e<strong>in</strong>e<br />

Hüllkurve erneut ausgelöst, solange das Gate-Off Signal nicht alle Hüllkurven gestoppt hat,<br />

so wird das neu getriggerte Hüllkurvensignal zu dem noch ausgegebenen Signal addiert<br />

<strong>und</strong> es kommt zu e<strong>in</strong>em Amplitudensprung im Klangbeg<strong>in</strong>n, was sich durch e<strong>in</strong> lautes<br />

Knacken äußert (‚Gate-Off Problem‘).<br />

40 Das ‚A to Gate‘-Modul ist e<strong>in</strong> Audio-zu-Gate-Konverter. Steigt e<strong>in</strong> Signal am ‚T‘-E<strong>in</strong>gang von Null<br />

<strong>in</strong> positive Richtung, so gibt das Modul den am ‚A‘-E<strong>in</strong>gang anliegenden Wert als Gate-Impuls aus.<br />

Bei Werten kle<strong>in</strong>er-gleich Null wird der Ausgang wieder abgeschaltet.<br />

41 E<strong>in</strong> Gate-Off Signal besitzt den Wert 0.<br />

42 Das ‚AR-Env‘-Modul ist e<strong>in</strong> zweiphasiger Hüllkurvengenerator. Trifft e<strong>in</strong> Gatesignal mit Wert N am<br />

‚G‘-E<strong>in</strong>gang e<strong>in</strong>, so steigt der Ausgabewert <strong>in</strong>nerhalb der am ‚A‘-E<strong>in</strong>gang angegbenen Zeit von Null<br />

auf den Wert N l<strong>in</strong>ear an. Das Ausgangssignal wird auf diesem Wert gehalten, bis e<strong>in</strong> Gate-Off<br />

Signal (Gate Signal mit Amplitude 0) die Abkl<strong>in</strong>gphase auslöst, die <strong>in</strong> der am ‚R‘-E<strong>in</strong>gang<br />

angegebenen Zeit den Ausgabewert des Moduls exponentiell auf Null abkl<strong>in</strong>gen läßt.<br />

Onl<strong>in</strong>e-Version 1.0<br />

97


DIPLOMARBEIT HENRI HAGENOW<br />

5.2.1.2.3 Die stochastische Variation der Amplitudenhüllkurve<br />

In realen Flötenklängen unterliegt die Signalamplitude chaotischen Schwankungen, die das<br />

Klangbild lebendig machen <strong>und</strong> ohne die der Ton statisch <strong>und</strong> unnatürlich kl<strong>in</strong>gen würde.<br />

Um e<strong>in</strong> solches stochastisches Verhalten zu simulieren, werden dem Hüllkurven-Makro ‚HK‘<br />

weitere Makros nachgeschaltet, die die l<strong>in</strong>earen Signalsegmente modulieren <strong>und</strong> ihnen <strong>in</strong><br />

vorgegebenen Grenzen e<strong>in</strong> stochastisches Verhalten aufprägen. Die Grenzen werden aus<br />

den Analysedaten ermittelt.<br />

Zuständig für diese statistischen Amplitudenschwankungen s<strong>in</strong>d die Makros ‚Modulator‘ <strong>und</strong><br />

‚SimpleMod‘. Ihre Funktionspr<strong>in</strong>zipien werden im Folgenden beschrieben.<br />

5.2.1.2.4 Das Makro ‚Modulator‘<br />

Das Makro ‚Modulator‘ setzt sich aus e<strong>in</strong>er Vielzahl von Untermakros zusammen, die hier<br />

nicht bis <strong>in</strong>s Detail beschrieben werden sollen. Die Struktur des Makros ist <strong>in</strong> Abb. 5.28<br />

dargestellt. Zum genauen Verständnis der Schaltung ist es von Vorteil, den Signalweg<br />

rückwärts, also vom Ausgang zum E<strong>in</strong>gang, nachzuvollziehen.<br />

Im Hauptfenster des Makros ‚Modulator‘ bef<strong>in</strong>det sich das Untermakro ‚HK-Modulator‘ <strong>und</strong><br />

e<strong>in</strong>e Schaltung, die es ermöglicht, auszuwählen, ob das vom ‚HK-Modulator‘-Makro<br />

ausgegebene Signal das <strong>in</strong> den ‚In‘-E<strong>in</strong>gang e<strong>in</strong>treffende Hüllkurvensignal modulieren soll,<br />

oder diesem h<strong>in</strong>zuaddiert wird.<br />

Das Untermakro ‚HK-Modulator‘ unterteilt sich <strong>in</strong> die Makros ‚StochasticVari‘, ‚Determ<strong>in</strong>istic‘<br />

<strong>und</strong> ‚ModValue-HK‘. ‚StochasticVari‘ erzeugt mittels e<strong>in</strong>es ‚Random‘-Moduls 43 e<strong>in</strong><br />

stufenförmiges Zufallssignal (Rauschen), dessen Ausgangssignal durch e<strong>in</strong>en Tiefpaßfilter<br />

abger<strong>und</strong>et wird. Diesem wird das aus dem Makro ‚Determ<strong>in</strong>istic‘ stammende Signal<br />

h<strong>in</strong>zuaddiert. Dort erzeugt e<strong>in</strong> zeitabhängig frequenzmodulierter S<strong>in</strong>usgenerator e<strong>in</strong> <strong>in</strong> der<br />

Amplitude modulierbares Signal.<br />

Der zeitliche Verlauf der Amplitude der <strong>in</strong> den Makros ‚StochasticVari‘ <strong>und</strong> ‚Determ<strong>in</strong>istic‘<br />

erzeugten quasistochastischen Signale wird durch das Makro ‚ModValue-HK‘ gesteuert.<br />

43 Das ‚Random‘-Modul ist e<strong>in</strong> Zufallswert-Generator, der e<strong>in</strong>e Stufenwellenform erzeugt, deren<br />

Stufenhöhen gleichverteilt s<strong>in</strong>d.<br />

Onl<strong>in</strong>e-Version 1.0 98


DIPLOMARBEIT HENRI HAGENOW<br />

Abb. 5.28: Detaillierte Darstellung des Makros ‚Modulator‘, das dem im Makro ‚HK‘<br />

generierten Steuersignal e<strong>in</strong> <strong>in</strong> Grenzen e<strong>in</strong>stellbares stochastisches Verhalten aufprägt.<br />

Die Modultiefe nimmt von oben nach unten zu; ganz oben ist das Makro ‚OT2‘,<br />

welches den zweiten Oberton generiert, dargestellt.<br />

Onl<strong>in</strong>e-Version 1.0<br />

99


DIPLOMARBEIT HENRI HAGENOW<br />

5.2.1.2.5 Das Makro ‚SimpleMod‘<br />

Das Makro ‚SimpleMod‘ erzeugt e<strong>in</strong>e weitere Variation der e<strong>in</strong>treffenden Hüllkurvensignale.<br />

Diese Modulation ist allerd<strong>in</strong>gs um e<strong>in</strong>iges überschaubarer, als die im ‚Modulator‘-Makro<br />

erzeugten Modulationen. Hier erfolgt nur e<strong>in</strong>e e<strong>in</strong>fache Addition des E<strong>in</strong>gangssignals mit<br />

dem Signal e<strong>in</strong>es synchronisierbaren S<strong>in</strong>usgenerators, dessen Amplitude durch e<strong>in</strong>e<br />

Hüllkurve gesteuert wird. Synchronisierbar bedeutet <strong>in</strong> diesem Fall, daß die Phase der vom<br />

S<strong>in</strong>usgenerator ausgegebenen S<strong>in</strong>usschw<strong>in</strong>gung auf e<strong>in</strong>en e<strong>in</strong>stellbaren Wert gesetzt wird,<br />

sobald e<strong>in</strong> Triggersignal am ‚Sync‘-E<strong>in</strong>gang des Generators anliegt. Die<br />

Amplitudenhüllkurve wird im Makro ‚Ampl.-HK‘ generiert. Der E<strong>in</strong>satzzeitpunkt kann mittels<br />

des ‚Event Delay‘-Moduls ve rzögert werden. Die Modulstruktur ist <strong>in</strong> Abb. 5.29<br />

veranschaulicht.<br />

Abb. 5.29: Detaillierte Darstellung des Makros ‚SimpleMod‘. Es besteht aus e<strong>in</strong>em<br />

synchronisierbaren S<strong>in</strong>usoszillator, dessen Amplitude durch e<strong>in</strong>e Hüllkurve zeitlich<br />

regelbar ist. Das Modul ‚Event Delay‘ ermöglicht e<strong>in</strong> verzögertes E<strong>in</strong>setzen der Amplitudenhüllkurve.<br />

5.2.1.2.6 Die erweiterte L<strong>in</strong>e-Segment Approximation<br />

Die im Makro ‚HK‘ erzeugte Hüllkurve der Teiltöne bildet den aus der Analyse bekannten<br />

Amplitudenverlauf durch L<strong>in</strong>e-Segment Approximation nach (siehe Abschnitt 2.3.2, Abb.<br />

2.6). Durch die nachfolgende stochastische Variation der l<strong>in</strong>earen Hüllkurvensegmente<br />

mittels der Makros ‚Modulator‘ <strong>und</strong> ‚SimpleMod‘ erhält der Hüllkurvenverlauf die Komplexität<br />

Onl<strong>in</strong>e-Version 1.0 100


DIPLOMARBEIT HENRI HAGENOW<br />

der Teiltöne des orig<strong>in</strong>alen Flötentons. Die Steuerdaten dieser Module erhält man aus den<br />

<strong>in</strong> der Analyse festgestellten maximalen <strong>und</strong> m<strong>in</strong>imalen mittleren Abweichungen des realen<br />

Amplitudenverlaufes von den approximierten l<strong>in</strong>earen Verläufen. Die L<strong>in</strong>e-Segment-<br />

Hüllkurve dient demnach nur als statistischer Mittelwert. In Abb. 5.30 ist die<br />

Orig<strong>in</strong>alhüllkurve der Teiltonamplitude des zweiten Obertones <strong>und</strong> der Verlauf der L<strong>in</strong>e-<br />

Segment Approximation mit bzw. ohne stochastischer Variation dargestellt. Die starken<br />

Amplituden-schwankungen im quasistationären Klangbereich des Orig<strong>in</strong>alteiltons werden <strong>in</strong><br />

der Simulation durch e<strong>in</strong>e Variation des Anblasdrucks mittels des vom Spieler bedienten<br />

E<strong>in</strong>gabegerätes erzeugt. Hierzu muß nur der Susta<strong>in</strong>-Level im Hüllkurvenmakro ‚HK‘ an e<strong>in</strong><br />

Datene<strong>in</strong>gangsmodul gekoppelt werden, an das das E<strong>in</strong>gabegerät des Spielers (z.B.<br />

W<strong>in</strong>dcontroller oder Masterkeyboard) die jeweiligen Parameteränderungen sendet (z.B. die<br />

MIDI-Daten ‚Channel Pressure‘ oder ‚PitchBend‘). Neben des Susta<strong>in</strong>-Levels kann<br />

zusätzlich e<strong>in</strong>e leichte Frequenzvariation an den Anblasdruck gekoppelt werden, da bei<br />

Blas<strong>in</strong>strumenten neben der Amplitude auch die Frequenz vom Anblasdruck abhängt<br />

[Fletcher&Ross<strong>in</strong>g, 1998], was man <strong>in</strong> Abb. 5.21 erkennen kann.<br />

Abb. 5.30: Gegenüberstellung der Amplitudenhüllkurven des zweiten Obertones<br />

des analysierten Flötenklanges: a) Orig<strong>in</strong>alamplitudenverlauf; b) Mittels<br />

‚HK‘-Makro erzeugte L<strong>in</strong>e-Segment Approximation; c) stochastisch variierte<br />

L<strong>in</strong>e-Segment Approximation durch H<strong>in</strong>zunahme der Makros ‚Modulator‘<br />

<strong>und</strong> ‚SimpleMod‘. Aufgetragen ist die Schw<strong>in</strong>gungsamplitude [Samplewerte]<br />

über die Zeit [s].<br />

5.2.1.2.7 Das Teilton-Oszillatormakro ‚S<strong>in</strong>e‘<br />

Die Oszillatoren der Teilton-Makros s<strong>in</strong>d - bis auf die Ausnahme des Rauschgenerators -<br />

durchgehend S<strong>in</strong>usoszillatoren, deren Amplituden durch die oben beschriebenen<br />

Hüllkurven-Makros gesteuert werden. Innerhalb der Teilton-Makros bef<strong>in</strong>den sich die<br />

Oszillatormodule <strong>in</strong> den Untermakros ‚S<strong>in</strong>e‘. Die Struktur e<strong>in</strong>es solchen ‚S<strong>in</strong>e‘-Makros ist <strong>in</strong><br />

Abb. 5.31 dargestellt.<br />

Onl<strong>in</strong>e-Version 1.0<br />

101


DIPLOMARBEIT HENRI HAGENOW<br />

Abb. 5.31: Darstellung der Modulstruktur des ‚S<strong>in</strong>e‘-Makros zur Erzeugung<br />

der amplituden- <strong>und</strong> frequenzmodulierten S<strong>in</strong>usschw<strong>in</strong>gung e<strong>in</strong>es Teiltones<br />

zur Simulation e<strong>in</strong>es Flötenklanges mittels additiver Synthese.<br />

Der e<strong>in</strong>gesetzte S<strong>in</strong>usoszillator ist synchronisierbar <strong>und</strong> <strong>in</strong> se<strong>in</strong>er Phase variierbar. Die aus<br />

der Analyse erhaltenen Phasenbeziehungen können so für jeden Teilton e<strong>in</strong>gestellt werden.<br />

An se<strong>in</strong>em ‚P‘-E<strong>in</strong>gang erhält das Oszillatormodul die Tonhöhen<strong>in</strong>formation <strong>in</strong> Form von<br />

MIDI-Notennummern, am ‚F‘-E<strong>in</strong>gang <strong>in</strong> Form e<strong>in</strong>er Frequenzangabe <strong>in</strong> [Hz]. Die Signale<br />

an den beiden E<strong>in</strong>gängen werden modul<strong>in</strong>tern addiert. Das Frequenzverhältnis der<br />

e<strong>in</strong>zelnen S<strong>in</strong>usoszillatoren zu den übrigen Teiltongeneratoren wird durch Addition<br />

konstanter Werte zu den e<strong>in</strong>treffenden MIDI-Pitch-Werten erreicht. E<strong>in</strong> Pitch-Wert von 1<br />

entspricht hierbei e<strong>in</strong>em Halbton, der Wert 12 also e<strong>in</strong>er Oktave. Der Gr<strong>und</strong>ton stellt die<br />

Basis für die Frequenzverhältnisse aller Teiltöne dar. Die e<strong>in</strong>zelnen zu addierenden Werte<br />

s<strong>in</strong>d GT:0, OT1: 12, OT2: 19, OT3: 24, OT4: 28, OT5: 31. In der Analyse wurde festgestellt,<br />

daß die Obertöne 4 <strong>und</strong> 5 gegenüber ihren theoretischen ganzzahligen Verhältnissen zur<br />

Basis GT leicht verstimmt s<strong>in</strong>d. Um diese Verstimmung auf die ‚S<strong>in</strong>e‘-Makros der beiden<br />

Obertongeneratoren zu übertragen, wurden entsprechende Module implementiert, die <strong>in</strong><br />

Abb. 5.32 dargestellt s<strong>in</strong>d.<br />

Abb. 5.32: Abwandlung der Struktur des makros ‚S<strong>in</strong>e‘ zur Erzeugung der <strong>in</strong><br />

der Analyse festgestellten leichten Verstimmung der Obertöne OT4 <strong>und</strong> OT5<br />

<strong>in</strong> Bezug auf ihr theoretisch ganzzahliges Verhältnis zur Gr<strong>und</strong>tonhöhe. Die<br />

dargestellte Schaltung ermöglicht über den ‚Cent‘-Regler die E<strong>in</strong>stellung der<br />

prozentualen Abweichung des ‚P‘-Steuerwertes von der gespielten Tonhöhe.<br />

Onl<strong>in</strong>e-Version 1.0 102


DIPLOMARBEIT HENRI HAGENOW<br />

5.2.1.2.8 Das Makro ‚FM-Ramp‘<br />

Die Simulation des Frequenzverlaufes während des E<strong>in</strong>schw<strong>in</strong>gvorganges des Flötentones<br />

ist sehr e<strong>in</strong>fach gehalten <strong>und</strong> orientiert sich an den Messungen des Frequenzverlaufes der<br />

Teiltöne, wie sie für den zweiten Oberton im rechten Teil von Abb. 5.21 als Beispiel<br />

dargestellt ist. Dort erkennt man zum Klangbeg<strong>in</strong>n e<strong>in</strong>e kurzzeitige Überhöhung des<br />

Frequenzverlaufes. Die Simulation dieses Verhaltens wird erreicht, <strong>in</strong>dem den<br />

Frequenze<strong>in</strong>gängen ‚F‘ der Teiltongeneratoren sofort nach dem Klangbeg<strong>in</strong>n e<strong>in</strong>e schnell<br />

abfallende Wertefolge zugeführt wird, die durch e<strong>in</strong> ‚D-Env‘-Hüllkurvenmodul 44 generiert<br />

wird <strong>und</strong> deren Abfallzeiten <strong>in</strong>dividuell auf die jeweiligen Teiltöne angepaßt werden können.<br />

Hierbei ist darauf zu achten, daß das Tonhöhenänderungs-empf<strong>in</strong>den des menschlichen<br />

Gehörs 45 nicht dem Betrag der Frequenzänderung, sondern dem Änderungsverhältnis<br />

proportional ist. Die Abweichungen werden <strong>in</strong> Prozentanteilen von der Gr<strong>und</strong>tonhöhe<br />

e<strong>in</strong>gegeben. Diese Simulation ist stark vere<strong>in</strong>facht <strong>und</strong> soll nur den subjektiven<br />

Klange<strong>in</strong>druck des beobachteten Teiltonverhaltens nachbilden.<br />

Der <strong>in</strong> Abb. 5.34 dargestellte direkte Vergleich zwischen dem Orig<strong>in</strong>al <strong>und</strong> dem<br />

synthetisierten Gr<strong>und</strong>ton verschafft e<strong>in</strong>en E<strong>in</strong>druck über die erzielbare Genauigkeit der<br />

Frequenz- <strong>und</strong> Amplitudenmodulation des Teilton-S<strong>in</strong>ussignals.<br />

Abb. 5.33: Darstellung der Modulstruktur des Makros ‚FM-Ramp.<br />

44 Das ‚D-Env‘-Modul ist e<strong>in</strong> Hüllkurvengenerator mit Decay-Charakteristik. Die Hüllkurve wird durch<br />

e<strong>in</strong> positives Signal am ‚T‘-E<strong>in</strong>gang ausgelöst <strong>und</strong> startet mit dem am ‚A‘-E<strong>in</strong>gang anliegenden<br />

Signalwert. Dieser Wert fällt dann mit der am ‚D‘-E<strong>in</strong>gang e<strong>in</strong>gestellten Zeit exponentiell auf Null ab.<br />

45 Die physiologische E<strong>in</strong>schw<strong>in</strong>gzeit des Ohres beträgt ca. 0,25 ms. Im Frequenzbereich zwischen 1<br />

<strong>und</strong> 4 kHz ist bereits e<strong>in</strong>e Änderung der Tonhöhe um 2% bei unmittelbar aufe<strong>in</strong>anderfolgendem<br />

Vergleich wahrnehmbar [Weber, 1994].<br />

Onl<strong>in</strong>e-Version 1.0<br />

103


DIPLOMARBEIT HENRI HAGENOW<br />

Orig<strong>in</strong>al<br />

Nachbildung<br />

Orig<strong>in</strong>al<br />

Nachbildung<br />

Abb. 5.34: Vergleich des orig<strong>in</strong>alen <strong>und</strong> des synthetisierten Amplitudenverlaufes des<br />

Gr<strong>und</strong>tones des analysierten Flötenklanges.<br />

5.2.1.2.9 Das Datene<strong>in</strong>gabemakro ‚Ansteuerung‘<br />

Das Makro ‚ Ansteuerung ‘ stellt die Verb<strong>in</strong>dung zwischen dem vom Instrumentenspieler<br />

bedienten E<strong>in</strong>gabegerät <strong>und</strong> der angesteuerten virtuellen ‚additiven Flöte‘ her <strong>und</strong><br />

ermöglicht die gezielte Variation des synthetisierten Klangbildes. Die wichtigste Information,<br />

die dieses Makro generiert, ist der MIDI-Pitch-Wert, mit dem die Information der vom<br />

E<strong>in</strong>gabegerät gesendeten Gr<strong>und</strong>tonhöhe (Pitch) an die e<strong>in</strong>zelnen Teiltongeneratoren<br />

übermittelt wird. Da dieser MIDI Pitch-Wert von den meisten E<strong>in</strong>gabegeräten allerd<strong>in</strong>gs als<br />

konstanter Wert gesendet wird, die Tonhöhe bei Blas<strong>in</strong>strumenten aber nie über längere<br />

Zeiten konstant bleibt, wird der gesendeten Pitch-Wert mittels des Makros ‚FM‘ <strong>in</strong>nerhalb<br />

Onl<strong>in</strong>e-Version 1.0 104


DIPLOMARBEIT HENRI HAGENOW<br />

der <strong>in</strong> der Analyse bestimmten Grenzen variiert. Der Gesamte<strong>in</strong>fluß dieser Variation kann<br />

über den ‚Cent‘-Regler e<strong>in</strong>gestellt werden. In Abb. 5.35 ist die Struktur des Makros<br />

‚Ansteuerung‘ dargestellt.<br />

Abb. 5.35: Darstellung der Modulstruktur des Makros ‚Ansteuerung‘.<br />

Die erste Frequenzvariationsmöglichkeit <strong>in</strong>nerhalb des Makros ‚FM‘ ist durch e<strong>in</strong>e Kopplung<br />

des E<strong>in</strong>gabeparameters ‚Chan.AT‘ gegeben. ‚Chan.AT‘ bedeutet ‚Channel Aftertouch‘ <strong>und</strong><br />

ist e<strong>in</strong> <strong>in</strong> der MIDI-Norm enthaltener 128-stufiger Parameter 46 , der von den meisten<br />

Masterkeyboards gesendet wird, wenn man Druck auf e<strong>in</strong>e schon gehaltene Taste ausübt.<br />

Durch die Variation der Druckstärke kann man auf diese Weise die ‚Susta<strong>in</strong>‘-Phase des<br />

Klanges bee<strong>in</strong>flussen.<br />

Die zweite implementierte Form der Frequenzvariation <strong>in</strong>nerhalb des ‚FM‘-Makros wird im<br />

Untermakro ‚TH-Vari‘ generiert. Dessen Anteil an der Gesamtvariation ist über den Regler<br />

‚StchVar‘ regelbar. Innerhalb dieses Untermakros sendet e<strong>in</strong>e durch e<strong>in</strong> Zufallssignal<br />

getriggerte ‚AR-Env‘-Hüllkurve e<strong>in</strong> kurzeitig ansteigendes <strong>und</strong> sofort wieder abfallendes<br />

Ausgangssignal, das die durch den Spieler unkontrolliert verursachte <strong>und</strong> sche<strong>in</strong>bar zufällig<br />

auftretende Frequenzvariation aufgr<strong>und</strong> des nicht konstanten Anblasdruckes simulieren<br />

46 Pr<strong>in</strong>zipiell ist es möglich, alle <strong>in</strong> der MIDI-Norm enthaltenen Steuerparameter <strong>in</strong>nerhalb der Makros<br />

zu verarbeiten <strong>und</strong> zur Klanggestaltung via Steuergerät zu benutzen.<br />

Onl<strong>in</strong>e-Version 1.0<br />

105


DIPLOMARBEIT HENRI HAGENOW<br />

soll. Desweiteren wird als dritte Variationsmöglichkeit e<strong>in</strong> ‚LFO‘-Modul 47 implementiert, das<br />

bei Aktivierung e<strong>in</strong> <strong>in</strong> Frequenz <strong>und</strong> Amplitude e<strong>in</strong>stellbares Vibrato erzeugt.<br />

5.2.1.2.10 Das Rauschgenerator-Makro ‚Noiz‘<br />

Der am schwierigsten zu simulierende Klangbereich des Flötentones ist der stochastische<br />

Klanganteil. Da Rauschanteile zwischen den e<strong>in</strong>zelnen Obertönen auftreten <strong>und</strong> mit den zur<br />

Verfügung stehenden Analysemethoden nur schwer zu messen waren, wurde die<br />

Implementierung des Rauschanteils im Flötenklang nur sek<strong>und</strong>är behandelt. E<strong>in</strong> weiterer<br />

Gr<strong>und</strong> für die Implementierung e<strong>in</strong>es e<strong>in</strong>fachen Rauschgenerators war die begrenzte<br />

Rechnerleistung des zur Verfügung stehenden Computers. Um die <strong>in</strong> der Analyse<br />

festgestellte Tonalität des Rauschens zu simulieren, müßte man m<strong>in</strong>destens so viele<br />

Bandpaßfilter implementieren, wie Teiltongeneratoren vorhanden s<strong>in</strong>d. Aus Zeitgründen<br />

wurde sowohl auf die genaue Analyse, als auch auf die realistische Resynthese dieses<br />

Klangbereichs verzichtet. Mit e<strong>in</strong>er Erweiterung durch mehrere parallelgeschaltete<br />

Bandpaßfilter ließe sich e<strong>in</strong> tonales Rauschen generieren, welches e<strong>in</strong>en realistischeren<br />

Klange<strong>in</strong>druck erzeugen würde.<br />

Das Makro ‚Noiz‘ erzeugt den Rauschanteil des Flötenklanges. Es besteht aus e<strong>in</strong>em<br />

hüllkurvengesteuerten Rauschgenerator, der e<strong>in</strong> Weißes Rauschen erzeugt. Das Rauschen<br />

läßt sich mittels des im Hüllkurvenmakro ‚Ampl.-HK‘ enthaltenen ‚Event Delay‘-Moduls im<br />

E<strong>in</strong>satzzeitpunkt gegenüber dem Tonbeg<strong>in</strong>n der Teiltongeneratoren verzögern. Es wird<br />

dann durch das Makro ‚allpole‘ geleitet, <strong>in</strong>nerhalb dessen es mittels Bandpaßfilter auf e<strong>in</strong><br />

enges Frequenzband (Q=0,99) reduziert wird. Die Mittenfrequenz des Bandpaßfilters<br />

verschiebt sich durch die Verknüpfung des ‚P‘-E<strong>in</strong>gangs des Filters <strong>und</strong> dem ‚NotePitch‘-<br />

Modul mit der durch das E<strong>in</strong>gabegerät bestimmten Gr<strong>und</strong>frequenz. Die beschriebene<br />

Modulstruktur f<strong>in</strong>det sich <strong>in</strong> Abb. 5.36.<br />

47 ‚LFO‘ bedeutet Low Frequency Oscillator. E<strong>in</strong> ‚LFO‘-Modul ist e<strong>in</strong> Funktionsgenerator, dessen<br />

Signalfrequenz unterhalb des hörbaren Bereichs, also unterhalb von 20 Hz, liegt.<br />

Onl<strong>in</strong>e-Version 1.0 106


DIPLOMARBEIT HENRI HAGENOW<br />

Abb. 5.36: Darstellung der Modulstruktur des Rauschgenerator-Makros ‚Noiz‘.<br />

5.2.1.2.11 Ansteuerung <strong>und</strong> Spielbarkeit<br />

Das implementierte additive Modell der Flöte soll von e<strong>in</strong>em Instrumentalisten über e<strong>in</strong><br />

entsprechendes Datene<strong>in</strong>gabegerät (Tastatur, Blasdruckwandler, etc.) ausdrucksstark<br />

spielbar se<strong>in</strong>. Aufgr<strong>und</strong> der mit der Anzahl der implementierten Obertöne schnell<br />

anwachsenden Größe des ‚Reaktor‘-Instrumentes ist das generierte Modell schwer zu<br />

überschauen. E<strong>in</strong>fache, vom Spieler ausgeführte E<strong>in</strong>gabeparameteränderungen sollten<br />

vom Modell schnell <strong>in</strong> die entsprechenden Klanparameteränderungen überführbar se<strong>in</strong>. So<br />

sollte die Erhöhung des Anblasdrucks sowohl die Lautstärke, als auch die Frequenz <strong>und</strong><br />

das Amplitudenverhältnis der e<strong>in</strong>zelnen Obertöne bee<strong>in</strong>flussen. Die Hüllkurvenstützstellen<br />

müßten - vor allem <strong>in</strong> der ‚Susta<strong>in</strong>‘-Phase - auf die E<strong>in</strong>gabegrößen reagieren. Zudem<br />

unterscheiden sich die E<strong>in</strong>schw<strong>in</strong>gvorgänge realer Flötentöne bei unterschiedlicher<br />

Spieldynamik. Auch dieses Verhalten müßte noch durch e<strong>in</strong>e entsprechende Steuerung der<br />

hierfür verantwortlichen Parameter simuliert werden.<br />

Zur Realisierung e<strong>in</strong>es solchen Verhaltens müßten nichtl<strong>in</strong>eare Steuerfunktionen<br />

implementiert werden, die auf die E<strong>in</strong>gabegrößen des Spieler<strong>in</strong>terfaces reagieren <strong>und</strong> die<br />

Steuerdaten der Hüllkurven für Amplitude <strong>und</strong> Frequenz so verändern, daß die<br />

Ausgabewerte mit den zu den Messungen passenden Daten übere<strong>in</strong>stimmen.<br />

Aufgr<strong>und</strong> der kompliziert konstruierten Hüllkurvensteuerung (‚Gate-Off Problem‘, siehe<br />

Abschnitt 6.1.2.1.1) ist e<strong>in</strong>e Simulation des Klangverhaltens bei aufe<strong>in</strong>anderfolgend<br />

gespielten Tönen, so wie es im Kontext e<strong>in</strong>es Musikstückes der Fall ist (verändertes<br />

E<strong>in</strong>schw<strong>in</strong>gverhalten usw.), nicht möglich.<br />

Onl<strong>in</strong>e-Version 1.0<br />

107


DIPLOMARBEIT HENRI HAGENOW<br />

5.2.1.2.12 Zusammenfassende Betrachtungen<br />

Es ist zu bedenken, daß es sich bei der analysierten Klangdatei um die Aufnahme e<strong>in</strong>es<br />

e<strong>in</strong>zigen Tones e<strong>in</strong>er bestimmten Flöte handelt, die von e<strong>in</strong>em bestimmten<br />

Instrumentalisten mit bestimmter Dynamik gespielt wurde. Der Spieler hat also das<br />

Spektrum des durch Anblasen der Flöte entstehenden Tones durch die Wahl bestimmter<br />

Spielparameter entscheidend mitbestimmt. Das vorliegende additive Modell bildet nur<br />

diesen e<strong>in</strong>zigen Zustand nach. E<strong>in</strong>e Variation der Spielparameter (Tonhöhe, Blasdruck<br />

usw.) verändert das Spektrum des entstehenden Tones. E<strong>in</strong>e realistische Nachbildung<br />

erfordert e<strong>in</strong>e weitere Analyse des entstandenen Tones <strong>und</strong> e<strong>in</strong>e Anpassung der <strong>in</strong> den<br />

Teiltongeneratoren erzeugten E<strong>in</strong>zelamplitudenverläufe. E<strong>in</strong>e Analyse ‚von Hand‘ ist zu<br />

ungenau <strong>und</strong> arbeitsaufwendig. Die Methode der additiven Synthese ist zur Simulation<br />

e<strong>in</strong>er Flöte nur geeignet, wenn die Analyse- <strong>und</strong> die Resyntheseprozesse automatisiert<br />

werden, so wie es <strong>in</strong> den im Abschnitt 2.3.1 bzw. 2.3.2 genannten Instituten bereits<br />

verwirklicht wurde.<br />

Die physikalischen Prozesse, die zu dem Obertonverhalten führen, s<strong>in</strong>d aus dem<br />

beobachteten zeitlichen Verhalten derselben nicht ersichtlich. Da hier nicht das<br />

physikalische System selbst, sondern nur die Auswirkungen von Veränderungen am<br />

System auf das ausgegebene Signal simuliert werden, ist es schwer, die Verhaltenmuster<br />

der Klang-parameter im zeitlichen Obertonverhalten zu entdecken oder beobachtete Muster<br />

bestimmten Parametern zuzuschreiben, um diese im Modell zu implementieren.<br />

Es läßt sich ke<strong>in</strong> nutzbares Instrumentenmodell erstellen, das die übersichtliche Steuerung<br />

der Klangparameter durch den Instrumentalisten ermöglicht. E<strong>in</strong>e Verknüpfung der<br />

Steuerparametervariationen des E<strong>in</strong>gabegerätes mit den Klangeigenschaften des<br />

simulierten Instruments <strong>und</strong> die darauf zurückzuführenden Auswirkungen auf die e<strong>in</strong>zelnen<br />

Teiltöne des synthetisierten Klanges läßt sich mit den von ‚Reaktor‘ zur Verfügung<br />

gestellten Modulen nur sehr umständlich realisieren.<br />

5.2.2 Generierung e<strong>in</strong>es Flötenklanges mit den Methoden der FM-Synthese<br />

Im Folgenden wird e<strong>in</strong> Modell zur Erzeugung e<strong>in</strong>es Flötenklanges mit zeitvariabel<br />

frequenzmodulierten S<strong>in</strong>usschw<strong>in</strong>gungen vorgestellt. Die Theorie der Wellenformsynthese<br />

durch Frequenzmodulation (FM-Synthese) wird <strong>in</strong> Abschnitt 2.2.1 näher beschrieben.<br />

Onl<strong>in</strong>e-Version 1.0 108


DIPLOMARBEIT HENRI HAGENOW<br />

5.2.2.1 Die Modulstruktur des FM-Modells zur Erzeugung e<strong>in</strong>es Flötenklanges<br />

Die Gr<strong>und</strong>struktur des vorgestellten FM-Instruments ist <strong>in</strong> Abb. 5.37 dargestellt. Das FM-<br />

Modell wird <strong>in</strong> Träger- <strong>und</strong> Modulator-Makros aufgeteilt. In Abb. 5.37 ist der Träger der<br />

tonerzeugende ‚Master‘-Oszillator. Der Modulator läßt sich <strong>in</strong> die fünf frequenzmodu-<br />

lierenden ‚Slave‘-Oszillatoren unterteilen. Hierbei haben die ‚Slave‘-Oszillatoren 1, 2 <strong>und</strong> 4<br />

die Aufgabe, die Frequenz des Master-Oszillators zu modulieren. Ihre Ausgangswerte<br />

werden addiert <strong>und</strong> dem ‚F‘-E<strong>in</strong>gang des S<strong>in</strong>usoszillatormoduls im ‚Master Osc.‘-Makro<br />

zugeführt. Die ‚Slave‘-Oszillatoren 3 <strong>und</strong> 5 modulieren wiederum die Oszillatoren 2 <strong>und</strong> 4.<br />

‚Slave‘-Oszillator 5 besitzt e<strong>in</strong>e Feedback-Schaltung <strong>und</strong> moduliert sich selbst.<br />

Abb. 5.37: Darstellung der Gr<strong>und</strong>struktur des FM-Modells zur Erzeugung e<strong>in</strong>es<br />

Flötenklanges. Die Frequenz des Master-Oszillators wird durch die Summe der<br />

Ausgangssignale von drei Slave-Oszillatoren (Osc.1,2 & 4) gesteuert. Zwei weitere<br />

Oszillatoren (Osc. 3 & 5) modulieren wiederum die Frequenzen der Slave-<br />

Oszillatoren. Alle Oszillatoren besitzen eigene Amplitudenhüllkurven. Auf diese<br />

Weise wird e<strong>in</strong> zeitvariantes Spektrum erzeugt.<br />

In Abb. 5.38 ist die beschriebene, <strong>in</strong> ‚Reaktor‘ implementierte Schaltung abgebildet. Jedes<br />

Oszillator-Makro besitzt zur Steuerung se<strong>in</strong>er Signalamplitude e<strong>in</strong> ‚4-Ramp‘-Hüll-<br />

kurvenmodul. Dem Signal des ‚Master‘-Oszillators wird e<strong>in</strong> Rauschsignal h<strong>in</strong>zugefügt.<br />

Dieses wird im Makro ‚Rausch‘ generiert <strong>und</strong> durch e<strong>in</strong>e ‚D-Env‘-Hüllkurve zeitlich auf den<br />

Bereich des E<strong>in</strong>schw<strong>in</strong>gens beschränkt, um das Anblasgeräusch realistischer zu gestalten.<br />

Pr<strong>in</strong>zipiell s<strong>in</strong>d alle fünf ‚Slave‘-Oszillator-Makros gleich aufgebaut; als Beispiel ist die<br />

Struktur des ‚Slave‘-Oszillators 1 dargestellt.<br />

Onl<strong>in</strong>e-Version 1.0<br />

109


DIPLOMARBEIT HENRI HAGENOW<br />

Abb. 5.38: Darstellung der Gr<strong>und</strong>struktur des <strong>in</strong> ‚Reaktor‘ implementierten FM-Modells<br />

zur Erzeugung e<strong>in</strong>es Flötenklanges. Als Beispiel für den pr<strong>in</strong>zipiellen Aufbau<br />

der Slave-Oszillatoren ist die Struktur des Makros ‚Slave Osc.1‘ abgebildet.<br />

Durch e<strong>in</strong>e zeitliche Variation der Modulations<strong>in</strong>dizes der ‚Slave‘-Oszillatoren über ihre<br />

Hüllkurvenmakros läßt sich das Frequenzspektrum des entstehenden Klanges zeitlich<br />

steuern <strong>und</strong> dessen Obertonverhalten festlegen. E<strong>in</strong> gezieltes Vorgehen zur Erzeugung<br />

e<strong>in</strong>es speziellen Klangverlaufes ist aber – wie bereits aufgezeigt – weitgehend unmöglich<br />

(siehe Abschnitt 2.2.1). Der Aufbau <strong>und</strong> die Parameter-E<strong>in</strong>stellungen des vorgestellten<br />

Modells entstanden daher mehr durch Versuch <strong>und</strong> Irrtum als durch die Anlehnung an die<br />

Analysedaten aus Abschnitt 5.2.1.1. Die Erfahrungen mit dem Klangspektrum e<strong>in</strong>er Flöte<br />

aus dem Konstruktionsprozeß der ‚additiven Flöte‘ (siehe Abschnitt 5.2.1.2) erleichterten die<br />

Klanggestaltung jedoch erheblich.<br />

Großen Wert wurde auf e<strong>in</strong>e realistische Nachbildung des Anblasgeräusches gelegt, was<br />

duch die kurzzeitige Modulation der Masterfrequenz von ‚Slave‘-Oszillator 2 <strong>und</strong> 3 realisiert<br />

wurde. Das Spektrums e<strong>in</strong>es mit dem beschriebenen Modell erzeugten Flötentones wird <strong>in</strong><br />

Abb. 5.39 mit dem Spektrum des <strong>in</strong> Abschnitt 5.2.1.1 analysierten Flötentones verglichen.<br />

Beide Spektren werden <strong>in</strong> Abb. 5.40 nochmals e<strong>in</strong>zeln gegenübergestellt.<br />

Onl<strong>in</strong>e-Version 1.0 110


DIPLOMARBEIT HENRI HAGENOW<br />

a)<br />

b)<br />

Abb. 5.39: Vergleichende Darstellung der über den gesamten Klangverlauf gemittelten<br />

Spektren des orig<strong>in</strong>al Flötenklanges Sus_c3_f.wav (gestrichelte L<strong>in</strong>ie)<br />

<strong>und</strong> des mit dem <strong>in</strong> ‚Reaktor‘ implementierten FM-Flötenmodells, bei C3 gespielten<br />

Tones (durchgehende L<strong>in</strong>ie). Man erkennt, daß ab dem dritten Teilton das<br />

Spektrum des echten Flötenklanges sehr gut durch die FM-Flöte approximiert wird.<br />

Der Gr<strong>und</strong>ton des FM-Flötenklanges ist zu stark vertreten, im Gegensatz zum ersten<br />

Oberton, der zu schwach synthetisiert wird. Ab 3 kHz flacht das FM-Spektrum<br />

ab, wobei im orig<strong>in</strong>al Flötenklang <strong>in</strong> diesem Bereich die tonalen Rauschkomponenten<br />

vorherrschen. Beide Spektren s<strong>in</strong>d <strong>in</strong> Abb. 5.40 noch e<strong>in</strong>mal e<strong>in</strong>zeln abgebildet.<br />

Abb. 5.40: Darstellung der <strong>in</strong> Abb. 5.39 überlagerten E<strong>in</strong>zelspektren: a) Spektrum<br />

des orig<strong>in</strong>alen Flötenklanges Sus_3c_f.wav; b) Spektrum des mit der FM-Flöte erzeugten<br />

Klanges der gleichen Tonhöhe.<br />

Onl<strong>in</strong>e-Version 1.0<br />

111


DIPLOMARBEIT HENRI HAGENOW<br />

5.2.2.2 Zusammenfassende Betrachtungen<br />

Um e<strong>in</strong> FM-Instrument zu konstruieren, das die Klänge e<strong>in</strong>es akustischen Instrumentes<br />

realistisch nachbildet, ist viel Erfahrung mit dieser Synthesemethode Voraussetzung. Die<br />

Methode der <strong>Klangsynthese</strong> durch Frequenzmodulation ist hochgradig nichtl<strong>in</strong>ear. Der<br />

Modulations<strong>in</strong>dex I ist direkt mit der Bandbreite des produzierten Signals verknüpft. Gezielte<br />

Klanggestaltung ist vor allem bei Implementierungen mit vielen Modulatoren fast unmöglich,<br />

da die Auswirkungen der Parameteränderungen auf den entstehenden Klang schwer zu<br />

überschauen s<strong>in</strong>d.<br />

Die klangbestimmenden Parameter s<strong>in</strong>d weder <strong>in</strong>tuitiv zu bedienen, noch als musikalisch<br />

S<strong>in</strong>nvoll zu bezeichnen. Die Modulationsparameter müssen sehr vorsichtig variiert werden,<br />

da jede Parameteränderung sofort hörbare Ergebnisse liefert.<br />

Um Parameter im musikalischen Kontext gezielt zu verändern, ist diese <strong>Klangsynthese</strong>-<br />

methode äußerst ungeeignet. Vor allem bei der Simulation der Klänge akustischer<br />

Musik<strong>in</strong>strumente, mit ihrer variierenden Dynamik <strong>und</strong> den geforderten, <strong>in</strong>tuitiv bedienbaren<br />

Klangparametern für ausdrucksstarkes Spiel, ist die FM-Synthese nicht zu gebrauchen. Die<br />

Parameter dieser Methode müssen sehr vorsichtig verändert werden, um nicht den<br />

charakteristischen Klangbereich des nachgebildeten Instrumentes zu verlassen.<br />

Diese Eigenschaft erweist sich beim Gestalten neuartiger synthetischer Klänge (So<strong>und</strong>-<br />

Design) allerd<strong>in</strong>gs als Vorteil, da bei kle<strong>in</strong>en Parameteränderungen völlig unterschiedliche<br />

Klänge entstehen können <strong>und</strong> FM-Synthesizer dadurch im Gegensatz zu anderen<br />

Synthesesystemen e<strong>in</strong> äußerst breites Klangspektrum abdecken können.<br />

5.2.3 Simulation der Flöte als digitaler Wellenleiter<br />

Im Folgenden wird e<strong>in</strong> e<strong>in</strong>faches digitales Wellenleitermodell zur Generierung von<br />

Flötentönen nach dem Pr<strong>in</strong>zip von Perry Cooks ‚Slide-Flute‘ implementiert [Cook, 1992].<br />

5.2.3.1 Das physikalische Modell der Flöte<br />

Die Flöte ist e<strong>in</strong> e<strong>in</strong>faches Holzblas<strong>in</strong>strument, das aus e<strong>in</strong>em zyl<strong>in</strong>drischen Rohr mit<br />

gebohrten Tonlöchern besteht. Die effektive Länge L der schw<strong>in</strong>genden Luftsäule im Rohr<br />

läßt sich durch Öffnen <strong>und</strong> Schließen der seitlichen Grifflöcher verändern. Die<br />

Schw<strong>in</strong>gungsfrequenz ergibt sich aus der Frequenz der angeregten Druckschwankungen <strong>in</strong><br />

der Luftsäule. Das Luftventil im M<strong>und</strong>stück ist e<strong>in</strong> dünner Luftstrahl, der auf die Kante der<br />

Anblasöffnung trifft (‚Luftblatt‘). Die schw<strong>in</strong>gende Luftsäule lenkt das Luftblatt abwechselnd<br />

Onl<strong>in</strong>e-Version 1.0 112


DIPLOMARBEIT HENRI HAGENOW<br />

<strong>in</strong> die Bohrung h<strong>in</strong>e<strong>in</strong> <strong>und</strong> wieder heraus; die Frequenz dieses periodischen Wechsels<br />

richtet sich nach den Bohrungsmaßen <strong>und</strong> der Lage der Grifflöcher [Benade, 1960]. Die<br />

Flöte kann im Pr<strong>in</strong>zip als e<strong>in</strong>dimensionales akustisches Rohr betrachtet werden, was die<br />

Gültigkeit der e<strong>in</strong>dimensionalen Wellengleichung rechtfertigt; die Wellengleichung (3.1) gilt<br />

hier für den Idealfall der dünnen zyl<strong>in</strong>drischen Luftsäule. Das zyl<strong>in</strong>drische Rohr wirkt als<br />

Wellenleiter. Als Wellengöße wird die akustische Volumenverschiebung q durch den<br />

Röhrenquerschnitt der Fläche A verwendet (<strong>in</strong> [m 3 ]), wobei bei der Reflexion am offenen<br />

Ende der Flöte die Vorzeichen<strong>in</strong>version entfällt. Da auch das Anblasloch offen ist, besitzt<br />

die Grunschw<strong>in</strong>gung (ähnlich wie beim Laser-Resonator) die Frequenz f 0= c/2L. Als zweite<br />

Wellengröße wird der akustische Volumenstrom 48 φ (<strong>in</strong> [m 3 /s]) angenommen. Für<br />

verlustfreie Medien kann man auch den Schalldruck p verwenden, der dann proportional zur<br />

Schallschnelle ist.<br />

5.2.3.2 Implementierung der akustischen Röhre<br />

Das <strong>in</strong> ‚Reaktor‘ implementierte Wellenleitermodell ist e<strong>in</strong>e Nachbildung des ‚Slide-Flute‘-<br />

Modells von Perry Cook [Cook, 1992]. E<strong>in</strong> Signalflußdiagramm ist <strong>in</strong> Abb. 5.41 dargestellt,<br />

die <strong>in</strong> ‚Reaktor‘ implementierte Struktur <strong>in</strong> Abb. 4.42.<br />

Es besteht aus e<strong>in</strong>em Anregungsmechanismus (<strong>in</strong>nerhalb des Makros ‚Flow‘), e<strong>in</strong>er<br />

nichtl<strong>in</strong>earen Formungsfunktion (<strong>in</strong>nerhalb des Makros ‚Embouchure‘) <strong>und</strong> der Simulation<br />

der akustischen Röhre (<strong>in</strong>nerhalb des Makro ‚Bore‘).<br />

Die äußere Anregung des Wellenleiters erfolgt mit Hilfe e<strong>in</strong>es ‚ADSR‘-Hüllkurvenmoduls 49 ,<br />

dessen Ausgangssignal e<strong>in</strong>en stetigen Luftstrom nachbildet. Dieses Modul erzeugt e<strong>in</strong>e<br />

vierstufige Hüllkurve mit l<strong>in</strong>earen Teilsegmenten, die die Klangbereiche ‚E<strong>in</strong>schw<strong>in</strong>gen‘<br />

(Attack, Decay), ‚quasistationärer Klangbereich‘ (Susta<strong>in</strong>) <strong>und</strong> ‚Auskl<strong>in</strong>gen‘ (Release)<br />

simuliert.<br />

Der stetige Strom wird mit e<strong>in</strong>em Rauschsignal moduliert, dessen Signalanteil regelbar ist.<br />

Hierdurch werden das Anblasgeräusche <strong>und</strong> die im Flötenton enthaltenen<br />

Rauschkomponenten generiert.<br />

Das Anregungssignal wird e<strong>in</strong>er Verzögerungsleitung der Länge T/2 zugeführt <strong>und</strong> dann<br />

durch die kubische Funktion x-x 3 geformt (siehe Abb. 5.41 <strong>und</strong> Abb. 5.42).<br />

48 Der akustische Volumenstrom φ ist gleich dem gesamten Volumenstrom abzüglich des<br />

Mittelwertes des die Flöte durchströmenden Luftstromes, also Schallschnelle mal Querschnittsfläche:<br />

φ = v s ⋅ A.<br />

49 ‚ADSR‘: Attack-Decay-Susta<strong>in</strong>-Release<br />

Onl<strong>in</strong>e-Version 1.0<br />

113


DIPLOMARBEIT HENRI HAGENOW<br />

Abb. 5.41: Signalflußdiagramm des von Perry Cook vorgestellten ‚Slide-Flute‘-Modells<br />

zur Simulation von Flötenklängen.<br />

Abb. 5.42: Modulstruktur des <strong>in</strong>nerhalb von ‚Reaktor‘ implementierten ‚Slide-Flute‘-<br />

Wellenleitermodells aus Abb. 5.42. Das Makro ‚Lagrange Interpolat.‘ f<strong>in</strong>det sich <strong>in</strong><br />

Abschnitt 5.1.3 näher beschrieben, das Makro ‚[P->T]‘ <strong>in</strong> Abschnitt 5.1.4.<br />

Die kubische Funktion simuliert die Interaktion zwischen der am Ende des Rohres<br />

reflektierten Energie <strong>und</strong> dem am M<strong>und</strong>stück e<strong>in</strong>treffenden Luftstrom. Der nachgeschaltete<br />

Tiefpaßfilter modelliert die Reflexionseigenschaften am offenen Ende. Dann erst durchläuft<br />

der Signalstrom die das Rohr simulierende Verzögerungsleitung der Länge T.<br />

Onl<strong>in</strong>e-Version 1.0 114


DIPLOMARBEIT HENRI HAGENOW<br />

5.2.3.3 Implementierung e<strong>in</strong>es Registerloches<br />

Die Simulation e<strong>in</strong>es <strong>in</strong> das akustische Rohr geborten Registerloches erreicht man durch<br />

die Skalierung der Verzögerungszeit des ‚Delay‘-Moduls <strong>in</strong>nerhalb des Makros<br />

‚Embouchure‘. Die Verzögerungszeit wird durch den Wert des Reglers ‚Hole‘ ∈ [1;6]<br />

dividiert, um e<strong>in</strong>e Verkürzung des Wellenleiters zu bewirken (siehe Abb. 5.42). Hierbei<br />

lassen sich mit Reglere<strong>in</strong>stellungen <strong>in</strong> Bereichen zwischen ganzen Zahlen Klangzustände<br />

erzeugen, die den Geräuschen realer Flöten bei ‚teilweise‘ geöffneten Registerlöchern bzw.<br />

überblasenem Zustand nahe kommen.<br />

5.2.3.4 Implementierung von Tonlöchern<br />

Anstatt die Tonhöhe durch die Variation der Länge des Wellenleiters zu verändern, könnte<br />

man auch – wie bei e<strong>in</strong>er realen Flöte üblich – Tonlöcher implementieren <strong>und</strong> die Tonhöhe<br />

durch Öffnen <strong>und</strong> Schließen dieser ‚F<strong>in</strong>gerlöcher‘ bestimmen. Hierbei ist es wichtig, die<br />

Tonlöcher entlang des Wellenleiters genau zu positionieren, was mit Hilfe der Lagrange-<br />

Interpolatoren (siehe Abschnitt 5.1.3) möglich ist. E<strong>in</strong>e gute Annäherung an das Verhalten<br />

echter Tonlöcher erreicht man bei der Implementierung von ‚Drei-Port-Streuverb<strong>in</strong>dungen‘<br />

(Three-Port Scatter<strong>in</strong>g Junctions, siehe Abb. 5.43). Auch das Registerloch kann durch e<strong>in</strong>e<br />

solche Schaltung realistischer gestaltet werden [Scavone&Cook, 1998].<br />

Abb. 5.43: Schematische Darstellung e<strong>in</strong>er ‚Three Port Scatter<strong>in</strong>g Junction‘<br />

<strong>in</strong> ‚One-Multiply‘-Form zur Simulation von Tonlöchern <strong>in</strong> der Wellenleitersimulation<br />

e<strong>in</strong>es Holzblas<strong>in</strong>strumentes (Abb. aus [Scavone&Smith, 1997]).<br />

Onl<strong>in</strong>e-Version 1.0<br />

115


DIPLOMARBEIT HENRI HAGENOW<br />

Es ist geplant, das oben beschriebene ‚Slide-Flute‘-Modell um Tonlöcher zu erweitern.<br />

Hierzu müssen die Positionen <strong>und</strong> Ausmaße sämtlicher Tonlöcher e<strong>in</strong>er realen Flöte<br />

vermessen <strong>und</strong> <strong>in</strong> die Parameter der F<strong>in</strong>gerloch-Filter konvertiert werden. Dies wird durch<br />

die Tatsache erschwert, daß - wie bei e<strong>in</strong>er echten Flöte - bei bestimmten F<strong>in</strong>gerloch-<br />

Konfigurationenen überhaupt ke<strong>in</strong> Ton erzeugt wird. Die Fe<strong>in</strong>stimmung der vielen<br />

Parameter e<strong>in</strong>es solchen erweiterten Flötenmodells ist e<strong>in</strong>e schwierige Aufgabe <strong>und</strong> läßt<br />

sich mit der komplizierten Konstruktion e<strong>in</strong>er echten Flöte durch e<strong>in</strong>en Instrumentenbauer<br />

vergleichen.<br />

5.2.3.5 Zusammenfassende Betrachtungen<br />

Vor allem im mittleren Frequenzbereich erzeugt das konstruierte Flötenmodell Töne, die<br />

denen realer Flöten sehr ähnlich kl<strong>in</strong>gen. Die Paramer der digitalen Wellenleitersynthese<br />

s<strong>in</strong>d <strong>in</strong>tuitiv zu bedienen <strong>und</strong> entsprechen <strong>in</strong> weiten Bereichen den modellierten<br />

physikalischen Parametern. Zudem s<strong>in</strong>d Parameterveränderungen sofort hörbar <strong>und</strong><br />

ermöglichen e<strong>in</strong> realistisches <strong>und</strong> ausdrucksstarkes Spiel durch e<strong>in</strong>en Instrumentalisten.<br />

Die Identität des modellierten Instrumentes bleibt weitestgehend erhalten.<br />

Onl<strong>in</strong>e-Version 1.0 116


DIPLOMARBEIT HENRI HAGENOW<br />

5.2.4 Vergleich der drei benutzten Synthesemethoden zur Generierung des Flötentones<br />

Die drei zur Nachbildung e<strong>in</strong>es Flötentones benutzten <strong>Klangsynthese</strong>methoden (additive<br />

Synthese, FM-Synthese, Wellenleitersynthese) unterscheiden sich <strong>in</strong> ihren Funktions-<br />

pr<strong>in</strong>zipien erheblich. Während die additive Synthese durch die exakte Nachbildung des<br />

Obertonverlaufes zu guten klanglichen Ergebnissen bei hohem Arbeitsaufwand gelangt, ist<br />

die FM-Synthese kaum zu e<strong>in</strong>er realistischen Nachbildung e<strong>in</strong>es Flötentones zu<br />

gebrauchen. Vor allem unter dem Aspekt der Parametrisierug <strong>und</strong> Spielbarkeit durch e<strong>in</strong>en<br />

Instrumentalisten muß die FM-Synthese als zur Klangnachbildung ‚e<strong>in</strong>dimensionaler‘<br />

akustischer Instrumente ungeeignet e<strong>in</strong>gestuft werden.<br />

Die besten Ergebnisse wurden mit der physikalischen Modellierung der Flöte als digitalen<br />

Wellenleiter erzielt. Sowohl die klangliche Güte der erzeugten Töne, als auch die<br />

Parametrisierung <strong>und</strong> Spielbarkeit durch e<strong>in</strong>en Instrumentalisten überzeugen <strong>und</strong><br />

qualifizieren diese Klangerzeugungsmethode zur geeignetsten unter den drei verglichenen<br />

Synthesemöglichkeiten.<br />

Es ist noch anzumerken, daß es bei der Konstruktion der Instrumente <strong>in</strong>nerhalb ‚Reaktors‘<br />

wichtig ist, die Module möglichst <strong>in</strong> der Reihenfolge des gewünschten Signalflußes zu<br />

implementieren, da es sonst aufgr<strong>und</strong> der programm<strong>in</strong>tern erzeugten Skriptabfolge zu<br />

Verzögerungszeiten während der Signalverarbeitung kommen kann, die <strong>in</strong>nerhalb des<br />

Bereiches e<strong>in</strong>er Sampl<strong>in</strong>gperiode T s liegen können. Es ist also darauf zu achten, daß die<br />

Synchronität parallel ausgeführter Signalverarbeitungsprozesse samplegenau erhalten<br />

bleibt.<br />

Onl<strong>in</strong>e-Version 1.0<br />

117


DIPLOMARBEIT HENRI HAGENOW<br />

6. Zusammenfassung<br />

In dieser Arbeit wurden die meisten der gegenwärtig zur Anwendung kommenden<br />

<strong>Klangsynthese</strong>techniken diskutiert, die das Klangbild akustischer Systeme zu simulieren<br />

versuchen. Diese akustischen Systeme wurden mit Hilfe von softwarebasierter, virtuell-<br />

analoger Schaltungstechnik unter Verwendung ausgewählter Synthesetechniken modelliert.<br />

Speziell die Wellenleitersynthese wurde wegen ihrer physikalischen Anschaulichkeit <strong>und</strong><br />

ihrer Nähe zu realen Systemen genauer betrachtet <strong>und</strong> zur Anwendung gebracht.<br />

Es wurden verschiedene Techniken der digitalen Wellenformsynthese vorgestellt <strong>und</strong><br />

diskutiert. Analogien zu optischen Systemen wurden besprochen.<br />

Die verwendeten virtuellen elektrischen Schaltkreise bilden Eigenzustände elektronischer<br />

Systeme nach, die wiederum die Moden akustischer Systeme modellieren.<br />

Bei der Erstellung der virtuell-analogen <strong>Klangsynthese</strong>mechanismen wurde versucht, sich<br />

weitestgehend an den physikalischen Vorgängen der natürlichen, akustischen Instrumente<br />

zu orientieren. Instrumentemodelle aus der Saiten<strong>in</strong>strumentenfamilie (Gitarre, Geige) <strong>und</strong><br />

der Holzblas<strong>in</strong>strumente (Flöte) wurden besprochen <strong>und</strong> digital simuliert. Der auf mehrere<br />

E<strong>in</strong>zelbereiche reduzierte Klangentstehungsprozeß (äußere Anregung des Systems,<br />

Schw<strong>in</strong>gungszustände, Dämpfung, Dispersion, Kopplung an e<strong>in</strong>en Resonanzkörper,<br />

Rückkopplungsersche<strong>in</strong>ungen, Klangabstrahlung) wurde idealisiert dargestellt.<br />

Es wurden die Methoden der additiven <strong>Klangsynthese</strong>, der Frequenzmodulation <strong>und</strong> der<br />

Wellenleitersynthese zur Anwendung gebracht <strong>und</strong> mit H<strong>in</strong>blick auf e<strong>in</strong>en realistischen<br />

Klange<strong>in</strong>druck bewertet.<br />

Akustische Musik<strong>in</strong>strumente kann man als resonanzfähige, mehrdimensionale Systeme<br />

betrachten, deren Obertonspektren Energiebänder darstellen, die den im Resonanzzustand<br />

e<strong>in</strong>geschwungenen Eigenzuständen dieser Sytsteme entsprechen. Die Eigenmoden e<strong>in</strong>es<br />

Musik<strong>in</strong>strumentes f<strong>in</strong>den sich <strong>in</strong> ihrem Klangbild wieder.<br />

Werden geeignete Parameter gewählt, lassen sich mit der digitalen Wellenleitersimulation<br />

Signale erzeugen, deren Klangeigenschaften denen echter Musik<strong>in</strong>strumente sehr ähnlich<br />

s<strong>in</strong>d.<br />

Onl<strong>in</strong>e-Version 1.0 118


DIPLOMARBEIT HENRI HAGENOW<br />

7. Literaturverzeichnis<br />

[Alonso&Jansson, 1982] J. Alonso Moral,E. Jansson; 1982: Input Admittance, Eigenmodes<br />

and the Quality of Viol<strong>in</strong>s (Report STL-QPSR 2-3/1982;<br />

Royal Institute of Technology Stockholm 1982)<br />

[Arfib, 1979] D. Arfib, 1979: Digital synthesis of complex spectra by means<br />

of multiplication of nonl<strong>in</strong>ear distorted s<strong>in</strong>e waves (Journal of<br />

the Audio Eng<strong>in</strong>eer<strong>in</strong>g Society 27(10), p.: 757-768)<br />

[Askenfelt, 1990] A. Askenfelt (Editor), Kapitel von H.A. Conkl<strong>in</strong>, A. Askenfelt u.<br />

E. Jansson, D.E. Hall, G. We<strong>in</strong>reich & K. Wogram; Stockholm<br />

1990: Five Lectures on the Acoustics of the Piano (Royal<br />

Swedish Academy of <strong>Music</strong>)<br />

[Bastiaans, 1980] M. Bastiaans, 1980: Gabor’s expansion of a signal <strong>in</strong>to gaussian<br />

elementary signals (Proceed<strong>in</strong>gs of the IEEE, Vol. 68, p.:<br />

538-539)<br />

[Bate, 1990] J.A. Bate, 1990: The effect of modulator phase on timbres <strong>in</strong><br />

FM synthesis (Computer <strong>Music</strong> Journal 14(3), p.: 38-45)<br />

[Beldie, 1974] I. P. Beldie, 1974: Vibration and So<strong>und</strong> Radiation of the Viol<strong>in</strong><br />

at Low Frequencies (Catgout Acoust. Soc. Newsletter 22)<br />

[Benade, 1960] A.H. Benade, 1960: The Physics of Wood W<strong>in</strong>ds (Scientific<br />

American 10/1960)<br />

[Bristow-Johnson, 1996] R. Bristow-Johnson, 1996: Wavetable synthesis 101, a f<strong>und</strong>amental<br />

perspective (Proceed<strong>in</strong>gs of the 101 st AES<br />

convention, L.A.)<br />

[Ca<strong>in</strong> et.al, 1994] G.D. Ca<strong>in</strong>, N.P. Murphy, A. Tarczynski; 1994: Evaluation of<br />

several FIR fractional-sample delay filters (Proceed<strong>in</strong>gs of<br />

IEEE Conf. of Speech Signal Process<strong>in</strong>g, pp. 621-624)<br />

[Cano et. al., 2000] P. Cano, A. Loscos, J. Bonada, M. de Boer, X. Serra; 2000:<br />

Voice Morph<strong>in</strong>g System for Impersonat<strong>in</strong>g <strong>in</strong> Karaoke Applications<br />

(Proceed<strong>in</strong>gs of the ICMC 2000 Berl<strong>in</strong>, p.: 109-112)<br />

[Cavaliere&Piccialli, 1997] S. Cavaliere, A. Piccialli, 1997: Granular synthesis of musical<br />

signals (<strong>in</strong>: C. Roads, S.T. Pope, A. Piccialli, G. De Pol (eds),<br />

<strong>Music</strong>al signal process<strong>in</strong>g, Swets & Zeitl<strong>in</strong>ger, Lisse, Netherlands;<br />

chapter 5, pp.: 155-186)<br />

[Chaigne, 1992] A. Chaigne, 1992: On the use of f<strong>in</strong>ite differences for musical<br />

synthesis application to plucked str<strong>in</strong>ged <strong>in</strong>struments (Journal<br />

d’Acoustique, 5(2), p. 181-211)<br />

[Chaigne&Askenfelt, 1994] A. Chaigne, A. Askenfelt, 1994: Numerical simulations of piano<br />

str<strong>in</strong>gs. A physical model for a struck str<strong>in</strong>g us<strong>in</strong>g f<strong>in</strong>ite<br />

difference methods (Journal of the Acoustical Society of<br />

America, 95(2), p. 1112-1118)<br />

Onl<strong>in</strong>e-Version 1.0<br />

119


DIPLOMARBEIT HENRI HAGENOW<br />

[Chown<strong>in</strong>g, 1973] J. Chown<strong>in</strong>g, 1973: The synthesis of complex audio spectra by<br />

means of frequency modulation (Journal of the Audio<br />

Eng<strong>in</strong>eer<strong>in</strong>g Society 21(7), p.: 526-534.)<br />

[Cook, 1990] P.R. Cook, 1990: Identification of Control Parameters <strong>in</strong> an<br />

Articulatory Vocal Tract Model with Applications to the<br />

Synthesis of S<strong>in</strong>g<strong>in</strong>g (PhD thesis, Elect.Eng<strong>in</strong>eer<strong>in</strong>g Dpt.,<br />

Stanford University, CCRMA)<br />

[Cook, 1992] P.R. Cook, 1992: A meta-w<strong>in</strong>d-<strong>in</strong>strument physical model, and<br />

a meta-controller for real time performance control<br />

(Proceed<strong>in</strong>gs of the ICMC 1992; p.: 273-276)<br />

[Cremer, 1984] L. Cremer, Cambridge 1984: The Physics of the Viol<strong>in</strong> (MITT<br />

Press)<br />

[d’Alembert, 1747] J.I. d’Alembert, 1747: Investigation of the curve formed by a<br />

vibrat<strong>in</strong>g str<strong>in</strong>g (<strong>in</strong> R. B. L<strong>in</strong>dsay, Stroudsburg 1973: Acoustics:<br />

Historical and Philosophical Development, p.119-123(Dowden,<br />

Hutch<strong>in</strong>son&Ross))<br />

[de la Motte, 1999] Helga de la Motte, 1999: Extrem schönes Donnern (Neu Zeitschrift<br />

für Musik, 2/99)<br />

[De Poli, 1983] G. De Poli, 1983: A tutorial on digital so<strong>und</strong> synthesis<br />

techniques (Computer <strong>Music</strong> Journal 7(1), p.: 76-87)<br />

[Elmore&Heald, 1969] W.C. Elmore, M.A. Heald; New York 1969: Physics of Waves<br />

(Dover)<br />

[Emplit et.al., 1992] P. emplit, J.-P. Hamaide, F. Reynaud; 1992: Passive<br />

amplitude and phase picosecond pulse shap<strong>in</strong>g (Opt. Lett. 17,<br />

p.: 1358-1360)<br />

[Fettweis, 1986] A. Fettweis, 1986: Wave Digital Filters: Theory and Practice<br />

(Proceed<strong>in</strong>gs of the IEEE, 74(2), p. 270-327<br />

[Fletcher&Ross<strong>in</strong>g, 1998] N.H. Fletcher, T.D. Ross<strong>in</strong>g, New York 1998: The Physics of<br />

<strong>Music</strong>al Instruments (Spr<strong>in</strong>ger Verlag)<br />

[Gabor, 1947] D. Gabor, London 1947: Acoustical quanta and the theory of<br />

hear<strong>in</strong>g (Nature 159)<br />

[Gordon & Smith, 1985] J.W. Gordon & J.O.Smith III, 1985: A s<strong>in</strong>e generation Algorithm<br />

for VLSI applications (Proceed<strong>in</strong>gs of the 1985 Computer<br />

<strong>Music</strong> Conference; Computer <strong>Music</strong> Association)<br />

[Gray, 1980] A.H. Gray, 1980: Passive cascaded lattice digital filters (IEEE<br />

Transactions on Acoustics, Speech, Signal Process<strong>in</strong>g, ASSP-<br />

27(5), p.: 337-344)<br />

Onl<strong>in</strong>e-Version 1.0 120


DIPLOMARBEIT HENRI HAGENOW<br />

[Gray&Markel, 1975b] A.H. Gray, J.D. Markel; 1975: A normalized digital filter structu<br />

re (IEEE Transactions on Acoustics, Speech, Signal Process<strong>in</strong>g,<br />

ASSP-23(3), p.:268-277)<br />

[Güth, 1995] W. Güth, Stuttgart 1995: Physik der Streich<strong>in</strong>strumente (S. Hir-<br />

Onl<strong>in</strong>e-Version 1.0<br />

zel Wissenschaftliche Verlagsgesellschaft)<br />

[Hagenow, 2000] H. Hagenow, Berl<strong>in</strong> 2000: Zur Tonerzeugung bei der Viol<strong>in</strong>e<br />

(Studienarbeit, TU-Berl<strong>in</strong>)<br />

[Haner&Warren, 1988] M. Haner, W.S. Warren; 1988: Synthesis of crafted optical<br />

pulses by time doma<strong>in</strong> modulation <strong>in</strong> a fiber-grat<strong>in</strong>g compensor<br />

(Appl. Phys. Lett. 52,p.: 1458-1460)<br />

[Hanson, 1994] R. Hanson, (1994): Measurements of nonl<strong>in</strong>ear effects <strong>in</strong> a<br />

driven vibrat<strong>in</strong>g wire (Journal of the Acoustical Society of<br />

America, 96(3). S.:1549-1556)<br />

[Helmoltz, 1863] Hermann von Helmholtz, Braunschweig 1863: Die Lehre der<br />

Tonempf<strong>in</strong>dungen als physiologische Gr<strong>und</strong>lage für die<br />

Theorie der Musik (Vieweg)<br />

[Heritage et.al., 1985] J. Heritage, A. We<strong>in</strong>er, R. Thurston; 1985: Picosecond pulse<br />

shap<strong>in</strong>g by spectral phase and amplitude manipulation (Opt.<br />

Lett. 10, p.: 609-611)<br />

[Hill&Brady, 1993] K.B. Hill, D.J. Brady; 1993: Pulse shap<strong>in</strong>g <strong>in</strong> volume reflection<br />

hologramms (Opt. Lett. 18, p.: 1739-1741)<br />

[Hiller&Ruiz, 1971] L. Hiller, P. Ruiz; 1971: Synthezis<strong>in</strong>g musical so<strong>und</strong>s by solv<strong>in</strong>g<br />

the wave equation for vibrat<strong>in</strong>g objects (Journal of the<br />

Audio Eng<strong>in</strong>eer<strong>in</strong>g Society 19(6), p.: 462-470[Part 1]; 19(7), p.:<br />

542-550 [Part 2])<br />

[Hirschmann, 1991] S. Hirschmann, 1991: Digital Waveguide <strong>Model<strong>in</strong>g</strong> and Simulation<br />

of Reed Woodw<strong>in</strong>d Instruments (Technical Report Stan-<br />

M-72,Stanford CCRMA)<br />

[Hrsch, Krg, We<strong>in</strong>, 1995] A. Hirschberg, J. Kergomard, G. We<strong>in</strong>reich; Wien 1995:<br />

Mechanics of <strong>Music</strong>al Instruments (Spr<strong>in</strong>ger-Verlag)<br />

[Holm, 1992] F. Holm, 1992: Understand<strong>in</strong>g FM implementations: a call for<br />

common standarts (Computer <strong>Music</strong> Journal, 16(1), p.: 34-42)<br />

[Jaffe&Smith, 1983] D.A. Jaffe, J.O. Smith III; 1983: Extensions of the Karplus-<br />

Strong plucked str<strong>in</strong>g algorithm (Computer <strong>Music</strong> Journal, 7(2),<br />

p.: 56-69)<br />

[Karplus&Strong,1983] K. Karplus; A. Strong,1983: Digital Synthesis of plucked str<strong>in</strong>g<br />

and drum timbres (Computer <strong>Music</strong> Journal, 7(2), p.: 43-55)<br />

121


DIPLOMARBEIT HENRI HAGENOW<br />

[Kempelen, 1791] Wolfgang von Kempelen, Wien 1791: Mechanismus der<br />

menschlichen Sprache nebst Beschreibung e<strong>in</strong>er sprechenden<br />

Masch<strong>in</strong>e (Faksimile-Neudruck 1970; Friedrich Frommann<br />

Verlag)<br />

[Kiefer et. al., 2000] B. Kiefer, A. Assion, T. Baumert, M. Bergt, T. Brixner, V. Seyfried,<br />

M. Strehle, G. Gerber; 2000: Femtochemie: Revolution<br />

durch Evolution (Universität Würzburg, Experimentelle Physik,<br />

Fortbildungsveranstaltung)<br />

[K<strong>in</strong>sler&Frey et.al., 2000] L.E. K<strong>in</strong>sler, A.R. Frey, A.B. Coppens, J.V. Sanders; New York<br />

2000: F<strong>und</strong>amentals of Acoustics, 4 th ed. (Wiley&Sons Inc.)<br />

[Kolsky, 1963] H. Kolsky, New York 1963: Stress Waves <strong>in</strong> Solids (Dover)<br />

[Laakso et. al., 1996] T.I. Laakso, V. Välimäki, M. Karjala<strong>in</strong>en, U.K. La<strong>in</strong>e, 1996:<br />

Splitt<strong>in</strong>g the Unity Delay – Tools for Fractional Delay Filter<br />

Design (IEEE Signal Process<strong>in</strong>g Magaz<strong>in</strong>e, 13(1), p. 30-60)<br />

[Lang & Laakso, 1994] M. Lang, T.I. Laakso, 1994: Simple and robust method for de<br />

sign of allpass filters us<strong>in</strong>g least-squares phase error criterion<br />

(IEEE Transactions on Circuits and Systems – I: F<strong>und</strong>amental<br />

Theaory and Applications, 41(1), p. 40-48)<br />

[Le Brun, 1979] M. Le Brun, 1979: Digital waveshap<strong>in</strong>g synthesis (Journal of<br />

the Audio Eng<strong>in</strong>eer<strong>in</strong>g Society 27(4), p.: 250-266)<br />

[Le Page, 1961] W.R. Le Page, New York 1961: Complex Variables and the<br />

Laplace Transform for Eng<strong>in</strong>ees (Dover)<br />

[Lüke, 1999] H.D. Lüke, Heidelberg, 1999: Signalübertragung, 7. Aufl.<br />

(Spr<strong>in</strong>ger Verlag)<br />

[Ma<strong>in</strong>, 1978] I.G. Ma<strong>in</strong>, Cambridge1978: Vibrations and Waves <strong>in</strong> Physics<br />

(University Press)<br />

[Markel&Gray, 1976] J.D. Markel and A.H. Gray, New York 1976: L<strong>in</strong>ear Prediction<br />

of Speech (Spr<strong>in</strong>ger Verlag)<br />

[McAulay&Quatieri; 1984] R.J. McAulay, T.F. Quatieri; New York 1984: Magnitude-only<br />

Reconstruction us<strong>in</strong>g a S<strong>in</strong>usoidal Speech Model (Proceed<strong>in</strong>gs<br />

of IEEE International Conference on Acoustics, Speech<br />

and Signal Process<strong>in</strong>g; IEEE Press)<br />

[McAulay&Quatieri; 1986] R.J. McAulay, T.F. Quatieri; 1986: Speech Analysis/Synthesis<br />

based on a S<strong>in</strong>usoidal Representation (IEEE Transactions on<br />

Acoustics, Speech and Signal Process<strong>in</strong>g 34(4), p.:744-754)<br />

[McIntyre et al., 1983] M.E. McIntyre, R.T. Schumacher, J. Woodhouse, 1983: On the<br />

oscillations of musical <strong>in</strong>struments (Journal of the Acoustic<br />

Society of America, 74(5), p. 1325-1345)<br />

Onl<strong>in</strong>e-Version 1.0 122


DIPLOMARBEIT HENRI HAGENOW<br />

[Moorer, 1977] J.A. Moorer, 1977: Signal Process<strong>in</strong>g Aspects of Computer<br />

<strong>Music</strong> – A Survey (Computer <strong>Music</strong> Journal 1(1), p.: 4-37)<br />

[Moorer, 1985] J.A. Moorer, 1985: Signal process<strong>in</strong>g aspects of computer<br />

music: a survey [<strong>in</strong> J. Strawn (ed.): Digital Audio Signal<br />

Process<strong>in</strong>g: An Anthology, Chapter 5, p.: 149-220 (William<br />

Kauffmann, Inc.)]<br />

[Morse, 1981] P.M. Morse, 1981: Vibration and So<strong>und</strong>; 4 th ed. (American<br />

Institut of Physics, for the Acoustical Society of America,<br />

1 st ed. 1936)<br />

[Morse & Ingard, 1968] P.M. Morse, K.U. Ingard; New York 1968: Theoretical<br />

Acoustics (McGraw-Hill)<br />

[Nolt<strong>in</strong>g, 2001] W. Nolt<strong>in</strong>g, Heidelberg 2001: Gr<strong>und</strong>kurs Theoretische Physik<br />

3, Elektrodynamik, 6. Aufl. (Spr<strong>in</strong>ger Verlag)<br />

[Parks&Burrus, 1987] T.W. Parks, C.S. Burrus; New York 1987: Digital Filter Design<br />

(John Wiley & Sons Inc.)<br />

[Rab<strong>in</strong>er & Gold, 1975] L.R. Rab<strong>in</strong>er, B. Gold; Engelwood Cliffs (NJ) 1975: Theory and<br />

Application of Digital Signal Process<strong>in</strong>g (Prentice-Hall Inc.)<br />

[Rab<strong>in</strong>er&Schafer, 1978] L.R. Rab<strong>in</strong>er, R.W. Schafer, Engelwood Cliffs 1978: Digital<br />

Process<strong>in</strong>g of Speech Signals (Prentice-Hall)<br />

[Raman, 1918] C.V. Raman, The Indian Association for the Cultivation of<br />

Science 1918: On the Mechanical Theory of the Vibrations of<br />

Bowed Str<strong>in</strong>gs and of <strong>Music</strong>al Instruments of the Viol<strong>in</strong> Family,<br />

with Experimental Verification of the Results. (Proceed<strong>in</strong>gs,<br />

Bull15)<br />

[Rank, 1996] Erhard Rank, Wien 1996: Simulation von Musik<strong>in</strong>strumenten<br />

mit nichtl<strong>in</strong>earen dynamischen Systemen (Diplomarbeit)<br />

[Reuter, 1995] C. Reuter, Frankfurt am Ma<strong>in</strong> 1995: Der E<strong>in</strong>schw<strong>in</strong>gvorgang<br />

nichtperkussiver Musik<strong>in</strong>strumente (Peter Lang Verlag)<br />

[Risset, 1964] J.-C. Risset, 1964: Computer <strong>Music</strong> Experiments (Computer<br />

<strong>Music</strong> Journal 1985, 9(1), p. 11-18); repr<strong>in</strong>ted <strong>in</strong> [Roads, 1989]<br />

[Roads, 1989] C. Roads, Cambridge 1989: The <strong>Music</strong> Machiene (MIT-Press)<br />

[Roads, 1996] C. Roads, Cambridge 1996: The Computer <strong>Music</strong> Tutorial<br />

(MIT-Press)<br />

[Ruschkowski, 1998] A. Ruschkowski, Stuttgart 1998: Elektronische Klänge <strong>und</strong><br />

musikalische Entdeckungen (Reclam)<br />

[Ruiz, 1996] P.M. Ruiz, Urbana 1996: A Technique for Simulat<strong>in</strong>g the<br />

Vibrations of Str<strong>in</strong>gs with a Digital Computer (Dissertation PhD<br />

<strong>Music</strong> Master, Univers. Ill.)<br />

Onl<strong>in</strong>e-Version 1.0<br />

123


DIPLOMARBEIT HENRI HAGENOW<br />

[Scavone&Cook, 1998] G. Scavone, P.R. Cook; 1998: Real-Time <strong>Model<strong>in</strong>g</strong> of W<strong>in</strong>d<br />

Instruments (Proceed<strong>in</strong>gs of the Int. Symposium on <strong>Music</strong>al<br />

Acoustics, p.: 197-202)<br />

[Scavone&Smith, 1997] G. Scavone, J.O. Smith; 1997: Digital Waveguide <strong>Model<strong>in</strong>g</strong> of<br />

Woodw<strong>in</strong>d Instruments (Proceed<strong>in</strong>gs of the Intern. Computer<br />

<strong>Music</strong> Conf. 1997)<br />

[Schelleng, 1973] J.C. Schelleng, 1973: The bowed str<strong>in</strong>g and the player<br />

(Journal of the Acoustical Society of America, 53(1), p. 26-41)<br />

[Schelleng, 1974] J.C. Schelleng, 1974: The Physics of the Bowed Str<strong>in</strong>g (Scientific<br />

America 1/1974)<br />

[Serra, 1997] X. Serra, Barcelona 1997: <strong>Music</strong>al So<strong>und</strong> model<strong>in</strong>g with S<strong>in</strong>usoids<br />

plus Noise (published <strong>in</strong> C. Roads, S.Pope, A. Picialli, G.<br />

De Poli: <strong>Music</strong>al Signal Process<strong>in</strong>g (Swets & Zeitl<strong>in</strong>ger))]<br />

[Serra & Smith, 1990] X. Serra, J.O. Smith III, 1990: Spectral <strong>Model<strong>in</strong>g</strong> Synthesis: A<br />

so<strong>und</strong> analysis/synthesis system based on a determ<strong>in</strong>istic plus<br />

stochastic decomposition (Computer <strong>Music</strong> Journal, 14(4),<br />

p. 12-24)<br />

[Smith, 1983] J.O. Smith III, 1983: Techniques for Digital Filter Design and<br />

System Identification with Application to the Viol<strong>in</strong> (PhD<br />

Thesis, Elec. Eng<strong>in</strong>eer<strong>in</strong>g Dpt. Stanford, CCRMA; Technical<br />

Report STAN-M-14)<br />

[Smith, 1986b] J.O. Smith III, 1986: Elim<strong>in</strong>ation of limit circles and overflow<br />

oscillations <strong>in</strong> time-vary<strong>in</strong>g lattice and ladder digital filters<br />

(Proceed<strong>in</strong>gs of the IEEE Conference on Circuits and<br />

Systems; p.197-299)<br />

[Smith, 1987a] J. O. SmithIII, Stanford 1987: <strong>Music</strong>al Applications of Digital<br />

Waveguides (Technical Report STAN-M-39; CCRMA)<br />

[Smith, 1987c] J. O. Smith III,1987: Waveguide Tutorial (Proceed<strong>in</strong>g of the<br />

International Computer <strong>Music</strong> Conference; p. 9-16; CMA)<br />

[Smith, 1992] J. O. Smith, 1992: <strong>Physical</strong> <strong>Model<strong>in</strong>g</strong> us<strong>in</strong>g Digital Waveguides<br />

(Computer <strong>Music</strong> Journal; spezial Issue on <strong>Physical</strong> <strong>Model<strong>in</strong>g</strong><br />

of <strong>Music</strong>al Instruments, Part I, Vol.16, No.4, pp.74-91)<br />

[Smith, 1996] J. O. Smith, 1996: <strong>Physical</strong> <strong>Model<strong>in</strong>g</strong>Synthesis Update<br />

(Computer <strong>Music</strong> Journal, 20(2), p. 44-56)<br />

[Smith, 2000] J.O. Smith III, Center for Computer Research <strong>in</strong> <strong>Music</strong> and<br />

Acoustics, Stanford 2000: Digital Waveguide <strong>Model<strong>in</strong>g</strong> of<br />

<strong>Music</strong>al Instruments (MIT-Press; CCRMA)<br />

[Smith, 2000_b] J.O. Smith III, 2000: Nonl<strong>in</strong>ear Commuted Synthesis of Bowed<br />

Str<strong>in</strong>gs (CCRMA, <strong>Music</strong> Department, Stanford University)<br />

Onl<strong>in</strong>e-Version 1.0 124


DIPLOMARBEIT HENRI HAGENOW<br />

[Smith&Cook, 1992] J. O. Smith III, P.R. Cook, 1992): The second-order digital<br />

waveguide oscillator (Proceed<strong>in</strong>gs of the 1992 International<br />

Computer <strong>Music</strong> Conference, San Jose, p.: 150-153)<br />

[Smith&Serra, 1987] J.O. Smith III, X. Serra; 1987: PARSHL: An Analysisi/Synthesis<br />

Program for Non-Harmonic So<strong>und</strong>s based on a S<strong>in</strong>usoidal<br />

Respresentation (Proceed<strong>in</strong>gs of the International Computer<br />

<strong>Music</strong> Conference)<br />

[Strum&Kirk, 1988] R.D. Strum, D.E. Kirk; Read<strong>in</strong>g 1988: First Pr<strong>in</strong>ciples of<br />

Discrete Systems and Digital Signal Process<strong>in</strong>g (Addison-<br />

Wesley)<br />

[Strawn, 1980] J. Strawn, 1980: Approximation and syntactic analysis of amplitude<br />

and frequency functions for digital so<strong>und</strong> synthesis<br />

(Computer <strong>Music</strong> Journal 4(3), p.: 3-24)<br />

[Strutt-Rayleight, 1945] J.W. Strutt-Rayleight (Lord Rayleight), New York 1945: The<br />

Theory of So<strong>und</strong>; 2 nd Edition, Vol.1 (Dover Publ.)<br />

[Sullivan, 1990] C.R. Sullivan, 1990: Extend<strong>in</strong>g the Karplus-Strong algorithm to<br />

synthesize electric guitar timbres with distortion and feedback<br />

(Computer <strong>Music</strong> Journal, 14(3), p.: 26-37)<br />

[Tolonen et al., 1998] T. Tolonen, V. Välimäki, M. Karjala<strong>in</strong>en; 1998: Evaluation of<br />

Modern So<strong>und</strong> Synthesis Methods (Hels<strong>in</strong>ky University of<br />

Technology; Dpt. Of Electrical & Communications Eng<strong>in</strong>eer<strong>in</strong>g,<br />

Lab. of Acoustics & Audio Signal Process<strong>in</strong>g; Report 48)<br />

[Tomisawa, 1981] N. Tomisawa, 1981: Tone production method for an electronic<br />

musical <strong>in</strong>strument (U.S. Patent 4,249,447)<br />

[Truax, 1977] B. Truax, 1977: Organizational techniques for c:m ratios <strong>in</strong><br />

frequency modulation (Computer <strong>Music</strong> Journal 1(4), p.:39-45)<br />

[Vaidyanathan, 1993] P.P. Vaidyanathan, Englewood Cliffs 1993: Multirate Systems<br />

and Filter Banks (Prentice-Hall)<br />

[Van Duyne&Smith, 1993] S.A. Van Duyne & J.O. Smith III, 1993: <strong>Physical</strong> model<strong>in</strong>g<br />

us<strong>in</strong>g the 2-D digital waveguide mesh (Proceed<strong>in</strong>gs of the<br />

1993 International Computer <strong>Music</strong> Conference, p. 40-47;<br />

CMA)<br />

[Van Duyne&Smith, 1995] S.A. Van Duyne & J.O. Smith III, 1995: The tetrahedral waveguide<br />

mesh: Multiply-free computation of wave propagation <strong>in</strong><br />

free space (Proceed<strong>in</strong>gs of the IEEE Workshop on<br />

Applications of Signal Process<strong>in</strong>g to Audio and Acoustics,<br />

p.9a.6 1-4; IEEE Press)<br />

[VanValkenburg, 1960] M.E. VanValkenburg, New York 1960: Introduction to Modern<br />

Network Synthesis (John Wiley & Sons Inc.)<br />

Onl<strong>in</strong>e-Version 1.0<br />

125


DIPLOMARBEIT HENRI HAGENOW<br />

[Välimäki, 1995] V. Välimäki, 1995: Discrete-Time <strong>Model<strong>in</strong>g</strong> of Acoustic Tubes<br />

Us<strong>in</strong>g Fractional Delay Filters (Report 37; Hels<strong>in</strong>ki University<br />

of Technology, Lab. Of Acoust. & Audio Signal Process<strong>in</strong>g)<br />

[Välimäki&Laakso, 2000] V. Välimäki, T.I. Laakso; 2000: Pr<strong>in</strong>ciples of Fractional Delay<br />

Filters (IEEE International Conference on Acoustics, Speech,<br />

and Signal Process<strong>in</strong>g)<br />

[Weber, 1994] J. Weber, Po<strong>in</strong>g 1994: Handbuch der Tonstudiotechnik<br />

(Franzis Verlag)<br />

[We<strong>in</strong>er et.al., 1988] A. We<strong>in</strong>er, J. Heritage, J. Salehi; 1988: Encod<strong>in</strong>g and decod<strong>in</strong>g<br />

of femtosecond pulses (Opt. Lett. 13, p.: 300-302)<br />

[We<strong>in</strong>reich, 1977] G. We<strong>in</strong>reich, 1977: Coupled piano str<strong>in</strong>gs (Journal of the<br />

Acoustical Society of America, 62(6), p. 1474-1484)<br />

[Wenzel, 1999] M. Wenzel, Furtwangen 1999: Entwurf e<strong>in</strong>es Signalprozessors<br />

zur <strong>Klangsynthese</strong> mit Methoden der physikalischen Modellierung<br />

(Diplomarbeit, Fachhochschule Furtwangen im Schwarzwald,<br />

Fachbereich Mikrosystemtechnik)<br />

[Wöste, 2001] L. Wöste; FU-Berl<strong>in</strong>, Physik, AG-Wöste; 2001: Femtosecond<br />

Pulse-Shap<strong>in</strong>g for Cluster Dynamic Studies (www.physik.fuberl<strong>in</strong>.de/~ag-woeste/shape.html)<br />

Onl<strong>in</strong>e-Version 1.0 126


DIPLOMARBEIT HENRI HAGENOW<br />

Anhang:<br />

A1 Die F<strong>in</strong>ite Differenzenapproximation<br />

E<strong>in</strong>e häufig angewandte Methode <strong>in</strong> der Literatur der musikalischen Akustik, e<strong>in</strong> auf e<strong>in</strong>er<br />

Differentialgleichung basierendes Computermodell zu implementieren, ist die sogenannte<br />

F<strong>in</strong>ite Differenzenapproximation (FDA), <strong>in</strong> der die Differentiation durch e<strong>in</strong>e endliche<br />

Differenz ersetzt wird:<br />

∂ y(<br />

x,<br />

t)<br />

− y(<br />

x,<br />

t − Ts<br />

)<br />

y(<br />

x,<br />

t)<br />

≈<br />

∂t<br />

T<br />

Onl<strong>in</strong>e-Version 1.0<br />

∂<br />

∂x<br />

2<br />

2<br />

<strong>und</strong><br />

mit T s als zeitlichem Sampl<strong>in</strong>g<strong>in</strong>tervall <strong>und</strong> X s als räumlichem Sampl<strong>in</strong>g<strong>in</strong>tervall.<br />

Diese Approximation läßt sich <strong>in</strong>terpretieren als direkte Folge der Def<strong>in</strong>ition der partiellen<br />

Ableitungen nach x <strong>und</strong> t. Die Approximation wird exakt, wenn T s <strong>und</strong> X s gegen Null gehen.<br />

Um e<strong>in</strong>en Verzögerungsfehler zu vermeiden, werden die f<strong>in</strong>iten Differenzen zweiter<br />

Ordnung mit e<strong>in</strong>em kompensierenden Zeitversatz def<strong>in</strong>iert:<br />

<strong>und</strong><br />

y(<br />

x + X s , t)<br />

− 2y<br />

( x,<br />

t)<br />

+ y(<br />

x − X s,<br />

t)<br />

y(<br />

x,<br />

t)<br />

≈<br />

X<br />

Die Approximation der Ableitungen mit ungerader Ordnung be<strong>in</strong>halten e<strong>in</strong>en Verzugsfehler<br />

von der Hälfte des Sampl<strong>in</strong>g<strong>in</strong>tervalls T s, während die Fehler aller geraden Ordnungen wie<br />

obenstehend m<strong>in</strong>imiert werden.<br />

Substituiert man die FDA (A1.1) <strong>in</strong> der Wellengleichung (3.1),<br />

so ergibt sich für die Saitenauslenkung y:<br />

2<br />

s<br />

∂<br />

∂t<br />

2<br />

2<br />

y(<br />

x,<br />

t)<br />

− y(<br />

x − X , t)<br />

y(<br />

x,<br />

t)<br />

≈<br />

∂x<br />

X<br />

127<br />

2<br />

s<br />

X =<br />

s<br />

K<br />

T<br />

å s<br />

In praktischen Implementierungen setzt man meist T s = 1 <strong>und</strong> <strong>und</strong> wertet bei<br />

t = nT s, x = mX s = m aus. Man erhält damit die Differenzengleichung<br />

∂ s (A1<br />

. 1)<br />

y(<br />

x,<br />

t + Ts<br />

) − 2y<br />

( x,<br />

t)<br />

+ y(<br />

x,<br />

t −Ts<br />

)<br />

y(<br />

x,<br />

t)<br />

≈<br />

T<br />

K ⋅Ts<br />

y( x,<br />

t + Ts<br />

) ≈ [ y(<br />

x + X , ) 2 ( , ) ( , )] 2 ( , ) ( ,<br />

2<br />

s t − y x t + y x − X s t + y x t − y x t − T<br />

ε ⋅ X<br />

s<br />

2<br />

s<br />

y(<br />

m,<br />

n + 1)<br />

= y(<br />

m + 1,<br />

n)<br />

+ y(<br />

m −1,<br />

n)<br />

− y(<br />

m,<br />

n − 1)<br />

s<br />

2<br />

2<br />

∂ y ∂ y<br />

K ⋅ = ε<br />

⋅ 2<br />

2<br />

∂x<br />

∂t<br />

s<br />

)<br />

(A1<br />

. 2)<br />

(A1<br />

. 3)<br />

(A1<br />

. 4)


DIPLOMARBEIT HENRI HAGENOW<br />

Zur Berechnung der Saitenauslenkung an e<strong>in</strong>em Punkt m für zukünftige Zeitpunkte (n+1),<br />

werden also vergangene Werte n <strong>und</strong> n-1 um den betrachteten Punkt herum benötigt.<br />

Möchte man realistischere Modelle von schw<strong>in</strong>genden Saiten erstellen, so bezieht man die<br />

komplexere Verlaufsfunktionen <strong>und</strong> das Dispersionsverhalten <strong>in</strong> die Modellimplementierung<br />

e<strong>in</strong>, was obiger Formel weitere Terme höherer Ordnung der Form y(n-l,m-k) h<strong>in</strong>zufügt.<br />

Diese stellen dann frequenzabhängige Verluste <strong>und</strong>/oder Dispersionscharakteristiken dar.<br />

Die l<strong>in</strong>earen Differenzengleichungen mit konstanten Koeffizienten ermöglichen die<br />

Erstellung l<strong>in</strong>earer zeit<strong>in</strong>varianter <strong>und</strong> zeitdiskreter Systeme mittels FDA. Hieraus läßt sich<br />

e<strong>in</strong>e Unterklasse l<strong>in</strong>earer zeit<strong>in</strong>varianter ‚gefilterter Wellenleiter‘ erstellen:<br />

Der allgeme<strong>in</strong>e l<strong>in</strong>eare zeit<strong>in</strong>variante zweidimensionale Fall wird dargestellt durch<br />

E<strong>in</strong> Beispiel für e<strong>in</strong>en nichtl<strong>in</strong>earen Fall wäre<br />

A2 Vergleich der digitalen Wellenleitersimulation mit der f<strong>in</strong>iten Differenzen-<br />

approximation<br />

Aus der FDA (siehe Anhang A1) erhielt man die Beziehung<br />

Im Vergleicht zur Methode der digitalen Wellenleitersimulation<br />

⇒<br />

erkennt man, daß nach e<strong>in</strong>er Substitution der Gleichung (A2.2) <strong>in</strong> Gleichung (A2.1) <strong>und</strong><br />

Vergleich mit Gleichung (A2.3) gilt:<br />

Onl<strong>in</strong>e-Version 1.0<br />

∞<br />

∞<br />

∑∑<br />

k = 0 l = 0<br />

∞<br />

∑<br />

k = 0<br />

α<br />

k<br />

k<br />

∂ y(<br />

x,<br />

t)<br />

= k<br />

∂t<br />

∞<br />

∑<br />

l=<br />

0<br />

β<br />

l<br />

m = 0 n=<br />

0<br />

l<br />

∂ y(<br />

x,<br />

t)<br />

l<br />

∂x<br />

(A1<br />

. 5)<br />

k l<br />

∞ ∞<br />

m n<br />

∂ ∂ y(<br />

x,<br />

t)<br />

∂ ∂ y(<br />

x,<br />

t)<br />

α k , l =<br />

k l ∑∑ β m,<br />

n m n<br />

(A1<br />

. 6)<br />

∂t<br />

∂x<br />

∂x<br />

∂x<br />

∂y(<br />

x,<br />

t)<br />

⎛ ∂y(<br />

x,<br />

t)<br />

⎞<br />

= ⎜ ⎟<br />

∂t<br />

⎝ ∂x<br />

⎠<br />

y( n + 1,<br />

m)<br />

= y(<br />

n,<br />

m + 1)<br />

+ y(<br />

n,<br />

m −1)<br />

− y(<br />

n −1,<br />

m)<br />

+<br />

−<br />

y ( n,<br />

m)<br />

= y ( n − m)<br />

+ y ( n + m)<br />

+<br />

−<br />

y ( n + 1,<br />

m)<br />

= y ( n + 1−<br />

m)<br />

+ y ( n + 1+<br />

m)<br />

y ( n + 1,<br />

m)<br />

= y(<br />

n,<br />

m+<br />

1)<br />

+ y(<br />

n,<br />

m − 1)<br />

− y(<br />

n − 1,<br />

m)<br />

2<br />

(A1<br />

. 7)<br />

(A2.<br />

1)<br />

(A2.<br />

2)<br />

(A2.<br />

3)<br />

+<br />

−<br />

+<br />

−<br />

= y ( n − m −1)<br />

+ y ( n + m + 1)<br />

+ y ( n − m + 1)<br />

+ y ( n + m − 1)<br />

+ −<br />

− y ( n − m −1)<br />

− y ( n + m −1)<br />

+<br />

−<br />

= y ( n−<br />

m+<br />

1)<br />

+ y ( n + m + 1)<br />

+<br />

−<br />

= y [( n + 1)<br />

− m]<br />

+ y [( n + 1)<br />

+ m]<br />

≡ y ( n + 1,<br />

m)<br />

(A2.<br />

4)


DIPLOMARBEIT HENRI HAGENOW<br />

Demzufolge ist also die FDA ebenso exakt im verlustfreien Fall, was e<strong>in</strong> wenig verw<strong>und</strong>ert,<br />

denn die FDA erzeugt e<strong>in</strong>e Dämpfung, wenn sie auf e<strong>in</strong> Masse-Feder-System angewendet<br />

wird.<br />

Aus obiger Rechnung wird ersichtlich, daß sich<br />

beim Zeitpunkt (n+1) die Position m als Superposition der rechts- <strong>und</strong> l<strong>in</strong>kslaufenden<br />

Teilwellen der Positionen (m-1) <strong>und</strong> (m+1) zum Zeitpunkt n darstellt.<br />

Die physikalische Wellenvariable kann also immer für den nächsten zeitlichen Schritt (n+1)<br />

aus der Summe der rechts <strong>und</strong> l<strong>in</strong>ks e<strong>in</strong>treffenden Teilwellen berechnet werden. Hieran<br />

erkennt man deutlich den verlustfreien Charakter des vorgestellten Wellenleitersystems.<br />

A3 Allpaßfilter zur Simulation von Dispersion <strong>in</strong> digitalen Wellenleitern<br />

Der allgeme<strong>in</strong>e Allpaßfilter L-ter Ordnung ist gegeben durch<br />

wobei<br />

ist <strong>und</strong> alle Wurzeln aus Λ(z) kle<strong>in</strong>er als e<strong>in</strong>s se<strong>in</strong> müssen, da das Zählerpolynom die<br />

Umkehrung des Nennerpolynoms ist. Dies impliziert e<strong>in</strong>en Austausch jedes Poles p i durch<br />

e<strong>in</strong>e Nullstelle bei z i = 1/p i.<br />

Da Allpaßfilter l<strong>in</strong>ear <strong>und</strong> zeit<strong>in</strong>variant s<strong>in</strong>d, wirken sie zusammen mit anderen l<strong>in</strong>earen<br />

zeit<strong>in</strong>varianten Komponenten wie Verstärkungsfaktoren. Die Allpaßfilter lassen sich <strong>in</strong><br />

bidirektionalen Wellenleitern auch <strong>in</strong> zwei Punkten zusammenfassen. Man erhält die<br />

Transferfunktion H T(z) = z⋅H a 3 (z) durch e<strong>in</strong>e beliebige Allpaßfilter-Entwurfstechnik [Laakso<br />

et. al., 1996; Lang & Laakso, 1994].<br />

Im Falle e<strong>in</strong>er verlustfreien, steifen Saite sollte die benutzte Filterentwurfstechnik den<br />

Phasenverzögerungsfehler so kle<strong>in</strong> wie möglich halten, wobei die Phasenverzögerung<br />

def<strong>in</strong>iert ist durch<br />

Onl<strong>in</strong>e-Version 1.0<br />

y ( n + 1,<br />

m)<br />

+<br />

−<br />

≡ y [( n + 1)<br />

− m]<br />

+ y [( n + 1)<br />

+ m]<br />

+<br />

−<br />

≡ y [ n − ( m −1)]<br />

+ y [ n + ( m + 1)]<br />

H<br />

a<br />

129<br />

(A2.<br />

5)<br />

−1<br />

− L Λ(<br />

z )<br />

( z)<br />

: = z )<br />

(A3.<br />

1)<br />

Λ(<br />

z)<br />

z z<br />

z<br />

−1<br />

−2<br />

Λ( ) : = 1+<br />

σ + σ + ... + σ<br />

1<br />

2<br />

L<br />

Lz −<br />

(A3.<br />

2)<br />

jω<br />

T<br />

∠H<br />

c(<br />

e )<br />

Pc<br />

( ω)<br />

: = (A3.<br />

2)<br />

ω


DIPLOMARBEIT HENRI HAGENOW<br />

mit der Allpaßtransferfunktion H c(z) <strong>und</strong> dem Phasenw<strong>in</strong>kel ∠ [Rab<strong>in</strong>er & Gold, 1975]. Die<br />

M<strong>in</strong>imierung der Chebyshev-Norm des Phasenverzögerungsfehlers ||P c(ω) – c o/c(ω)|| ∞<br />

approximiert den Fehler <strong>in</strong> der Modenstimmung, also dem Frequenzverhältnis der Obertöne<br />

e<strong>in</strong>er frei schw<strong>in</strong>genden Saite [Smith, 1983].<br />

Da die Streckung der Obertonreihe <strong>in</strong> e<strong>in</strong>er steifen, vibrierenden Saite aber auch <strong>in</strong> der<br />

Realität zu beobachten ist, sollte dieser Fehler nicht behoben werden.<br />

A4 Weitere alternative Wellenvariablen<br />

Zusätzlich zu zeitlichen Ableitungen kann man natürlich auch räumliche Ableitungen<br />

beliebiger Ordnung nutzen, um weitere Wellenvariablen zu erhalten, aus denen man e<strong>in</strong>e<br />

geeignete wählen kann, um e<strong>in</strong> anfallendes Problem optimal zu lösen.<br />

Die erste räumliche Ableitung der transversalen Saitenauslenkung ergibt die Form der<br />

Saitenwelle:<br />

Digitalisiert erhält man<br />

Man kann also die Beschleunigungswanderwellen aus den Formen der Auslenkungswellen<br />

berechnen:<br />

Die Krümmungswellen s<strong>in</strong>d dann im Falle e<strong>in</strong>er idealen Saite nur noch skalierte<br />

Beschleunigungswellen:<br />

∂<br />

∂x<br />

Onl<strong>in</strong>e-Version 1.0 130<br />

∂<br />

∂x<br />

v<br />

∂ x ∂ x<br />

y(<br />

x,<br />

t)<br />

= yr<br />

( t − ) + yl(<br />

t + )<br />

∂x<br />

c ∂x<br />

c<br />

1 ∂ x 1 ∂ x<br />

= − ⋅ yr<br />

( t − ) + ⋅ yl<br />

( t + )<br />

c ∂t<br />

c c ∂t<br />

c<br />

( m , n ) t x y<br />

−<br />

∂<br />

= c ⋅ y<br />

∂x<br />

∂<br />

≡ y(<br />

mX , nT )<br />

s s<br />

∂x<br />

∂<br />

∂<br />

= yr[(<br />

n −m)<br />

Ts<br />

] + yl[(<br />

n + m)<br />

Ts<br />

]<br />

∂x<br />

∂x<br />

∂ + ∂ −<br />

= y ( n − m)<br />

+ y ( n + m)<br />

∂x<br />

∂x<br />

1 ∂ + 1 ∂ −<br />

= − ⋅ y ( n −m)<br />

+ ⋅ y ( n + m)<br />

c ∂t<br />

c ∂t<br />

1 + 1 −<br />

= − v ( n − m)<br />

+ v ( n + m)<br />

c c<br />

1 −<br />

+<br />

= − [ v ( n + m)<br />

− v ( n−<br />

m)]<br />

c<br />

∂x<br />

−<br />

,<br />

2<br />

∂ −1<br />

y = c<br />

2<br />

2<br />

∂<br />

⋅<br />

2<br />

∂t<br />

∂<br />

∂x<br />

(A4.<br />

1)<br />

(A4.<br />

2)<br />

+<br />

+<br />

v = − c ⋅ y<br />

(A4.<br />

3)<br />

y<br />

(A4.<br />

4)


DIPLOMARBEIT HENRI HAGENOW<br />

In der Akustik läßt sich der Schw<strong>in</strong>gungszustand e<strong>in</strong>er vibrierenden Saite zu jedem<br />

beliebigen Zeitpunkt t 0 durch die Angabe der transversalen Saitenauslenkung y(x,t 0) <strong>und</strong><br />

Saitenauslenkungsgeschw<strong>in</strong>digkeit ∂y(x,t 0) /∂t darstellen.<br />

A5 Leistungswellen im digitalen Wellenleiter<br />

Da Energie <strong>in</strong> geschlossenen Systemen erhalten bleibt, ermöglicht die Verwendung von<br />

Leistungswellen e<strong>in</strong>e e<strong>in</strong>fache, gr<strong>und</strong>legende Ansicht der Wellenphänomene (z.B. <strong>in</strong><br />

Implementierungen konischer akustischer Röhren). Auch zur Überwachung von<br />

Implementierungen nichtl<strong>in</strong>earer Operationen wie Aufr<strong>und</strong>ung <strong>und</strong> Sättigung ohne daß die<br />

Signalenergie erhöht wird (limit circles, overflow oscillations; [Smith, 1986b]) kann die<br />

Berechnung der Leistung an e<strong>in</strong>em festen Punkt im Wellenleiter nützlich se<strong>in</strong>.<br />

Leistungswanderwellen setzten sich zusammen aus<br />

Die Summe der rechts- <strong>und</strong> l<strong>in</strong>kslaufenden Teilwellen ergibt die Gesamtleistung am<br />

betrachteten Punkt im Wellenleiter:<br />

Nimmt man e<strong>in</strong>en Wellenleiter an, dessen Wellenimpedanz langsam von l<strong>in</strong>ks nach rechts<br />

ansteigt (z.B. e<strong>in</strong> konvergierender Kegel als akustische Röhre), so breitet sich P + aufgr<strong>und</strong><br />

des Energiesatzes unverändert entlang des Wellenleiters aus. Demzufolge <strong>und</strong> aufgr<strong>und</strong><br />

von Gleichung (A6.1) muß also die Kraft f + entsprechend wachsen, während die<br />

Geschw<strong>in</strong>digkeit v + s<strong>in</strong>kt; die Gesamtenergie bleibt dabei erhalten.<br />

Onl<strong>in</strong>e-Version 1.0<br />

+<br />

Ρ ( n)<br />

≡ f<br />

+<br />

−<br />

Ρ ( n)<br />

≡ − f<br />

( n)<br />

v<br />

−<br />

+<br />

( n)<br />

= R[<br />

v<br />

−<br />

− 2 − 2<br />

( n)<br />

v ( n)<br />

= R[<br />

v ( n)]<br />

= [ f ( n)]<br />

/ R<br />

131<br />

+<br />

( n)]<br />

2<br />

= [ f<br />

+<br />

2<br />

( n)]<br />

/ R<br />

+<br />

−<br />

Ρ(<br />

, t ) ≡ Ρ ( n − m)<br />

+ Ρ ( n + m)<br />

xm n<br />

(A5.<br />

1)<br />

(A5.<br />

2)


DIPLOMARBEIT HENRI HAGENOW<br />

A6 Verb<strong>in</strong>dungen zwischen Bereichen verschiedener Wellenimpedanz<br />

Im Folgenden werden nur elementare Streueigenschaften für longitud<strong>in</strong>ale Kraft- <strong>und</strong><br />

Geschw<strong>in</strong>digkeitswellen <strong>in</strong> idealen Saiten oder Stäben behandelt. In Festkörpern werden<br />

Kraft-wellen wie Spannungswellen betrachtet [Kolsky, 1963]. Longitud<strong>in</strong>ale<br />

Kompressionswellen <strong>in</strong> Saiten <strong>und</strong> Stäben verhalten sich wie Druckwellen <strong>in</strong> akustischen<br />

Röhren. Anwendungen zur Simulation akustischer Röhren f<strong>in</strong>den sich u.a. <strong>in</strong> [Markel&Gray,<br />

1976; Rab<strong>in</strong>er&Schafer, 1978].<br />

E<strong>in</strong> Wellenleiter mit drei verschiedenen Wellenimpedanzen R 0, R 1, R 2 ist <strong>in</strong> Abb. A6.1<br />

dargestellt. Man kann sich die Konstruktion als e<strong>in</strong>en Stab vorstellen, dessen drei<br />

aufe<strong>in</strong>anderfolgende Teilbereiche aus verschiedenen Materialien unterschiedlicher Dichte<br />

bestehen. In der i-ten Sektion bef<strong>in</strong>den sich jeweils zwei Teilwellen f i ± , die mit der<br />

Geschw<strong>in</strong>digkeit c nach rechts bzw. l<strong>in</strong>ks wandern. Um den numerischen Aufwand zu<br />

m<strong>in</strong>imieren, sollte man für die Beschreibung des Sachverhaltes auf Geschw<strong>in</strong>digkeitswellen<br />

ausweichen, sobald R i > 1 wird [Smith, 2000].<br />

Abb. A6.1: Darstellung e<strong>in</strong>es Wellenleiters mit drei Bereichen verschiedener Wellenimpedanz<br />

(R 0, R 1, R 2). T entspricht <strong>in</strong> der Abb. dem Sample<strong>in</strong>tervall T s.<br />

Teilabbildung a) zeigt e<strong>in</strong>e Skizze des Signalflusses im kont<strong>in</strong>uierlichen Medium;<br />

Teilabbildung b) zeigt die entsprechende Implementierung als digitalen Wellenleiter.<br />

Der mittlere Bereich R 1 ist von der Länge c⋅T, wobei T die entsprechende Verzögerungszeit<br />

des Impedanzbereiches ist. Das Verhalten der Impedanzdiskont<strong>in</strong>uität wird<br />

durch e<strong>in</strong>e verlustfreie Aufspaltung <strong>in</strong> transmittierende <strong>und</strong> reflektierte Komponenten<br />

der e<strong>in</strong>treffenden Wellen charakterisiert. (Abb. aus [Smith, 2000])<br />

Onl<strong>in</strong>e-Version 1.0 132


DIPLOMARBEIT HENRI HAGENOW<br />

Im Falle von transversalen Wellen (man vergleiche die <strong>in</strong> Abschnitt 3.3.1 abgeleitete<br />

Beziehung p ± (n) = ± R t u ± (n)) erfüllen die sich ausbreitenden ebenen Wellen <strong>in</strong> jeder der<br />

drei Bereiche die Beziehung [Kolsky, 1963]<br />

wobei die Wellenimpedanz nun durch R = Υρ<br />

beschrieben wird, mit ρ als Massendichte<br />

Onl<strong>in</strong>e-Version 1.0<br />

i<br />

<strong>und</strong> Y als Elastizitätsmodul (Young-Modul) des Mediums. Wenn der Wellenwiderstand R i<br />

konstant ist, wird die Form der sich fortpflanzenden Welle nicht geändert, während sie sich<br />

von e<strong>in</strong>em Ende e<strong>in</strong>er Sektion zum anderen ausbreitet. In diesem Fall muß man f i ± an den<br />

Begrenzungen jedes Bereiches nur als Funktion der Zeit betrachten. Wie <strong>in</strong> Abb. A6.1<br />

gezeigt, wird f i ± (t) als Kraft am l<strong>in</strong>ken Rand der Sektion i def<strong>in</strong>iert. Folglich f<strong>in</strong>den wir dann<br />

am rechten Rand der Sektion i die Wanderwellen f i + (t-τ) <strong>und</strong> fi - (t+τ), wobei τ die Zeit ist, die<br />

die Teilwelle benötigt, um vom e<strong>in</strong>en Ende der Sektion zum anderen zu gelangen.<br />

Die Erhaltung von Energie <strong>und</strong> Masse erzw<strong>in</strong>gt, daß die Kräfte <strong>und</strong> Geschw<strong>in</strong>digkeiten an<br />

e<strong>in</strong>er Impedanzdiskont<strong>in</strong>uität kont<strong>in</strong>uierlich s<strong>in</strong>d:<br />

Dabei s<strong>in</strong>d Kraft <strong>und</strong> Geschw<strong>in</strong>digkeit l<strong>in</strong>ks <strong>und</strong> rechts von der Verb<strong>in</strong>dung als positiv<br />

def<strong>in</strong>iert s<strong>in</strong>d. Zusammen mit den letzten beiden oberen Gleichungen folgen aus Gleichung<br />

(A6.1) analog zu optischen Wellenleitern die ‚Streubeziehungen‘:<br />

wobei<br />

der i-te Reflektionskoeffizient genannt wird. Solange R i(t) ≥ 0 ist, bleibt k i(t) ∈ [-1,1]. Die<br />

Streubeziehungen werden <strong>in</strong> Abb. A6.1 b) <strong>und</strong> Abb. A6.2 schematisch veranschaulicht. Im<br />

Bereich der l<strong>in</strong>earen Sprachsynthese nennt man solche Konstruktionen ‚Kelly-Lochbaum‘-<br />

Streuverb<strong>in</strong>dungen [Markel&Gray, 1976].<br />

−<br />

±<br />

±<br />

f i<br />

i<br />

( t)<br />

= ± Riv<br />

( t)<br />

(A6.<br />

1)<br />

f<br />

v<br />

i−1<br />

i−1<br />

( c ⋅T<br />

, t)<br />

= f<br />

( c ⋅T<br />

, t)<br />

= v<br />

s<br />

s<br />

133<br />

i<br />

i<br />

( 0,<br />

t)<br />

( 0,<br />

t)<br />

+<br />

+<br />

−<br />

f i<br />

i i − s i i<br />

( t)<br />

= [ 1+<br />

k ( t)]<br />

f 1 ( t − T ) − k ( t)<br />

f ( t)<br />

f i−1<br />

( t + Ts<br />

) = ki<br />

( t)<br />

f i −1<br />

( t −Ts<br />

) + [ 1 − k i ( t)]<br />

f i<br />

+<br />

−<br />

( t)<br />

Ri(<br />

t)<br />

− Ri−1(<br />

t)<br />

ki<br />

( t)<br />

≡ (A6.<br />

4)<br />

R ( t)<br />

+ R ( t)<br />

i<br />

i−1<br />

(A6.<br />

2)<br />

(A6.<br />

3)


DIPLOMARBEIT HENRI HAGENOW<br />

Abb. A6.2: Darstellung e<strong>in</strong>er Kelly-Lochbaum Streuverb<strong>in</strong>dung.T entspricht<br />

<strong>in</strong> der Abb. dem Sample<strong>in</strong>tervall T s (Abb. aus [Smith, 2000]).<br />

Um die Rechenlast ger<strong>in</strong>g zu halten, stellt man die Streubeziehungen so um, daß nur noch<br />

e<strong>in</strong>e e<strong>in</strong>zige Multiplikation notwendig ist, um die transmittierten <strong>und</strong> reflektierten Anteile der<br />

e<strong>in</strong>treffenden Wellen zu berechnen. Veranschaulicht wird dies <strong>in</strong> Abb. A6.3. Diese<br />

Verb<strong>in</strong>dung zweier Wellenleiter nennt man ‚one-multiply‘-Streuverb<strong>in</strong>dungen [Markel&Gray,<br />

1976]:<br />

mit<br />

Abb. A6.3: Darstellung e<strong>in</strong>er ‚one-multiply‘-Streuverb<strong>in</strong>dung. T entspricht<br />

<strong>in</strong> der Abb. dem Sample<strong>in</strong>tervall T s (Abb. aus [Smith, 2000]).<br />

Onl<strong>in</strong>e-Version 1.0 134<br />

+<br />

+<br />

f i i − s Δ<br />

( t)<br />

= f 1 ( t − T ) + f ( t)<br />

−<br />

−<br />

i Δ<br />

f − 1 ( t + Ts<br />

) = f i ( t)<br />

+ f<br />

( t)<br />

+<br />

−<br />

f Δ i i−<br />

s i<br />

( t)<br />

≡ k ( t)[<br />

f 1 ( t − T ) − f ( t)]<br />

(A6.<br />

5)<br />

(A6.<br />

6)


DIPLOMARBEIT HENRI HAGENOW<br />

A7 Symmetrische FIR-Filter zur Simulation frequenzabhängiger Dämpfung<br />

Durch geeignete Parametrisierung läßt sich e<strong>in</strong> symmetrischer FIR-Filter zweiter Ordnung<br />

zur Simulation frequenzabhängiger Dämpfung erstellen, der durch die E<strong>in</strong>gabe der<br />

Parameter für die Klangfarbe B (brightness) <strong>und</strong> Klangdauer S (susta<strong>in</strong>) gesteuert wird<br />

[Smith, 2000]:<br />

Hierbei s<strong>in</strong>d P die Periode <strong>in</strong> Sek<strong>und</strong>en (total loop delay), S die erwünschte Klangdauer <strong>in</strong><br />

Sek<strong>und</strong>en <strong>und</strong> B der Klangfarbenparameter aus e<strong>in</strong>em Intervall [0,1]. Der<br />

Klangdauerparameter S ist als die Zeit def<strong>in</strong>iert, <strong>in</strong> der die Lautstärke des Klanges um 60<br />

dB (6,91 Zeitkonstanten) abnimmt, wenn der Klangfarbenparameter maximal ist (B=1). In<br />

diesem Fall ist der Verstärkungsfaktor g 0 für alle Frequenzen gleich, d.h. _(e j_T s ) = g0. Wird<br />

der Klangfarbenparameter verkle<strong>in</strong>ert, so bleibt g 0 konstant <strong>und</strong> die hohen Frequenzen<br />

kl<strong>in</strong>gen schneller ab. Erreicht der Klangfarbenparameter se<strong>in</strong> M<strong>in</strong>imum, so wird der<br />

Verstärkungsfaktor der Frequenz mit der halben Sampl<strong>in</strong>grate zu Null <strong>und</strong> man erhält:<br />

A8 Die Kopplung von N Saiten<br />

Die meisten Saiten<strong>in</strong>strumente bestehen aus mehr als zwei Saiten. Beim Klavier wird jeder<br />

Ton durch das Anschlagen von zumeist drei identischen Saiten erzeugt. Die Kopplung<br />

zwischen allen im Instrument vorhandenen Saiten wird dann im Allgeme<strong>in</strong>en über e<strong>in</strong>e<br />

Kopplungsmatrix geregelt.<br />

E<strong>in</strong>e Kopplungsmatrix besteht aus e<strong>in</strong>er Filtertransferfunktion <strong>in</strong> jedem Matrixelement. Für<br />

N Saiten überträgt jedes e<strong>in</strong>zelne Matrixelement e<strong>in</strong>e Welle von bestimmter Eigenart (z.B.<br />

horizontal polarisiert usw.). Die allgeme<strong>in</strong>e l<strong>in</strong>eare Kopplungsmatrix enthält also N 2<br />

Transferfunktionen. Im hier dargestellten Fall der Kopplung zweier Saiten ist allerd<strong>in</strong>gs nur<br />

Onl<strong>in</strong>e-Version 1.0<br />

g<br />

0<br />

=<br />

e<br />

gˆ<br />

( 0)<br />

= g<br />

gˆ<br />

( 1)<br />

= g<br />

P<br />

( −6<br />

, 9⋅<br />

)<br />

S<br />

0<br />

0<br />

( 1+<br />

B)<br />

2<br />

( 1−<br />

B)<br />

4<br />

135<br />

(A7.<br />

1)<br />

ˆ i ω t<br />

2<br />

G( e ) = g 0 cos ( ωT<br />

)<br />

(A7.<br />

2)<br />

s<br />

ˆ jωT<br />

1+<br />

cos( ωTs<br />

)<br />

2<br />

G( e ) = g0<br />

= g 0 cos ( ωTs<br />

)<br />

(A7.<br />

2)<br />

2


DIPLOMARBEIT HENRI HAGENOW<br />

e<strong>in</strong> Transmissionsfilter nötig, der von allen Saiten, die an der Brücke befestigt s<strong>in</strong>d, benutzt<br />

wird.<br />

Es läßt sich zeigen, daß sich der von beiden Saiten benutzte Transmissionsfilter für zwei<br />

gekoppelte Saiten auf N Saiten verallgeme<strong>in</strong>ern läßt, die an e<strong>in</strong>e allgeme<strong>in</strong>e<br />

Brückenimpedanz gekoppelt s<strong>in</strong>d. Man erhält<br />

V ( s)<br />

= H ( s)<br />

⋅<br />

b<br />

b<br />

N<br />

∑<br />

i = 1<br />

RV<br />

mit<br />

V b(s) ist die laplacetransformierte Brückengeschw<strong>in</strong>digkeit. H b(s) ist der von allen Saiten<br />

benutzte Anteil des Brückenfilters. Jeder E<strong>in</strong>zelzweig (i=1,2,....,N) wird dann nur noch<br />

entsprechend der relativen Impedanzen R i skaliert. Smith [Smith, 2000] bezeichnet dies als<br />

‚one-filter scatter<strong>in</strong>g term<strong>in</strong>ation‘.<br />

S<strong>in</strong>d beide Saiten identisch, so wie es z.B. <strong>in</strong> e<strong>in</strong>em Pianomodell der Fall wäre, vere<strong>in</strong>facht<br />

sich die Berechnung der Brückengeschw<strong>in</strong>digkeit wie folgt:<br />

Dabei ist H b(s) ≡ 2 / (2+R b(s)/R) der Geschw<strong>in</strong>digkeitstransmissionsfilter. In diesem Fall<br />

werden die e<strong>in</strong>treffenden Geschw<strong>in</strong>digkeitswerte e<strong>in</strong>fach summiert <strong>und</strong> <strong>in</strong> den Trans-<br />

missionsfilter geleitet, der dann die Brückengeschw<strong>in</strong>digkeitswerte ausgibt. In Abb.(A8.1)<br />

wird e<strong>in</strong>e solche Schaltung dargestellt.<br />

Da R b(s) positiv reell ist, ist sichergestellt, daß | 2⋅H b(e jωT ) - 1| ≤ 1 ist, was die Kopplungsfilter<br />

auf solche e<strong>in</strong>schränkt, deren Werte der Frequenzantworten <strong>in</strong> der komplexen Ebene<br />

<strong>in</strong>nerhalb des um z = _ zentrierten Kreises mit Radius _ liegen.<br />

S<strong>in</strong>d die beiden betrachteten gekoppelten Saiten verlustfrei, bestehen sie also aus zwei<br />

e<strong>in</strong>fachen Rückkopplungsschleifen, so wird die obige E<strong>in</strong>schränkung zur<br />

Stabilitätsbed<strong>in</strong>gung für das gesamte System. Werden die Amplituden- <strong>und</strong><br />

Phasenantworten der Filter mit G(ω) <strong>und</strong> Θ(ω) bezeichnet, so läßt sich die<br />

Passivitätsbed<strong>in</strong>gung auch <strong>in</strong> der Form<br />

schreiben. Die Signalamplitude kann also nur bei den Frequenzen den Wert 1 erreichen,<br />

deren Phasen den Wert Null annehmen. Weder kann die Phase bis auf 90° steigen, noch<br />

wird die Amplitude e<strong>in</strong>er Frequenz den Wert 1 übersteigen. Sobald e<strong>in</strong>e Phase 90° erreicht,<br />

Onl<strong>in</strong>e-Version 1.0 136<br />

i<br />

+<br />

i<br />

Vb b<br />

( s)<br />

= H ( s)<br />

⋅[<br />

V1<br />

( s)<br />

+ V2<br />

( s)]<br />

+<br />

2<br />

H b(<br />

s)<br />

(A8.<br />

1)<br />

R<br />

+<br />

= N<br />

Rb(<br />

s)<br />

+ ∑ i=<br />

1<br />

i<br />

(A8.<br />

2)<br />

cos[ Θ ( ω)] ≥ G(<br />

ω)<br />

(A8.<br />

3)


DIPLOMARBEIT HENRI HAGENOW<br />

fällt die Amplitude auf Null. Der Realteil der Frequenzantwort ist immer positiv <strong>und</strong> erreicht<br />

nur den Wert Null, wenn der Imag<strong>in</strong>ärteil auch auf Null fällt.<br />

Onl<strong>in</strong>e-Version 1.0<br />

Abb. A8.1: Darstellung der allgeme<strong>in</strong>en Kopplung zweier Saiten<br />

gleicher Impedanz, realisiert durch e<strong>in</strong>en allgeme<strong>in</strong>en Steg-Filter<br />

H b(z). (Abb. aus [Smith, 2000])<br />

Wird der Transmissionsfilter H b als reell angenommen, wird die Passivitätsbed<strong>in</strong>gung<br />

e<strong>in</strong>fach <strong>und</strong> entspricht der frequenzunabhängigen Amplitudenbewertung e<strong>in</strong>er starren<br />

Saitenbegrenzung:<br />

0 ≤ H b ≡ G ≤1<br />

E<strong>in</strong>e solche starre Brückenkopplung läßt sich auch realisieren, <strong>in</strong>dem man<br />

Bewertungsfaktoren der Form<br />

verwendet, wobei K = 0, 1, 2, ... . Der Fall G = 1 entspricht e<strong>in</strong>er Brückenimpedanz mit dem<br />

Wert Null, bei dem man annehmen könnte, die beiden Saiten verschmelzen zu e<strong>in</strong>er<br />

e<strong>in</strong>zigen idealen Saite. Im Fall G = 0 ist die Brücke starr, was e<strong>in</strong>er Isolation beider Saiten<br />

gleichkommt. Da realistische Brücken fast starr s<strong>in</strong>d, setzt man G immer <strong>in</strong> der Nähe von<br />

Null an, was mit G = 2 -K realisiert werden kann.<br />

E<strong>in</strong>en frequenzabhängigen passiven Transmissionsfilter erhält man z.B. mit e<strong>in</strong>er<br />

Transferfunktion der Form<br />

mit K = 1, 2,... , die e<strong>in</strong>en Addierer <strong>und</strong> e<strong>in</strong>en E<strong>in</strong>heitsverzögerer be<strong>in</strong>haltet. Der Steg<br />

sche<strong>in</strong>t bei hohen Frequenzen starrer zu se<strong>in</strong>, als bei tiefen <strong>und</strong> verhält sich so wie e<strong>in</strong>e<br />

träge Masse. Federartige Stege kann man u.a. mittels Transmissionsfiltern der Form<br />

H b(z) = 2 -K ⋅ (1-z -1 ) simulieren [Smith, 2000].<br />

Die obigen Filterschaltungen s<strong>in</strong>d sogenannte ‚one-zero‘-Filter. Die entsprechenden E<strong>in</strong>-<br />

Polstellen-Filter s<strong>in</strong>d für masseartige Stege H b(z) = 2 -K / (1-z -1 ) <strong>und</strong> für federartige Stege<br />

H b(z) = 2 -K / (1+z -1 ).<br />

G<br />

−<br />

= 2<br />

− K<br />

H ( z)<br />

= 2 ( 1+<br />

z<br />

b<br />

137<br />

K<br />

−1<br />

)<br />

(A8.<br />

4)<br />

(A8.<br />

5)<br />

(A8.<br />

6)


DIPLOMARBEIT HENRI HAGENOW<br />

Werden die obigen passiven Transmissionsfilter kaskadiert, muß beachtet werden, daß<br />

e<strong>in</strong>e Kaskade von zwei massenartigen oder zwei federartigen Filtern zur Instabilität führen<br />

kann. Man bedenke, daß die Phase des Filters z -1 , also die Phase des e<strong>in</strong>fachen<br />

E<strong>in</strong>heitsverzögerers, bei der halben Sampl<strong>in</strong>gfrequenz den Wert π erreicht, daher also ke<strong>in</strong><br />

passiver Transmissionsfilter ist.<br />

Physikalisch entspricht die Pol-Nullstellen-Verschachtelung der Tatsache, daß sich die<br />

Brückenimpedanz je nach Frequenzbereich abwechselnd entsprechend e<strong>in</strong>er Feder oder<br />

e<strong>in</strong>er Masse verhält. Bei Frequenzen, die zwischen Null <strong>und</strong> der ersten Resonanzfrequenz<br />

liegen, gleicht die Brückenimpedanz der Impedanz e<strong>in</strong>er Feder. Dann sche<strong>in</strong>t sie sich bis<br />

zur nächsten Resonanzfrequenz wie der Trägheitswiderstand e<strong>in</strong>er Masse zu verhalten,<br />

dann wieder wie e<strong>in</strong>e Feder usw., bis die Frequenz die halbe Samplefrequenz erreicht. Dies<br />

s<strong>in</strong>d die klassischen steifigkeits- <strong>und</strong> massedom<strong>in</strong>ierten Regionen e<strong>in</strong>er leicht gedämpften<br />

Impedanz. Direkt auf e<strong>in</strong>er Resonanzfrequenz wird die Phase zu Null <strong>und</strong> die Impedanz<br />

gleicht der reellen Impedanz e<strong>in</strong>es Dämpfungszyl<strong>in</strong>ders (dashpot: Zyl<strong>in</strong>der mit<br />

frequenzunabhängiger Dämpfung) [Smith, 2000].<br />

E<strong>in</strong> nachgiebiger Steg führt die Verluste e<strong>in</strong>er schw<strong>in</strong>genden Saite <strong>in</strong> die ebenfalls mit dem<br />

Steg verb<strong>und</strong>enen Saiten. Um e<strong>in</strong>e Simulation effektiv zu halten, sollten alle Saiten-<br />

Rückkopplungsfilter (Length 3 FIR Loop Filter) bis auf e<strong>in</strong>en e<strong>in</strong>zigen – den<br />

Transmissionsfilter - reduziert werden. Dieser simuliert dann alle Verluste, die durch die<br />

Kopplung der Saite entstehen würden.<br />

Gerade bei kle<strong>in</strong>en Samplefrequenzen <strong>und</strong>/oder hohen F<strong>und</strong>amentalfrequenzen s<strong>in</strong>d<br />

Saiten-Rückkopplungsfilter (Length 3 FIR Loop Filter) notwendig, wenn die<br />

Frequenzverhältnisse der e<strong>in</strong>zelnen Obertöne ganzzahlig bleiben sollen, also e<strong>in</strong>e präzise<br />

Saitenstimmung angestrebt [Jaffe&Smith, 1983] <strong>und</strong> e<strong>in</strong>e natürliche Dämpfung erreicht<br />

werden soll. Hierfür ist es notwendig, leistungsfähige Verzögerungsleiter zu haben, um die<br />

Vorteile der ‚shared-loss‘-Implementierung mehrfach gekoppelter Saiten nutzen zu können<br />

[Smith, 2000].<br />

Onl<strong>in</strong>e-Version 1.0 138


DIPLOMARBEIT HENRI HAGENOW<br />

A9 Die Geigenmodelle von Helmholtz <strong>und</strong> Raman<br />

Im Folgenden wird nur e<strong>in</strong>e kurze Zusammenfassung der Gr<strong>und</strong>pr<strong>in</strong>zipien der beiden<br />

wichtigsten Geigenmodelle vorgestellt. In Abb. A9.1 ist e<strong>in</strong> Viol<strong>in</strong>enmodell mit der<br />

Benennung der wichtigsten Bauteile schematisch dargestellt.<br />

Abb. A9.1: Schematische Darstellung e<strong>in</strong>er Viol<strong>in</strong>e mit Bezeichnung der wichtigsten<br />

Bauteile.<br />

A9.1 Das Geigenmodell von Helmholtz<br />

Hermann von Helmholtz erkannte schon im vorigen Jahrh<strong>und</strong>ert, daß die Saite den Großteil<br />

e<strong>in</strong>er Schw<strong>in</strong>gungsperiode an e<strong>in</strong>er Stelle der Bogenhaare haften bleibt <strong>und</strong> mit dem Bogen<br />

bewegt wird, um sich dann <strong>in</strong> e<strong>in</strong>em Bruchteil der Periodendauer zu lösen <strong>und</strong> entgegen<br />

der Bogenbewegung zu gleiten. Die Geschw<strong>in</strong>digkeit dieser Gegenbewegung wurde von<br />

ihm als konstant angenommen. Außerdem erkannte Helmholtz, daß das Verhältnis der<br />

Haft- <strong>und</strong> Gleitzeiten dasselbe ist, wie das Verhätnis der beiden Saitenlängen, die durch<br />

Onl<strong>in</strong>e-Version 1.0<br />

139


DIPLOMARBEIT HENRI HAGENOW<br />

den Bogenkontakt entstehen. Im Falle e<strong>in</strong>er stabilen Schw<strong>in</strong>gung entspricht dies auch dem<br />

Verhältnis der Bogen- zur Gleitgeschw<strong>in</strong>digkeit der Saite [Helmholtz, 1863]. Der<br />

Bogenkontakt erzeugt auf der Saite e<strong>in</strong>e relativ scharfe Kante, die sog. ‚Helmholtz-Corner‘<br />

(Abb A9.2), die sich nach dem Ablösen der Saite vom Bogen auf e<strong>in</strong>er parabelförmigen<br />

Bahn entlang der Saite ausbreitet, an den E<strong>in</strong>spannungen der Saite <strong>in</strong>vertiert reflektiert wird<br />

<strong>und</strong> beim erneuten Passieren des Bogenkontaktes e<strong>in</strong> erneutes Abgleiten der Saite vom<br />

Bogen auslöst. Das Vorbeilaufen der Helmholtz-Corner am Bogen löst also e<strong>in</strong>erseits die<br />

Gleitphase aus, nach der <strong>in</strong>vertierenden Reflexion am Saitenende andererseits aber auch<br />

die Phase der Bogenhaftung.<br />

Abb. A9.2: Ideale Helmoltzbewegung: Dargestellt s<strong>in</strong>d die Momentanauslenkung e<strong>in</strong>er<br />

gestrichenen Saite <strong>und</strong> der Zeitverlauf der Saitengeschw<strong>in</strong>digkeit. Die Saite besteht<br />

zu jedem Zeitpunkt aus zwei Geradenstücken. Der Bogen bef<strong>in</strong>det sich immer<br />

an der Position βûL.<br />

Die Saite besteht zu jedem Zeitpunkt aus zwei Geradenstücken. Der Bogen bef<strong>in</strong>det sich<br />

immer an der Position βûL.<br />

Die Amplitude der Schw<strong>in</strong>gung ist bei gegebener Bogenposition proportional zur<br />

Bogengeschw<strong>in</strong>digkeit v B, e<strong>in</strong>e der E<strong>in</strong>gabegrößen, die vom Spieler des Instrumentes<br />

kontrolliert werden. Neben der Bogengeschw<strong>in</strong>digkeit verändert auch die Bogenposition ß<br />

<strong>und</strong> die Bogennormalkraft f B den entstehenden Klang.<br />

A9.2 Das Geigenmodell von Raman<br />

Unter der vere<strong>in</strong>fachenden Annahme e<strong>in</strong>er idealen Saite formulierte Raman 1918 als erster<br />

e<strong>in</strong> Modell für die Bewegung e<strong>in</strong>er gestrichenen Saite [Raman, 1918]. Rayleight def<strong>in</strong>ierte<br />

die ideale Saite als unendlich dünne Saite endlicher Masse m, die an zwei Stellen x=0 <strong>und</strong><br />

x=L unter Zug fest e<strong>in</strong>gespannt wird <strong>und</strong> dabei ke<strong>in</strong>e Widerstandsmomente gegen Biegung<br />

Onl<strong>in</strong>e-Version 1.0 140


DIPLOMARBEIT HENRI HAGENOW<br />

aufbr<strong>in</strong>gt [Strutt-Rayleight, 1945]. Die ideale Saite ist e<strong>in</strong>e gute Näherung für e<strong>in</strong>e lange,<br />

dünne, stark gespannte Saite, wie die e<strong>in</strong>er Viol<strong>in</strong>e [Hrsch, Krg, We<strong>in</strong>, 1995].<br />

Als e<strong>in</strong>e Ansammlung aus <strong>in</strong>fitesimalen Massen <strong>und</strong> Federn angesehen, wirkt das System<br />

bei Auslenkung e<strong>in</strong>es Massenelementes als e<strong>in</strong>dimensionaler l<strong>in</strong>earer Wellenleiter<br />

(Abb.A9.3). E<strong>in</strong>e Anregung des Systems kann sich <strong>in</strong> beide Richtungen mit konstanter<br />

Geschw<strong>in</strong>digkeit ausbreiten <strong>und</strong> wird an den Saitenenden jeweils <strong>in</strong>vertiert reflektiert. Als<br />

Wellengrößen kommen alle zeitlichen <strong>und</strong> räumlichen Ableitungen der Saitenauslenkung,<br />

z.B. Geschw<strong>in</strong>digkeits- oder Beschleunigungswellen, <strong>in</strong> Frage (siehe auch Kapitel 3).<br />

Abb. A9.3: Modell e<strong>in</strong>er idealen Saite als l<strong>in</strong>earer Wellenleiter. Die Wellengleichung (3.1)<br />

ergibt sich für die differentiellen Massen dm aus den Gr<strong>und</strong>gesetzen der Mechanik<br />

unter der Voraussetzung, daß die W<strong>in</strong>kel α,β


DIPLOMARBEIT HENRI HAGENOW<br />

Diese Onl<strong>in</strong>e-.pdf-Version me<strong>in</strong>er Diplomarbeit habe ich erst im August 2003 aus me<strong>in</strong>er .doc-Version<br />

zusammengebastelt – zwei Jahre nachdem ich sie geschrieben hatte. Leider hatte ich sie damals mit ‚MS Word’<br />

geschrieben <strong>und</strong> daher <strong>in</strong> mehrere Dateien gesplitted (wer ‚MS Word’ kennt, weiss warum...). Das Dokument<br />

habe ich auf die Schnelle neu formatiert. Die Formatierung ist also nicht dieselbe, wie im Orig<strong>in</strong>al. Ich hoffe,<br />

dass ich die Arbeit wieder korrekt rekonstruieren konnte...<br />

Kontakt:<br />

Henri Hagenow<br />

henri@brothers-<strong>in</strong>-music.de<br />

Hiermit versichere ich, Henri Hagenow, daß ich die vorliegende<br />

Diplomarbeit selbstständig verfaßt <strong>und</strong> ke<strong>in</strong>e anderen als die<br />

angegebenen Quellen <strong>und</strong> Hilfsmittel verwendet habe.<br />

Onl<strong>in</strong>e-Version 1.0 142<br />

Berl<strong>in</strong>, August 2001

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!