03.03.2013 Aufrufe

Diplomarbeit - Erich-Thienhaus-Institut - Hochschule für Musik ...

Diplomarbeit - Erich-Thienhaus-Institut - Hochschule für Musik ...

Diplomarbeit - Erich-Thienhaus-Institut - Hochschule für Musik ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

<strong>Hochschule</strong> <strong>für</strong> <strong>Musik</strong> Detmold<br />

<strong>Erich</strong>-<strong>Thienhaus</strong>-<strong>Institut</strong><br />

<strong>Diplomarbeit</strong><br />

Aspekte der Reproduzierbarkeit von<br />

Zeitgenössischer <strong>Musik</strong> mit Live-Elektronik<br />

und ihrer Interpretationspraxis<br />

vorgelegt von:<br />

Hendrik Manook<br />

Siebengebirgsallee 10<br />

50939 Köln<br />

Studiengang: <strong>Musik</strong>übertragung (Tonmeister)<br />

Betreuer: Prof. Michael Sandner<br />

28. September 2006


1. Einleitung<br />

Inhaltsverzeichnis<br />

2. Die technischen Komponenten 6<br />

2.1 Historie 6<br />

2.2 Funktionsbereiche 11<br />

2.2.1 Klanggenerierung 13<br />

2.2.2 Klangergänzung 16<br />

2.2.3 Klangveränderung 22<br />

2.2.3.1 Zeit 22<br />

2.2.3.2 Raum 25<br />

2.2.3.3 Frequenzbereich 41<br />

2.2.3.4 Pegel 46<br />

2.2.4 Schallwandlung 49<br />

2.2.4.1 Mikrofone 51<br />

2.2.4.2 Lautsprecher 52<br />

2.2.5 Steuerung 53<br />

2.3 Signalfluß 56<br />

2.4 Computeranalphabetismus und Bedienerfreundlichkeit 57<br />

4<br />

2


3. Überlegungen zur Interpretation 62<br />

3.1 Der künstlerische Umgang mit Verstärkung 62<br />

3.1.1 Änderung der Dynamik 62<br />

3.1.2 Änderung der Klangfarbe 63<br />

3.1.3 Subjektive Nähe 64<br />

3.1.4 Lokalisation 65<br />

3.1.5 Absolute und relative Lautstärke 65<br />

3.1.6 Rückkopplungen 66<br />

3.2 Aufführungsräume 67<br />

3.3 Klangideale und Mischreferenzen 69<br />

3.3.1 Aufnahmen 70<br />

3.3.2 Schriften / Programmtexte 71<br />

3.3.3 Interviews / Porträts 72<br />

3.4 Alte oder neue Technik? 72<br />

3.5 Identität von Werken und die Freiheit der Interpretation 74<br />

4. Entwurf einer Methodik zur strukturellen Vorgehensweise 78<br />

5. Fazit<br />

4.1 Technik 78<br />

4.2 Aktion<br />

4.3 Notation 82<br />

4.4 Archivierung 84<br />

Quellenangaben<br />

Danksagung<br />

81<br />

91<br />

93<br />

97<br />

3


1. Einleitung<br />

<strong>Musik</strong> lebt durch ihre Produktion und Reproduktion, und besonders im Umfeld der klas-<br />

sischen <strong>Musik</strong> ist der Bereich der aktiven Reproduktion sehr bedeutend. Dies zeigt sich<br />

bereits in der Tatsache, daß die Arbeitsbereiche der beteiligten Personen schon durch<br />

ihre Ausbildung in Komposition und Interpretation getrennt werden, zur Ausführung<br />

von <strong>Musik</strong> aber in Kombination auftreten müssen. So ist die Überlieferung von allen<br />

Werken klassischer <strong>Musik</strong> als Teil unserer gelebten Kultur nur dann möglich, wenn es<br />

immer wieder Interpreten gibt, die sich dieser Werke annehmen, sie einstudieren und öf-<br />

fentlich präsentieren.<br />

Man kann davon ausgehen, daß diejenigen Werke, die als besonders gut und wertvoll<br />

betrachtet werden, immer wieder gespielt und angefordert werden und daß sich so im<br />

Laufe der Zeit eine Auswahl der beliebten Stücke weiterverbreiten wird; der Rest wird<br />

eventuell vergessen oder geht ganz verloren.<br />

Daher ist es völlig natürlich, daß es in Zeitgenössischer <strong>Musik</strong> viele Werke gibt, die<br />

produziert werden, aber davon nur wenige auch noch nach langer Zeit immer wieder<br />

aufgeführt, also reproduziert, werden.<br />

Nach inzwischen mehrjähriger aktiver Beschäftigung mit der Zeitgenössischen <strong>Musik</strong><br />

des 20. und 21. Jahrhunderts, insbesondere als Klangregisseur und Aufnahmeleiter, bin<br />

ich persönlich zu der Überzeugung gekommen, daß durch die Ergänzung des akusti-<br />

schen Instrumentariums mit live eingesetzter Elektronik seit inzwischen mehreren Jahr-<br />

zehnten dieser Selektionsprozeß empfindlich gestört wird. Durch mangelhafte,<br />

unzureichende oder schlicht nicht vorhandene Dokumentation der Apparaturen der<br />

Elektronik in Verbindung mit ihrer schnellen Veränderung gehen die <strong>für</strong> eine Repro-<br />

duktion notwendigen Informationen nämlich ungewollt verloren. Diese Dokumentation<br />

ist aber nötig, da die Vielfältigkeit der Geräte der Elektronik und insbesondere deren<br />

Kombinierbarkeit die Varianten der traditionellen Instrumente bei weitem übersteigt.<br />

Die Selektion der Werke findet also nicht mehr nur über die Bewertung der Stücke in<br />

ihrer musikalischen Qualität statt, sondern ist zudem abhängig von der Qualität der Do-<br />

kumentation, die der Elektronik beigegeben wurde.<br />

4


Dies mag daran liegen, daß der Komponist fast immer bei den ersten Aufführungen an-<br />

wesend ist und sich nicht bewußt macht, wie viele Informationen nur er liefern kann, die<br />

<strong>für</strong> eine adäquate Realisierung der Technik und <strong>für</strong> ihren genauen Einsatz im Stück not-<br />

wendig sind. Auch wenn er nicht selber die Klangregie führt, so wird er doch in Proben<br />

und eventuell auch im Konzert korrigierend eingreifen, indem er Anweisungen gibt, die<br />

den Interpreten weitere Informationen über die Realisierung oder den Umgang mit der<br />

Elektronik bieten, zumindest in der jeweiligen Situation.<br />

Aufgabe dieser Arbeit soll es nun sein, Kriterien <strong>für</strong> eine unabhängige Dokumentation<br />

von <strong>Musik</strong> mit Live-Elektronik zu finden, die den beteiligten Personen bei der Repro-<br />

duktion eines solchen Werkes zur Umsetzung dienlich sein können. Dies gilt insbeson-<br />

dere <strong>für</strong> den Fall, daß weder der Komponist, noch sonstige Personen, die mit ihm das<br />

betroffene Stück erarbeitet haben, anwesend sind und <strong>für</strong> Nachfragen zur Verfügung<br />

stehen, ebenso <strong>für</strong> eine sinnvolle Archivierung in nicht mündlicher Form.<br />

Die Arbeit teilt sich in drei große Abschnitte:<br />

• Zunächst werde ich eine Auflistung der gängigsten technischen Komponenten<br />

<strong>für</strong> Live-Elektronik durchführen, systematisieren und dann auf die genannten<br />

Kriterien hin analysieren. Es sei darauf hingewiesen, daß diese Auflistung zwar<br />

den Anspruch einer umfassenden Systematisierung hat, aber die Auswahl der<br />

Komponenten subjektiv und exemplarisch ist, sich also weitere finden lassen,<br />

die aber meiner Meinung nach zweitrangig sind.<br />

• Danach werde ich verschiedene Aspekte des interpretatorischen Umgangs mit<br />

dieser Elektronik betrachten und hier ebenfalls Kriterien <strong>für</strong> eine allgemeingülti-<br />

ge Dokumentation herausarbeiten.<br />

• Schließlich stelle ich eine Methodik vor, die mein Vorschlag <strong>für</strong> eine sinnvolle<br />

Vorgehensweise bei der Entwicklung einer Dokumentation im oben genannten<br />

Sinne ist.<br />

Es sei darauf hingewiesen, daß ich in dieser Arbeit ausschließlich die Audio-relevanten<br />

Aspekte von Live-Elektronik betrachten werde, da mein Studienfach dies nahelegt.<br />

5


2. Die technischen Komponenten<br />

2.1 Historie<br />

Die Entwicklung der tontechnischen Gerätschaften hat insbesondere in der zweiten<br />

Hälfte des 20. Jahrhunderts einige grundlegende und strukturelle Veränderungen her-<br />

vorgebracht, die sich weitreichend in ihrer Funktionalität und Bedienbarkeit im Kontext<br />

von Live-Anwendungen niedergeschlagen haben.<br />

Analog und digital<br />

Historisch gesehen lassen sich im Wesentlichen drei Phasen feststellen:<br />

Zunächst wurde bis in die 60er Jahre die elektroakustische Übertragungstechnik stets<br />

verfeinert, es wurden elektronische Klangerzeuger entwickelt, Medien zur Schallspei-<br />

cherung bis hin zum Tonband erfunden und so erstmals feiner Tonschnitt möglich. Bis<br />

zu diesem Zeitpunkt war aber aller Technik gemein, daß sie nur auf analogen Prinzipien<br />

basierte.<br />

Durch die raschen Entwicklungen der Computertechnik seit den 50er Jahren einerseits<br />

und durch die Erfindung der spannungsgesteuerten Verstärker (VCA) Mitte der 60er<br />

Jahre andererseits wurde es in der Folge möglich, die weiterhin analogen Prozesse zur<br />

Klangerzeugung und -verarbeitung digital zu steuern. Dadurch gewann die Möglichkeit<br />

der Automatisierung und Programmierung von ganzen Arbeitsabläufen enorm an Be-<br />

deutung und erlaubte die Realisierung von wesentlich komplexeren technischen Auf-<br />

bauten auch im Kontext von Live-Anwendungen.<br />

Seit Anfang der 70er Jahre wurden dann auch digital arbeitende Klangerzeuger gebaut,<br />

wenig später immer zufriedenstellender funktionierende Geräte zur digitalen Speiche-<br />

rung von Klängen wie Sampler und digitale Tonbandgeräte und im Laufe der folgenden<br />

Zeit wurden sämtliche analogen Prozesse der Klangerzeugung, -verarbeitung und<br />

-speicherung ebenfalls digital realisierbar.<br />

6


Es veränderten sich analoge Systeme zunächst zu digital gesteuerten (sogenannten hy-<br />

briden) Systemen und schließlich zu nahezu vollends digitalen Systemen.<br />

Allein die Schallwandlung an beiden Enden der elektroakustischen Übertragungskette<br />

blieb zwingend analog, zum einen Mikrofone und die zugehörigen Vorverstärker, zum<br />

anderen Lautsprecher mit den zugehörigen Endverstärkern. In jüngster Zeit gibt es nun<br />

sogar auf diesem Gebiet weitere Entwicklungen hin zur digitalen Signalverarbeitung,<br />

zumindest hinsichtlich der Verringerung der analogen Übertragungswege: Es werden<br />

inzwischen Mikrofone auf dem Markt angeboten, die im Gerät selber direkt hinter dem<br />

Schallwandler die A/D-Wandlung vollziehen.<br />

Konsequenzen der Entwicklung<br />

Im Zuge der fortschreitenden Entwicklung der <strong>Musik</strong>elektronik lassen sich drei Prinzi-<br />

pien erkennen, die die Erscheinung der Technik qualitativ prägen: die Miniaturisierung<br />

der technischen Geräte trotz ihrer technischen Weiterentwicklung, die Standardisierung<br />

der physikalisch vorhandenen Geräte, also der Hardware, und schließlich die Verkür-<br />

zung der Innovationszyklen bei den aufeinander folgenden Generationen der Technik,<br />

also der exponentiell ansteigende technische Fortschritt.<br />

Die Verkleinerung des Geräteparks, die sich in fast allen Bereichen der Tontechnik fin-<br />

den läßt, hat zur Folge, daß die Systeme heutzutage wesentlich leichter transportiert und<br />

installiert werden können als früher. Dies heißt auch, daß in bestehende Geräteprinzi-<br />

pien bei gleichbleibender Größe immer mehr Funktionen integriert werden und so wei-<br />

tere Geräte wegfallen können. 1 Eine Ausnahme bilden einige Komponenten, die<br />

aufgrund ihres Funktionsprinzips nur begrenzt miniaturisiert werden können, wie bei-<br />

spielsweise Lautsprecher 2 oder Controller, die zur manuellen Bedienung angenehme<br />

Maße besitzen sollen. Bei den Lautsprechern wurden allerdings Fortschritte des Wir-<br />

kungsgrads erreicht und sie konnten so zumindest an Gewicht einbüßen.<br />

1 Dieser Fall läßt sich immer wieder bei digitalen Mischpulten oder Digitalen Audio Workstations<br />

(DAWs) finden, aber auch bei der Entwicklung der Computerschnittstellen.<br />

2 Lautsprecher können bei zu kleinen Abmessungen tieffrequente Schallwellen rein physikalisch nicht<br />

mehr produzieren, da diese so große Abmessungen besitzen.<br />

7


Während <strong>für</strong> einige Stücke mit Live-Elektronik am Anfang, also in den sechziger und<br />

frühen siebziger Jahren, noch individuelle Apparaturen gebaut wurden 3 , wurden in der<br />

Folgezeit allgemeiner verfügbare Geräte, wie beispielsweise Synthesizer oder Sampler,<br />

in Kombination mit einigen speziell konstruierten Komponenten <strong>für</strong> Live-Elektronik 4<br />

eingesetzt. Diese speziell entwickelten Geräte wurden nun aber nicht mehr <strong>für</strong> nur ein<br />

bestimmtes Stück konstruiert, sondern als ein Element der Elektronik, das dann in vie-<br />

len Werken genutzt werden konnte. Im Laufe der neunziger Jahre wurde dann durch den<br />

zunehmenden Einsatz von rein computergestützten Systemen, die nicht explizit <strong>für</strong> elek-<br />

troakustische Zwecke konstruiert wurden, die Standardisierung der Geräte weiter geför-<br />

dert. Durch die strikte Trennung von Hard- und Softwareindustrie, die aus Gründen der<br />

Effektivität und der Kostensenkung durch Massenproduktion marktwirtschaftlich nahe-<br />

liegend ist, wurde es nun möglich, speziell programmierte Software auf einer sehr<br />

großen Zahl „fremder“ Hardware laufen zu lassen, da diese Hardwaresysteme eine<br />

Plattform <strong>für</strong> vielerlei Anwendungen bilden und sich demzufolge großer Verbreitung<br />

erfreuen. Für die Fälle, in denen man tatsächlich spezielle Hardware zur Anbindung an<br />

das individuelle Elektronik-Setup benötigt, wird diese über die standardisierten Schnitt-<br />

stellen der Hardware in Form von zusätzlich entwickelten Adaptern realisiert, die dann<br />

nur in Kleinauflagen und in Abstimmung auf die standardisierte Hardware produziert<br />

werden. Beispiele hier<strong>für</strong> sind Audio- und MIDI 5 -Interfaces, spezielle Controller oder<br />

individuell entwickelte Schnittstellen, die derzeit üblicherweise per USB 6 - oder Fire-<br />

Wire-Schnittstellen an die standardisierten Computer angeschlossen werden.<br />

Diese Entwicklung widerspricht der eben genannten Tendenz zur Integration von Gerä-<br />

teprinzipien keineswegs, da Hard- und Software unabhängig voneinander betrachtet<br />

kein eigenständig funktionierendes System bilden und nur in Kombination <strong>für</strong> die An-<br />

wendung im Bereich der <strong>Musik</strong>elektronik in Frage kommen. Zudem wird die Integrati-<br />

3 Dies geschah beispielsweise 1966 <strong>für</strong> Stockhausens SOLO, wo in der Partitur zusätzlich zur Funktionsbeschreibung<br />

der elektronischen Apparatur die exemplarische Realisierung in Bildern dokumentiert<br />

ist und sich sogar eine Adresse findet, wo man diese ausleihen kann. Auch <strong>für</strong> MANTRA wurde<br />

1970 eine Apparatur in Auftrag gegeben, die dann der Anlaß zur Gründung des Experimentalstudios<br />

des SWR wurde (nachzulesen bei Haller 1995 Bd. 2, S. 10ff.)<br />

4 Hierzu zählen beispielsweise das Raumsteuerungsgerät „Halaphon“ im Freiburger Experimentalstudio<br />

(siehe Kapitel 2.2.3.2 unter „Verräumlichung“) oder das Computersystem 4X im Pariser IRCAM.<br />

5 musical instrument digital interface<br />

6 universal serial bus<br />

8


on von diversen Geräteprinzipien in größere Geräte nun sogar in wesentlich umfangrei-<br />

cheren Maße möglich.<br />

Der besondere Vorteil, den diese Entwicklung mit sich gebracht hat, liegt darin, daß zu-<br />

nehmend keine besonderen Geräte mehr transportiert werden müssen, oder nur noch in<br />

wesentlich geringerem Maße, sondern daß vor Ort vorhandene Hardware genutzt wer-<br />

den kann und auf dieser die spezielle Software mit den klangerzeugenden, klangverar-<br />

beitenden und steuerungsrelevanten Komponenten der Elektronik geladen und<br />

angewendet werden kann. Gerade in Zeiten von fast allgegenwärtiger Vernetzung muß<br />

inzwischen nahezu nichts mehr postalisch gesendet werden, sondern man kann die Soft-<br />

ware überall aus dem Internet herunterladen. Dies vereinfacht die Verbreitung von Wer-<br />

ken mit Elektronik sowie deren Aktualisierung in einem bisher nicht denkbaren Maße<br />

und löst die Bindung von ihren Aufführung an bestimmte Lokalitäten, wo die zugehöri-<br />

ge Technik vorhanden ist oder wohin sie mit vertretbarem finanziellem und organisato-<br />

rischem Aufwand transportiert werden kann, weitgehend auf.<br />

Das enorme Problem, das durch die Loslösung speziell entwickelter Software von der<br />

früher einmal zugehörigen speziell entwickelten Hardware entstanden ist, liegt in der<br />

Notwendigkeit, diese beiden Teile zueinander kompatibel zu halten. Für neu entwickelte<br />

Software und Hardware wird nicht uneingeschränkt Kompatibilität zu älterer Software<br />

und Hardware angestrebt, zum einen aufgrund der wirtschaftspolitischen Forderung,<br />

trotz gesteigerter Produkt- und Innovationszyklen Anreize zum Neukauf von alter Tech-<br />

nik zu schaffen, die im Umfeld der neuen Komponenten nicht mehr ins Gesamtsystem<br />

zu integrieren ist und somit inkompatibel wird, zum anderen wegen mangelnder Nach-<br />

frage nach dieser Kompatibilität auf dem gesamten Markt <strong>für</strong> die genannte Hardware,<br />

wobei ja der Markt <strong>für</strong> Audioanwendungen insbesondere im Kontext von Live-<br />

Elektronik nur einen kleinen Ausschnitt darstellt.<br />

Demzufolge erlangt die Forderung, die vollständige Funktionalität der Elektronik unab-<br />

hängig vom gesamten System zu beschreiben, eine neue Qualität von Notwendigkeit,<br />

wenn ein zukünftiger Einsatz auch nur von Teilen der speziell programmierten Elektro-<br />

nik möglich sein soll. Früher war diese Dokumentation nur dort nötig, wo ein komplet-<br />

ter Nachbau vom gesamten System in Frage kam, zum Beispiel wenn durch<br />

Neuentwicklungen der elektronischen Bauteile Verbesserungen der Audioqualität zu<br />

9


erwarten waren oder falls Teile beschädigt wurden und ein stabiler Ablauf nicht mehr<br />

möglich war. Nun muß der Möglichkeit Rechnung getragen werden, daß aufgrund von<br />

Inkompatibilitäten Anpassungen der Software auf neue Hardware vorgenommen wer-<br />

den müssen. 7<br />

Es besteht natürlich weiterhin die Möglichkeit, lokal gebunden ein funktionierendes<br />

Gesamtsetup der Elektronik <strong>für</strong> jedes Werk zu konservieren, doch dies würde alle oben<br />

beschriebenen Vorteile der Befreiung der Software von den physikalisch vorhandenen<br />

Hardwarekomponenten zunichte machen.<br />

Durch die rasant fortschreitenden Entwicklungen auf dem Gebiet der Audiotechnik ist<br />

die Frequenz, mit der neue Generationen von technischen Geräten auf den Markt kom-<br />

men, sehr hoch geworden. Insbesondere seit der Durchdringung der Geräte mit digitalen<br />

Technologien und dem weitverbreiteten Einsatz von Computern ist dies der Fall, und<br />

die von Gordon Moore schon in den sechziger Jahren prophezeite Verdopplung der An-<br />

zahl der Transistoren auf einem integrierten Schaltkreis (also auch in Computerprozes-<br />

soren) in regelmäßigen Abständen von ca. 18 bis 24 Monaten scheint sich bis heute<br />

hartnäckig zu halten. So kommt es, daß die zur Aufführung eines Werkes mit Live-<br />

Elektronik eingesetzte Technik, wenn sie computergestützt ist, heutzutage schon inner-<br />

halb eines Jahrzehnts als völlig veraltet und überholt gelten muß; man kann in solch ei-<br />

nem Fall bereits von historischer Technik sprechen. Zudem ist durch die<br />

Beschleunigung der Produktzyklen und durch die gesunkene Lebensdauer einer Genera-<br />

tion technischer Geräte die Verfügbarkeit von älterer Hardware sowie der Support von<br />

älterer Software ebenfalls schon nach wenigen Jahren nicht mehr gewährleistet 8 . Die<br />

Frage nach dem Umgang mit dieser kurzen Lebensdauer der technischen Komponenten<br />

im Kontext von <strong>Musik</strong> mit Live-Elektronik soll im Kapitel 3.4 thematisiert werden.<br />

7 Anpassungen von Hardware an Software wären prinzipiell natürlich auch möglich, allerdings nicht<br />

sehr praktikabel, denn mit der Hardware als standardisierte, offene Plattform muß ja Kompatibilität zu<br />

vieler Software angestrebt werden. Daher ist die Anpassung einer speziellen Software an die Hardware,<br />

die man als allgemein verfügbar voraussetzen kann, zu leisten, denn diese wird schließlich nicht<br />

<strong>für</strong> bestimmte Software konstruiert.<br />

8 Eigentlich ist inzwischen nicht das Sinken der Lebensdauer, sondern der durchschnittlichen Nutzungsdauer<br />

von einer Generation von Technik relevant, da viele Geräte unbrauchbar und inkompatibel werden,<br />

bevor sie verbraucht und kaputt sind.<br />

10


2.2 Funktionsbereiche<br />

Um der Forderung einer adäquaten Beschreibung der technischen Komponenten von<br />

Live-Elektronik zur besseren Reproduzierbarkeit sowie unabhängig von bestimmten<br />

Hardware- und Softwaresystemen Rechnung zu tragen, soll hier eine Systematisierung<br />

der gängigsten Komponenten oder Prinzipien der Technik unter dem Gesichtspunkt<br />

ihrer Funktionalität im jeweiligen musikalisch-technischen Kontext vorgenommen wer-<br />

den.<br />

Zur Kategorisierung der Technik möchte ich jedoch möglichst Abstand nehmen von der<br />

weit verbreiteten Herangehensweise der primären Betrachtung der elektroakustischen<br />

Verarbeitungsprozesse, wie man sie häufig in historisierenden oder chronologischen<br />

Darstellungen, insbesondere einzelner Studios und Forschungseinrichtungen, findet.<br />

Hans Peter Haller wählt beispielsweise eine Unterteilung in drei Kategorien, nämlich<br />

Frequenzumsetzung (Tonhöhenveränderung), Klangselektion (Eingriff in das Frequenz-<br />

spektrum) und Klangsteuerung (hinsichtlich diverser Parameter wie Lautstärke, Klang-<br />

farbe, Ort, Bewegung oder zeitlicher Versetzung). 9 Somit differenziert er primär, wie in<br />

die Natur der Signale technisch eingegriffen wird. Die akustischen Konsequenzen hin-<br />

sichtlich der unterschiedlichen musikalischen Ebenen sind in dieser Kategorisierung<br />

nachgeordnet.<br />

Ich werde vielmehr eine Betrachtung in Kategorien der wahrnehmbaren musikalischen<br />

Konsequenzen der Technik, insbesondere derer akustischer Natur, anstreben 10 , die mir<br />

aus folgenden Gründen <strong>für</strong> diese Aufgabe als wesentlich naheliegender erscheint:<br />

• Sie ist als Notationssystem in der Partitur, auch <strong>für</strong> Instrumentalisten und auf<br />

diesem technischen Gebiet nicht spezialisierte Personen, wesentlich universeller<br />

und nachvollziehbarer.<br />

• Sie bietet ein Beschreibungssystem <strong>für</strong> eine retrospektive Analyse von Stücken<br />

und eventuelle Rekonstruktion von einzelnen Elementen von Elektronik, die<br />

mangelhaft dokumentiert sind.<br />

9 Haller 1995, Bd. 1, S.25f.<br />

10 Wie bereits erwähnt soll sich diese Arbeit nur mit den <strong>für</strong> das Audio relevanten Komponenten beschäftigen<br />

11


• Sie erlaubt eine präzise Einordnung von neuen Technologien und kennzeichnet<br />

ebenso Verwandschaften von technischen Systemen, die einander ersetzen kön-<br />

nen.<br />

Das Bescheibungssystem von Verarbeitungsprozessen wird man trotzdem dort beibehal-<br />

ten müssen, wo sich einige technische Komponenten auf diese Weise präziser, kürzer<br />

oder überhaupt nur so festhalten lassen, jedoch schlage ich vor, diese Kategorisierung<br />

der wahrnehmungsorientierten Systematisierung unterzuordnen.<br />

Die verschiedenen Komponenten der Live-Elektronik sollen nach ihrer Systematisie-<br />

rung auf ihre wesentlichen Parameter hin untersucht und diese schließlich hinsichtlich<br />

der Eignung zur Dokumentation von Live-Elektronik betrachtet werden.<br />

Im Anwendungsfeld der Live-Elektronik gibt es so fünf wesentliche Funktionsbereiche<br />

der Technik, die hier analysiert werden sollen.<br />

• Zunächst gibt es das umfangreiche Gebiet der Klanggenerierung, das sehr eng<br />

verbunden ist mit der Tradition der rein elektronischen <strong>Musik</strong>, der Computermu-<br />

sik sowie den elektronischen Klangerzeugern, die in der Popmusik weite Ver-<br />

breitung fanden und große Entwicklungsschübe verursacht haben.<br />

• Als weiteres Feld kommt der Umgang mit vorgefertigten Klängen hinzu, die un-<br />

abhängig von ihrer Entstehung und von ihrer weiteren Verwendung im Stück auf<br />

einem adäquaten Medium zur Verfügung gestellt und wiedergegeben werden.<br />

Dieser Bereich läßt sich mit dem Begriff Klangergänzung beschreiben, da er<br />

Klänge bereitstellt, die ansonsten nicht verfügbar wären.<br />

• Der Bereich, der der <strong>Musik</strong> mit Live-Elektronik wahrscheinlich am meisten zu-<br />

eigen ist, läßt sich unter dem Begriff der Klangveränderung zusammenfassen.<br />

Hierunter fallen alle Prozesse, die Klänge, ob live oder zuvor erzeugt, in ihrer<br />

Erscheinungsweise verändern, um sie dann hörbar zu machen oder <strong>für</strong> weitere<br />

Verarbeitungsprozesse zu verwenden.<br />

• Als vierte Kategorie gibt es alle Prozesse zur Schallwandlung, die im Rahmen<br />

des Einsatzes von Live-Elektronik anfallen. Hier werde ich die elektroakusti-<br />

schen Schnittstellen betrachten, die eingangs- und ausgangsseitig zur Wandlung<br />

12


von Schall in elektrische Informationen und zurück genutzt werden, insbesonde-<br />

re Mikrofone und Lautsprecher.<br />

• Als fünfter und letzter Funktionsbereich ist sämtliche Steuerung zu nennen, die<br />

im Kontext der angewandten Technik anfällt und Auswirkung auf die Erschei-<br />

nungsweise der <strong>Musik</strong> hat. In dieser Arbeit sollen zwar nur Auswirkungen auf<br />

das klangliche Ergebnis betrachtet werden, im Prinzip läßt sich dieser Bereich<br />

aber auf alle Medien ausdehnen, die inbesondere in der Multimedia-Kunst im-<br />

mer häufiger in einem Verbund und interdependent auftreten.<br />

Darüber hinaus gibt es immer wieder Situationen in <strong>Musik</strong> mit Live-Elektronik, in de-<br />

nen Technik übergeordnete Funktionen einnimmt, wie beispielsweise formbildende<br />

oder organisatorische. Diese Anwendung ist aber in der Regel nicht direkt mit dem<br />

akustischen Ergebnis verbunden und soll daher ebenfalls nicht Gegenstand dieser Arbeit<br />

sein.<br />

Es wird sich zeigen, daß sich bestimmte Gerätekonzepte nicht immer auf nur eines die-<br />

ser Gebiete einschränken lassen 11 , aber zur Definition der jeweiligen Funktion der Tech-<br />

nik im Kontext eines bestimmten Werkes wird es beitragen, die Live-Elektronik<br />

hinsichtlich dieser Bereiche voneinander getrennt zu dokumentieren, um die Integration<br />

von zukünftigen oder altenativen Gerätekonzepten zu erleichtern.<br />

2.2.1 Klanggenerierung<br />

Historische Instrumente zur elektronischen Klanggenerierung<br />

Bereits seit Anfang des zwanzigsten Jahrhunderts finden sich immer wieder individuelle<br />

Erfindungen von elektronischen <strong>Musik</strong>instrumenten. Hierzu gehören beispielsweise<br />

Thaddeus Cahills Dynamophon, Jörg Magers Sphärophon und das von Trautwein ent-<br />

wickelte und nach ihm benannte Trautonium. 12 Diese Instrumente haben sich jedoch in<br />

der <strong>Musik</strong>literatur der Folgezeit mit Ausnahme einiger weniger Kompositionen kaum<br />

11 Dies wird insbesondere unterstützt durch die bereits genannte Tendenz zur Integration von unterschiedlichsten<br />

Funktionen in übergeordneten technischen Gesamtsystemen.<br />

12 vgl. hierzu und im Folgenden Ruschkowski 1998, S. 15-75<br />

13


erhalten, es bildete sich folglich auch keine Tradition <strong>für</strong> Interpreten oder Komponisten.<br />

Nur zwei Instrumente haben es immer wieder geschafft, in Kompositionen Einzug zu<br />

erhalten und sogar in den Kreis der Instrumente zu gelangen, die an staatlichen Hoch-<br />

schulen unterrichtet werden. Dies sind das von Lew Thermen entwickelte Theremin so-<br />

wie Maurice Martenots Ondes Martenot. Noch heute gibt es eine Klasse <strong>für</strong> Theremin<br />

am Moskauer Konservatorium und eine Klasse <strong>für</strong> Ondes Martenot am Pariser Conser-<br />

vatoire Supérieur. Gefördert durch diese Umstände konnte sich folglich <strong>für</strong> diese beiden<br />

Instrumente eine Tradition der Technik sowie der Interpretation entwickeln, die sehr am<br />

jeweiligen Instrument orientiert spezielles Wissen darüber vermitteln kann. So besteht<br />

weiterhin eine Nachfrage <strong>für</strong> diese Instrumente und sie haben damit den Status der tra-<br />

ditionellen <strong>Musik</strong>instrumente mit spezialisierten Instrumentenbauern und Instrumenta-<br />

listen erreicht: Sie brauchen auch zukünftig nicht ersetzt zu werden.<br />

Klangsynthese<br />

Die Klangsynthese als Methode der Verarbeitung von einfachsten elektronischen Ele-<br />

menten zur Erzeugung von komplexen Klanggemischen ist die am weitesten verbreitete<br />

Form der elektronischen Klanggenerierung. Bereits bei der Arbeit in den elektronischen<br />

Studios der 50er Jahren haben sich erste Methoden zur Klangsynthese herausgebildet,<br />

die später verfeinert und erweitert wurden, aber weitestgehend immer noch die prinzipi-<br />

elle Grundlage <strong>für</strong> heute genutzte Verfahren bilden. Die Ursprünge der jeweiligen Ver-<br />

fahren waren aber immer in der rein elektronischen <strong>Musik</strong> zu finden, da es hier möglich<br />

war, bereits in wesentlich früheren Entwicklungsstadien der jeweiligen Technik mit lan-<br />

gandauernden Bearbeitungsverfahren oder Berechnungen sowie fragileren Aufbauten<br />

Formen der Klangsynthese anzuwenden, die der Forderung nach Echtzeitfähigkeit und<br />

Stabilität nicht nachkommen mußten, wie sie <strong>für</strong> den Einsatz im Umfeld von Live-<br />

Elektronik notwendig ist. Daher sind auch die jeweiligen Verfahren der Klangsynthese<br />

in der Literatur der elektronischen <strong>Musik</strong> bzw. Computermusik recht vielfältig und gut<br />

dokumentiert 13 und sollen hier nur rudimentär beschrieben werden.<br />

13 vgl. z.B. Roads 1996, Supper 1997, Ruschkowski 1998<br />

14


Zur Klassifizierung der Verfahren zur Klangsynthese schlägt Martin Supper zwei Prin-<br />

zipien vor: vertikale und horizontale Synthese, die auch kombiniert auftreten können. 14<br />

Zur vertikalen Synthese, der Synthese im Frequenzbereich, gehören dann die additive<br />

Synthese, die Klänge aus einzelnen sinusförmigen Teiltönen zusammensetzt, die sub-<br />

traktive Synthese, die aus frequenzreichen Klängen mittels Filtern bestimmte Frequen-<br />

zen abschwächt oder entfernt und zuletzt die FM-Synthese, die Klänge aus der<br />

Modulation von einfach strukturierten Signalen erzeugt.<br />

Zur horizontalen Synthese, der Synthese im Zeitbereich, gehört insbesondere die Granu-<br />

larsynthese, die auf der Aneinanderreihung von zahlreichen sehr kurzen Samples, den<br />

sogenannten Grains, basiert, die aufgrund ihrer Kürze nicht mehr als Einzelklänge<br />

wahrgenommen werden können, sondern neue Klangeindrücke hervorrufen.<br />

Ein Beispiel <strong>für</strong> ein kombiniertes Syntheseverfahren ist das „physical modelling“, das<br />

anhand von akustischen Modellen und ihres Schwingungsverhaltens die resultierenden<br />

Klänge errechnet.<br />

Für den Umgang mit Klangsyntheseverfahren hinsichtlich deren Reproduzierbarkeit er-<br />

gibt die Nutzung von frei programmierbarer Hardware einen entscheidenden Unter-<br />

schied zu der Nutzung von herstellergebundenen Systemen. Während bei ersterer der<br />

Benutzer die Programmierung der Klangsynthese von Grund auf durchführen und über-<br />

blicken muß, also auch einen vollständigen Überblick über alle Vorgänge der Synthese<br />

haben muß, besteht bei herstellergebundenen Komplettsystemen prinzipiell die Gefahr,<br />

daß bestimmte Schalt- und Rechenvorgänge dem Benutzer nicht zugänglich sind und<br />

auch nicht offen dokumentiert sind, so daß es bei manchen Programmen oder Systemen<br />

unmöglich ist, die exakten Vorgänge der Synthese abstrakt zu dokumentieren, um sie<br />

eventuell später auf anderer Hardware neu zu programmieren. Diese Dokumentation<br />

sollte bei der Nutzung offener Hardware <strong>für</strong> den Nutzer immer möglich sein, häufig ist<br />

er sogar schon vor der Programmierung mit einem Entwurf der Klangsynthese in ab-<br />

strakterer Form beschäftigt und setzt diesen Entwurf dann auf der jeweiligen Plattform<br />

um.<br />

Dieses Problem stellt sich im übrigen bei aller Hard- sowie Software, bei der dem Be-<br />

14 Supper 1997, S. 38<br />

15


nutzer Informationen nicht zugänglich sind, die <strong>für</strong> den audioverarbeitenden Prozeß ge-<br />

nutzt werden. 15<br />

Insbesondere in den 1980er Jahren wurden durch die weite Verbreitung einiger Synthe-<br />

sizermodelle, beispielsweise des DX7 von Yamaha oder des Synthi 100 von EMS, eini-<br />

ge zeitweilige Standards <strong>für</strong> die Erzeugung synthetisierter Klänge geschaffen. Diese<br />

Geräte waren problemlos erhältlich, die Zahl der potentiellen Benutzer enorm und die<br />

Auswahl der Typen gering. So wurden diese Geräte auch immer wieder in zeitgenössi-<br />

scher <strong>Musik</strong> eingesetzt und die Steuerdaten in proprietären Formaten gespeichert.<br />

Heutzutage ist es allerdings zunehmend problematisch, die originalen Geräte zu erhalten<br />

und so ist die Gefahr groß, daß viele der zu den Werken gehörigen Klänge nicht mehr<br />

einzusetzen sind, wenn es nicht gelingt, sie quasi rückwirkend auf einem noch laufen-<br />

den System zu analysieren und zu dokumentieren.<br />

2.2.2 Klangergänzung<br />

Zuspielbänder<br />

Es ist zwar umstritten, ob die Wiedergabe von vorproduzierten Klängen während eines<br />

Konzertes mit live spielenden Instrumenten als Live-Elektronik gelten kann, unabhän-<br />

gig von dieser Definitionsfrage ist es aber üblich, daß bei <strong>Musik</strong> mit Live-Elektronik<br />

zugespielte Klänge immer wieder eingesetzt werden, deshalb darf auf ihre Besprechung<br />

insbesondere hinsichtlich der Reproduzierbarkeit hier nicht verzichtet werden. Zudem<br />

ist es so, daß vorproduzierten Klänge diesbezüglich eine Sonderstellung zugesprochen<br />

werden muß: Sie müssen in einer Form archiviert werden, in der sie immer wieder gele-<br />

sen werden können, oder zumindest auf ein neues Medium kopiert werden können, daß<br />

dann seinerseits wieder die Funktion eines „Originals zweiter Generation“ einnehmen<br />

kann. Der Grund hier<strong>für</strong> ist darin zu suchen, daß aufgenommene Klänge bereits eine<br />

transkribierte Form von akustischen oder elektronischen Signalen sind, die in ihrer Er-<br />

scheinung während der Aufnahme entweder später überhaupt nicht reproduziert werden<br />

können, oder deren Ursprung zumindest aus der Transkription auf dem Aufnahme-<br />

15 siehe auch Kapitel 2.4 „Computeranalphabetismus und Bedienerfreundlichkeit“<br />

16


medium nicht mehr entnommen werden kann. Das muß nicht heißen, daß man Aufnah-<br />

mesituationen nicht reproduzieren kann, in denen Zuspielbänder nach Vorgabe des<br />

Komponisten <strong>für</strong> die aktuelle Anwendung produziert werden können 16 ; hingegen ist es<br />

so, daß man mit Hilfe von Aufnahmen Klänge oder elektronische Signale aus ihrem<br />

Kontext entfernen kann oder auch einmalige Ereignisse festhalten kann, die dann in<br />

transkribierter Form auf einem Tonträger vorliegen und nur wiedergegeben werden<br />

können, wenn der Tonträger adäquat gelesen werden kann. Diese Feststellung ist sehr<br />

wichtig, da sie besagt, daß man aufgenommene Klänge im Gegensatz zu allen anderen<br />

hier vorgestellten technischen Komponenten der Live-Elektronik nie durch Abstraktio-<br />

nen ersetzen oder auf grundlegende Funktionen reduzieren können wird. Wenn es nicht<br />

gelingt, die Originale oder zumindest Kopien davon wiederzugeben, sind die Informa-<br />

tionen unwiederbringlich verloren.<br />

Darüber hinaus gibt es seit der Nutzung von digitaler Schallspeicherung ein weiteres<br />

Kriterium, das der Reproduzierbarkeit von gespeicherten Klängen hinderlich sein kann.<br />

Da die Klänge nicht mehr analog, also auf einen Datenträger transkribiert, sondern auch<br />

codiert werden müssen, um sie überhaupt digital verarbeiten und speichern zu können,<br />

muß der entsprechende Code bei der Wiedergabe oder zumindest bei der Kopie in ein<br />

anderes Format, die ja bei digital gespeicherten Klängen auch ohne Wiedergabe erfol-<br />

gen kann, verfügbar sein. Dies ist besonders dann problematisch, wenn der Code nicht<br />

offen verfügbar ist, sondern rechtlich geschützt ist und nur in ausgewählten Produkten<br />

eingesetzt wird. Entsteht die Situation, daß der Proprietär des Codes nicht mehr verfüg-<br />

bar ist, daß die Produktion und der Support der entsprechenden Produkte eingestellt ist,<br />

ist nicht nur der Code verloren, sondern auch die Möglichkeit, die codierten Aufnahmen<br />

zu lesen. Diese Problematik ist derzeit bei Audiodateien nur wenig zu finden, sondern<br />

hauptsächlich bei Dateitypen, die an eine bestimmte Software gebunden sind, doch läßt<br />

die momentane Entwicklung um digital rights management (DRM) und die Lizenzie-<br />

rung von Dateitypen, die im Internet zum Herunterladen vorgesehen werden die Be-<br />

<strong>für</strong>chtung entstehen, daß auch bei Audiodateien zukünftig die Frage der proprietären<br />

Codierung eine größere Rolle spielen könnte.<br />

16 Schöne Beispiele hier<strong>für</strong> sind die „Counterpoint“-Stücke von Steve Reich oder „Dialogue de l'ombre<br />

double“ von Pierre Boulez, in denen die notwendigen Anweisungen <strong>für</strong> instrumentale Aufnahmen<br />

gegeben werden, die der Interpret dann als Zuspielband, gleichsam im Dialog mit sich selbst, nutzen<br />

kann.<br />

17


Unabhängig von den Fragen des Lesens und der Codierung der Klänge muß <strong>für</strong> eine<br />

eindeutige Reproduktion eine adäquate Beschreibung dessen vorliegen, was sich auf<br />

dem Zuspielband befindet. Hierzu gehören formale Angaben wie Länge, Format, Spu-<br />

ranzahl, Spurbelegung, Zuordnung zu bestimmten Lautsprechern oder weiterer elektro-<br />

nischer Verarbeitung (beispielsweise aufgezeichnete Steuerspannungen oder MIDI-<br />

Befehle), Start-Punkte oder Tracks usw. Diese sollten in einer allgemein lesbaren und<br />

möglichst standardisierten Form aufbereitet werden. Darüber hinaus stellt sich die Frage<br />

der Notation bzw. Verschriftlichung des Zuspielbands in der Partitur, die insbesondere<br />

bei angestrebter Synchronität mit live zu Spielendem unabdingbar ist. Die Art und der<br />

Umfang der Notation ist allerdings sehr vom Kontext des Zuspielbandes im Stück ab-<br />

hängig. 17<br />

Zur Archivierung von Zuspielbändern werde ich nähere Ausführungen im Kapitel 4.4<br />

machen.<br />

Sampler<br />

Eine Besonderheit bei der Arbeit mit Zuspielklängen ist der Einsatz von Samplern. Als<br />

Basismaterial nutzen sie ebenfalls gespeicherte Klänge, auf die alle im vorigen Ab-<br />

schnitt genannten Eigenschaften und Forderungen zutreffen. Sampler waren aber von<br />

Beginn an (das erste Gerät wurde 1979 von der Firma CMI-Fairlight Systems vorge-<br />

stellt) auf digitale Klangverarbeitung und einfache sowie schnelle Bedienbarkeit ausge-<br />

legt und besitzen deshalb einige Funktionen, die über den Einsatz von konventionellen<br />

Zuspielbändern hinausgehen.<br />

Sampler werden üblicherweise über eine Klaviatur bedient. Als Schnittstelle zur Kom-<br />

munikation hat sich bis heute weitestgehend das Anfang der 80er Jahre entwickelte<br />

MIDI erhalten. Daher haben die im MIDI-Protokoll übertragenen Daten 18 auch die in<br />

Samplern zur Steuerung üblicherweise eingesetzten Parameter entscheidend geprägt.<br />

Zwar ist die Möglichkeit, diese Parameter den unterschiedlichen Zuspiel- und Klangbe-<br />

17 vgl. hierzu ausführlich Pfeifer 2002<br />

18 MIDI überträgt außer den gespielten Tonhöhen (in Form von den Tasten eindeutig zugewiesenen<br />

Nummern) weiterhin Daten wie Anschlagstärke, Aftertouch, Steuerdaten wie Kanal- und Programmnummern,<br />

Betriebsmodi, Werte von Pedalen, Modulationsrädern oder „Breath Controllern“ und weitere,<br />

teilweise vom Benutzer frei definierbare Steuerdaten. (vgl. hierzu ausführlich Ruschkowski<br />

1998, insbesondere „Die MIDI-Kommunikation“ S. 371-412)<br />

18


arbeitungsprozessen zuzuordnen durch den Ruf nach einfacher Bedienbarkeit stets eini-<br />

germaßen übersichtlich geblieben, doch müssen zur einwandfreien Reproduktion bereits<br />

diese Zuordnungen genau notiert werden. 19 So kann es beispielsweise vorkommen, daß<br />

über eine einzige Taste bei unterschiedlicher Anschlagsdynamik verschiedene Samples<br />

abgerufen werden, die auch noch in ihrer Tonhöhe und Dauer beeinflußt werden. Gera-<br />

de bei früheren Modellen wurde außerdem viel mit Loops gearbeitet, da der zur Verfü-<br />

gung stehende Speicherplatz extrem begrenzt war. Hierbei müssen dann auch noch<br />

Start- und Endpunkte, Blenden, Abspielvarianten usw. dokumentiert werden.<br />

Im Zuge der sich stets weiter verbreitenden Software-Sampler scheinen die genannten<br />

Zuordnungen von Steuerparametern zu Bearbeitungsprozessen nun aber doch zuneh-<br />

mend komplexere Möglichkeiten zu bieten. Dies liegt vermutlich daran, daß durch die<br />

bereits beschriebene Zusammenfassung von Geräteprinzipien in einer programmierba-<br />

ren Umgebung ihre Interaktionsmöglichkeiten umfangreicher werden. Es findet sich im-<br />

mer mehr Software, die Sampler, Synthesizer, Filter, Raumsteuerung und weitere<br />

Effektgeräte kombiniert. So wird beispielsweise <strong>für</strong> einen der bekanntesten Software-<br />

Sampler folgendermaßen geworben:<br />

„Fünf Sampler-Betriebsarten ermöglichen klassisches Sample-Playback, Echtzeit Time-Stretching und<br />

Pitch-Shifting, Pitch-Kompression sowie das Beat-Slicing zur Tempoanpassung von Loops. Die intuiti-<br />

ven Mapping-, Loop- und Gruppen-Editoren sowie mehr als 30 exzellente Filter und Effekte inklusive ei-<br />

nes Faltungseffekts eröffnen neue Perspektiven <strong>für</strong> das kreative Produzieren. [...] Die ausgereiften<br />

Surround-Sound-Features mit Unterstützung aller Surround-Formate bis hin zu 16 Kanälen ermöglichen<br />

das räumliche Bewegen von Sounds.“ 20<br />

Neben der Dokumentation der Zuordnungen und Klangverarbeitungen 21 ist bei der Be-<br />

trachtung von Samplern zu bemerken, daß es erst in jüngster Zeit bei vielen Modellen<br />

ermöglicht wurde, mit standardisierten Dateiformaten wie z.B. AIFF oder Broadcast<br />

Wave und ebenso standardisierten Datenträgern wie Festplatten zu arbeiten. Lange Zeit<br />

hatte jeder Hersteller sein proprietäres Format <strong>für</strong> Audiodaten und Speichermedien, und<br />

<strong>für</strong> die Speicherung der erwähnten Zuordnungen in sogenannten „Programs“ haben sich<br />

19 siehe hierzu im Kapitel 2.2.5 über Steuerung<br />

20 Native Instruments: Präsentation des Kontakt 2,<br />

http://www.native-instruments.com/index.php?id=kontakt_de [Stand 2006-09-25]<br />

21 Diese können mit den Methoden beschrieben werden, die ich im Kapitel 2.2.3 analysieren werde.<br />

19


nach wie vor herstellerspezifische Formate erhalten. Dies macht eine allgemeingültige<br />

Dokumentation umso nötiger.<br />

Live-Sampling<br />

Neben der beschriebenen Möglichkeit, vorproduzierte Klänge zuzuspielen oder als Aus-<br />

gangsmaterial <strong>für</strong> live vollzogene Klangbearbeitungen zu nutzen, gibt es auch die Mög-<br />

lichkeit, das so genutzte Material erst aus den live stattfindenden Aktionen zu gewinnen.<br />

Dieses Verfahren wird auch als „performed tape“ bezeichnet. 22<br />

Da hierzu als Grundbedingung nur eine adäquate Apparatur <strong>für</strong> Aufnahme und Wieder-<br />

gabe benötigt wird, wurde dieses Verfahren bereits seit den 50er Jahren immer wieder<br />

eingesetzt.<br />

Ein Beispiel hier<strong>für</strong> ist SOLO von Karlheinz Stockhausen, entstanden 1966, wo wäh-<br />

rend der gesamten Aufführung eine Aufnahmeapparatur läuft und von Zeit zu Zeit ein-<br />

zelne Passagen daraus verzögert wiedergegeben werden. Der Aufbau ist wie folgt:<br />

22 Gordon Mumma, zit. nach Supper 1997 S.15<br />

Abb. 1: Aufführungstechnik <strong>für</strong> SOLO<br />

20


Durch die rasche Verbreitung von Samplern und hardwaregestützten Aufnahme- und<br />

Wiedergabesystemen wurden die Möglichkeiten zum Live-Sampling enorm erweitert,<br />

insbesondere da diese digitalen Systeme wesentlich leichter und komfortabler automati-<br />

sierbar sind als analoge und so präzisere und ökonomischere Einsatzmöglichkeiten ent-<br />

stehen. Es wurden beispielsweise <strong>für</strong> SOLO 1966 vier Assistenten zusätzlich zum<br />

Klangregisseur benötigt, inzwischen gab es einige Versionen, in denen nur der Klangre-<br />

gisseur mit einem die Technik überwachenden Assistenten das Stück aufführen konnte,<br />

zudem mit wesentlich größerer Präzision. Heute gibt es Software, die speziell <strong>für</strong> diese<br />

Zwecke konzeptioniert ist, wie bereits ihre Namensgebung erahnen läßt, beispielsweise<br />

das vom amsterdamer STEIM entwickelte LiSa (Live Sampling) oder das von der berli-<br />

ner Firma Ableton entwickelte „Ableton Live“.<br />

Instrumentenspezifische Manipulation bei Zuspielern<br />

Bei Geräten zur Wiedergabe gespeicherter Klänge ist es immer so gewesen, daß jede<br />

Generation von Technik ihre instrumentenspezifischen Methoden zur Manipulation bei<br />

der Wiedergabe entwickelt hat. Diese haben sich häufig aus einem „Mißbrauch“ der<br />

vorgesehenen Wiedergabetechnik entwickelt, die sich dann als ästhetisch interessant<br />

herausgestellt hat.<br />

Insbesondere bei analogen Zuspielern gibt es viele Punkte, an denen man bereits mecha-<br />

nisch in den Wiedergabevorgang eingreifen kann. Das prominenteste Beispiel hier<strong>für</strong> ist<br />

wohl die Entwicklung der vielfältigen DJ-Techniken im Umgang mit Plattenspielern,<br />

aber auch die Techniken zur Tonbandmanipulation durch ungewöhnliche Schnitte und<br />

Wiedergabe von präparierten Bändern fallen darunter. Auch bei digitalen Zuspielern<br />

wird beispielsweise mit instabiler System-Clock experimentiert, um die Wiedergabe zu<br />

manipulieren.<br />

Will man derartige Prozesse zum Eingreifen in die übliche Wiedergabe dokumentieren,<br />

muß nicht nur eine Aktionsschrift <strong>für</strong> die Vorgänge zur Manipulation gefunden werden,<br />

sondern es muß auch beschrieben werden, wie das Wiedergabesystem reagieren soll, da<br />

man bei solcher Grenzüberschreitung nicht automatisch davon ausgehen kann, daß jedes<br />

System identisch reagiert. Je vielfältiger die Variationsmöglichkeiten der eingesetzten<br />

21


Technik dabei sind und je weniger Konsens es im Umgang mit ihr gibt, desto eindeuti-<br />

ger muß die Beschreibung des zu erreichenden Resultats in Kombination mit den auszu-<br />

führenden Aktionen sein.<br />

2.2.3 Klangveränderung<br />

Die ureigenste Qualität von <strong>Musik</strong> mit Live-Elektronik ist wohl die Veränderung<br />

(Transformation) von live erzeugten Klängen im Konzert, um diese dann in Echtzeit<br />

oder zeitversetzt wieder hörbar zu machen. Meiner Ansicht nach lassen sich die Metho-<br />

den zur Transformation der Klänge in vier Ebenen beschreiben:<br />

• Veränderungen in der Zeit<br />

• Veränderungen im Raum<br />

• Veränderungen im Frequenzbereich<br />

• Veränderungen der Lautstärkepegel<br />

Es gibt Transformationsvorgänge, die sich sehr deutlich einer dieser Ebenen zuordnen<br />

lassen, andere, die Einfluß auf mehrere dieser Ebenen zugleich haben und solche, die<br />

derart komplex sind, daß sie sich nur unzulänglich und kaum sinnvoll einordnen lassen<br />

und wohl passender ausschließlich durch ihre elektroakustische Verschaltung oder ma-<br />

thematische Algorithmen zu beschreiben sind.<br />

2.2.3.1 Zeit<br />

<strong>Musik</strong> besteht aus in der Zeit geordneten Klängen. Daher ist ein naheliegender Eingriff,<br />

den man an ihr vornehmen kann, die Veränderung des zeitlichen Ablaufes. Da aller-<br />

dings bei <strong>Musik</strong> mit Live-Elektronik oft eben live gespielte akustische Instrumente zum<br />

Einsatz kommen, muß berücksichtigt werden, daß in diesen Fällen immer der unverän-<br />

derte Klang im Raum hörbar ist und Veränderungen, die in Echtzeit am Klang vorge-<br />

nommen werden und hörbar gemacht werden, zusätzlich zum Original erklingen. Bei<br />

22


den in den folgenden Kapiteln beschriebenen Transformationsformen im Frequenzbe-<br />

reich und im Pegel, sogar im räumlichen Erscheinungsbild, läßt sich der Originalklang<br />

bis zu einem gewissen Grad verdecken, beispielsweise durch hohen Pegel des veränder-<br />

ten Klangs. Aber gerade bei der Manipulation in der zeitlichen Ebene ist dies fast nie<br />

der Fall, es sei denn, daß der Originalklang <strong>für</strong> das Publikum nahezu unhörbar gemacht<br />

wird, beispielsweise durch den Einsatz von Wänden zur akustischen Trennung oder von<br />

starken Dämpfern. Ansonsten wird man immer in der Summe von Originalklang und<br />

transformiertem Klang beide hören, da sie verschiedene Zeitstrukturen besitzen. Zudem<br />

gibt es viele zeitbezogene Transformationsprozesse, die prinzipiell nicht echtzeitfähig<br />

sind, Dehnung der Zeitebene kann beispielsweise nicht synchron zum Eingangssignal<br />

erfolgen.<br />

Folglich bieten sich hier <strong>für</strong> Live-Elektronik weniger nutzbare Transformationsvorgän-<br />

ge als bei der Anwendung auf vorher aufgenommene Klänge, die im Konzert abgespielt<br />

werden.<br />

Delay<br />

Ein beliebter Effekt zur Transformation in der Zeitebene ist die Nutzung eines Delays.<br />

Hierbei wird ein ankommendes Signal gespeichert und zeitverzögert wiedergegeben.<br />

Wird der Ausgang des Delays dem Eingang wieder zugeschaltet, erhält man ein „Feed-<br />

back“: Das Signal ist in Abständen der Zeitverzögerung des Delays immer wieder zu<br />

hören. Um den Vorgang endlich zu machen, führt man üblicherweise das Signal mit<br />

verringertem Pegel zurück, so entsteht eine Abfolge von Wiederholungen, die nur eine<br />

bestimmte Zeit lang wahrnehmbar sind und dann im Rauschen des Raums oder des ver-<br />

arbeitenden Systems untergehen. Diese Konfiguration des Delays mit Feedback wird<br />

auch als Echo bezeichnet.<br />

Bis zur Einführung von digitalen Delays wurden diese Verzögerungen mit Tonbandma-<br />

schinen realisiert, wobei Bandschlaufen zwischen Aufnahme- und Wiedergabekopf ge-<br />

spannt wurden, um aufgrund der Laufzeit des Bandes die benötigte Verzögerung zu<br />

erreichen. In manchen älteren Partituren finden sich immer noch Tonbandlängen <strong>für</strong> die<br />

Delays, die in Abhängigkeit von der Laufgeschwindigkeit des Bandes aber in Verzöge-<br />

23


ungszeiten umgerechnet werden können. 23<br />

Ein Delay wird durch wenige Parameter exakt definiert, das sind die Verzögerungszeit<br />

und, falls vorhanden, der Anteil des Feedbacks. Dieser wird bei digitalen Delays übli-<br />

cherweise in Prozent des Eingangssignals angegeben. Im Delay finden sich häufig noch<br />

zusätzliche Funktionen wie beispielsweise die räumliche Verteilung der unterschiedli-<br />

chen Wiederholungen beim Feedback 24 , diese lassen sich dann mit den Parametern der<br />

Verräumlichung 25 beschreiben.<br />

Timestretching/Umkehrung<br />

Weitere Formen der Transformation in der Zeitebene sind das Timestretching, das Ver-<br />

längern bzw. Verkürzen von aufgenommenen Audio-Sequenzen und die Invertierung,<br />

das Rückwärtsabspielen eben solcher Sequenzen. Beide Techniken haben ihren techni-<br />

schen Ursprung in der unkonventionellen Nutzung von Tonbandmaschinen. Umkehrung<br />

wurde durch rückwärtiges Abspielen des Bandes erreicht, Timestretching mit Tonhö-<br />

henveränderung durch variieren der Abspielgeschwindigkeit. Eine Apparatur <strong>für</strong> Time-<br />

stretching ohne Tonhöhenveränderung erfand Gabor als eine Bandmaschine mit<br />

rotierenden Tonköpfen.<br />

Abb. 2: Analoge Timestretching-Maschine nach Gabor<br />

23 In Abbildung 1 sieht man die Anordnung von Bandschleifen mit mehreren Tonköpfen ebenso wie die<br />

Angabe der Bandlängen und Verzögerungszeiten.<br />

24 Dies geschieht beispielsweise bei den sogenannten Multi-Tap-Delays oder Pingpong-Delays<br />

25 Siehe im Kapitel 2.2.3.2<br />

24


Nach demselben Prinzip entwickelte Springer das Tempophon, das im Studio <strong>für</strong> elek-<br />

tronische <strong>Musik</strong> des WDR Köln bei Herbert Eimert zum Einsatz kam. 26 In der Folgezeit<br />

wurden noch weitere, ähnliche Systeme entwickelt, doch erst nach Entstehung der digi-<br />

talen Sampler wurde es mit vertretbarem Aufwand möglich, das Verfahren auch im<br />

Live-Betrieb einzusetzen.<br />

Wie schon erwähnt ist naturgemäß eine Dehnung oder Stauchung der Zeitebene nicht<br />

mit Echtzeit-Anspruch möglich, auch eine Invertierung nicht. Daher muß immer ein<br />

Schritt zur Zwischenspeicherung erfolgen, es wird ein Gerät zum Live-Sampling ge-<br />

nutzt, das dann die aufgenommenen Signale wie vorproduzierte zur Verfügung stellt,<br />

verarbeitet und wiedergibt 27 . Ähnliches gilt auch <strong>für</strong> Verfahren zur künstlichen Verlän-<br />

gerung von Tönen, die in der Regel auf Loopstrukturen basieren, sogenanntes „Free-<br />

zing“ oder „Unendlich-Hall“.<br />

Timestretching wird in der Regel durch Angabe der prozentualen Dehnung bzw. Stau-<br />

chung definiert, auch möglich ist die Angabe der Veränderung der Laufgeschwindigkeit<br />

einer Tonbandmaschine oder der Wechsel des Tempos in Schlägen pro Minute (BPM 28 ),<br />

alle diese Angaben können einfach ineinander umgerechnet werden. Zusätzlich wird die<br />

Angabe notwendig, ob das Timestretching mit oder ohne Tonhöhenveränderung gesche-<br />

hen soll, wobei tonbandgestützte Systeme letztere Möglichkeit nicht zulassen und digi-<br />

tale Systeme genutzt werden müssen. Zur genaueren Definition von Loops siehe die<br />

Beschreibung der speziellen Klangveränderungen unter den klangergänzenden Zuspie-<br />

lern in Kapitel 2.2.2.<br />

Heutzutage wird sowohl Timestretching als auch Freezing meistens mit Hilfe von Gra-<br />

nularsynthese realisiert. 29<br />

2.2.3.2 Raum<br />

Der reale, architektonische Raum prägt eine Aufführung von <strong>Musik</strong> prinzipiell in zwei-<br />

erlei Hinsicht: Zunächst stellt er die Lokalität dar, in der die <strong>Musik</strong> zur Aufführung ge-<br />

26 vgl. Morawska-Büngeler 1988 S.47<br />

27 siehe hierzu auch „Live-Sampling“ im Kapitel 2.2.2<br />

28 beats per minute<br />

29 siehe hierzu auch „Klangsynthese“ im Kapitel 2.2.1<br />

25


langt und in der sowohl die Schallquellen und die Interpreten als auch das Publikum ih-<br />

ren Platz finden. Diese Lokalität ist also eine notwendige Voraussetzung da<strong>für</strong>, daß die<br />

<strong>Musik</strong> überhaupt entstehen kann. Zweitens verändert der Raum durch seine akustischen<br />

Eigenschaften alle Schallereignisse, die in ihm stattfinden. Diese Veränderung ist dem<br />

Raum immanent und macht ihn wiedererkennbar, wenn die akustischen Eigenschaften<br />

außergewöhnlich sind.<br />

Wird der erste Aspekt der räumlichen Verteilung auf Schallquellen, akustischer oder<br />

elektronischer Art, und Interpreten fokussiert, kann man hier von einer aufführungs-<br />

technischen Dimension des Raums sprechen. Für eine Aufführung ist es nämlich rele-<br />

vant, die Positionen von Instrumenten und Lautsprechern im Raum zu definieren, da sie<br />

einen großen Teil des akustischen Resultats direkt bedingen und so Möglichkeiten zur<br />

Strukturierung der <strong>Musik</strong> geben. Der zweite Aspekt, der als akustische Dimension des<br />

Raums bezeichnet werden kann, verändert die im Raum entstandenen Klänge erst in<br />

zweiter Instanz und kann daher als von der Entstehung der Klänge getrennt betrachtet<br />

werden. Der Einsatz von Elektronik kann die akustischen Eigenschaften eines Raumes<br />

simulieren und damit die akustische Dimension eines Raumes herstellen, der physika-<br />

lisch gar nicht genutzt wird.<br />

Historisch gesehen wurde bereits im 16. Jahrhundert ausgehend von der Zweiten Vene-<br />

zianischen Schule und begünstigt durch die Bauweise der Markuskirche mit zwei Or-<br />

gelemporen die räumliche Aufteilung der Instrumentalisten ein Kompositionskriterium.<br />

Besonders durch Gabrieli hat die Mehrchörigkeit dort eine frühe Blüte erreicht, sie war<br />

durch das Prinzip des Dialogisierens geprägt. Die Aufteilung der musizierenden Prot-<br />

agonisten blieb jedoch zunächst auf die geistliche Vokal- und Orgelmusik beschränkt,<br />

wenig später auch unter Hinzuziehung von Instrumentalchören, beispielsweise bei Mo-<br />

zarts Notturno KV286 <strong>für</strong> vier Orchester. Erst im 19. Jahrhundert finden sich Fernor-<br />

chestern und -chöre auch in der Oper und in sinfonischer <strong>Musik</strong>, häufig mit<br />

programmatischem Hintergrund und Funktion der Dramaturgie.<br />

Es ist zu bedenken, daß die Verteilung im und außerhalb vom Aufführungsraum nur so-<br />

weit möglich war, wie die <strong>Musik</strong>er sich untereinander hören konnten, oder zumindest<br />

der Dirigent als zentraler Koordinator sich mit allen gut verständigen konnte, um ein<br />

sinnvolles Zusammenspiel möglich und kontrollierbar zu machen. Zu große Laufzeiten<br />

26


des Schalls, wie sie beispielsweise bei Fernorchestern oder Orchesterkonzerten mit Kir-<br />

chenorgeln leicht entstehen, konnten ein fast unlösbares Hindernis darstellen.<br />

In der Mitte des 20. Jahrhunderts gab es dann zwei Entwicklungen, die der Betrachtung<br />

des Raums in der <strong>Musik</strong> eine neue Qualität zukommen lassen. Zum einen bildete sich<br />

die serielle Schule heraus, die es ermöglichte und forderte, den Raum und die räumliche<br />

Verteilung von Klangquellen als strukturellen Parameter in Kompositionen mit einbezu-<br />

ziehen. Zum Anderen wurde durch die Entwicklung der elektroakustischen Übertra-<br />

gungstechnik die Grundlage <strong>für</strong> eine solche parametrische Behandlung des Raums mit<br />

elektroakustischen Mitteln überhaupt erst verfügbar: Die Mobilität und Qualität von<br />

Tonbandgeräten, Mikrofonen, Mischpulten, Lautsprechern und Verstärkern erreichte<br />

langsam eine Stufe, die es ermöglichte, sie in einem Konzert zufriedenstellend nutzbar<br />

zu machen und live oder zuvor erzeugte Klänge über Lautsprecher im und außerhalb<br />

des Konzertraums zu verteilen. Auch die Entwicklung und flächendeckende Einführung<br />

des Tonbands als Speichermedium und seine Nutzung zur synchronen Wiedergabe von<br />

mehreren getrennten Spuren war als Grundlage zur präzisen Montage und Fixierung<br />

von Klangereignissen und deren Wiedergabe über mehrere im realen Raum verteilte<br />

oder sogar einen virtuellen Raum schaffende Lautsprecher vonnöten. Ebenso wurde die<br />

Möglichkeit der präziseren Kommunikation über weite Entfernungen unter Zuhilfenah-<br />

me von akustischem oder sogar Video-Monitoring geschaffen, die heute als Basis der<br />

Realisierbarkeit vieler Stücke mit Raumverteilung gelten muß.<br />

Martin Supper nennt <strong>für</strong> die Verwendung des Raumes in der <strong>Musik</strong> mit Live-Elektronik<br />

drei Möglichkeiten: 30<br />

• Den Raum als Instrument<br />

• Virtuellen und simulierten Raum<br />

• Die Bewegung des Klanges im Raum<br />

Hier werde ich diese Kategorien etwas verändern, wie im Folgenden beschrieben. Die<br />

Nutzung der Akustik des Raums als Instrument werde ich im Abschnitt „Arbeit mit der<br />

30 Supper 1997 S. 121ff.<br />

27


ealen Raumakustik“ um einige Überlegungen zur Modifikation dieser hinsichtlich be-<br />

stimmter <strong>Musik</strong> ergänzen. Sie kommt in der Praxis in Kombination mit Live-Elektronik<br />

allerdings nur sehr selten vor.<br />

Im Kapitel “Virtueller und simulierter Raum“ legt Supper viel Gewicht auf die elektro-<br />

akustische Übertragung von Räumen in andere Räume, beispielsweise beim Hören von<br />

Aufnahmen oder bei Soundinstallationen, ich möchte in meinem Kapitel „Hall“ detail-<br />

lierter auf das Erschaffen von virtueller Räumlichkeit durch Hallerzeuger eingehen, da<br />

dies in der Praxis der live-elektronischen <strong>Musik</strong> wesentlich bedeutender und üblicher<br />

ist. Zusätzlich möchte ich noch die Existenz von natürlichen resonierenden Systemen<br />

erwähnen, die keine architektonischen Räume sind, aber trotzdem hallartige Wirkung<br />

entfalten. Die Kategorie der Bewegung des Klangs im Raum möchte ich ergänzen durch<br />

die Betrachtung statischer Disposition von Klängen im Raum, zusammengefasst im Ka-<br />

pitel zur Verräumlichung.<br />

Arbeit mit der realen Raumakustik<br />

Wie bereits gesehen war schon in der Venezianischen Schule der bewußte Einsatz von<br />

im Raum verteilten Klangkörpern in Zusammenwirkung mit dem verschmelzenden Ef-<br />

fekt des Nachhalls ein wesentliches Kompositionsmerkmal, und schon immer hat die<br />

Wechselwirkung von Raumakustik und den Kompositionen, die in diesen Räumen zum<br />

Klingen gebracht wurden, die Beteiligten beschäftigt. Gut dokumentiert sind beispiels-<br />

weise die Einflüsse der Akustik der Konzerträume auf die Kompositionen Beethovens 31<br />

wie auch der Bau des Festspielhauses in Bayreuth nach den speziellen akustischen An-<br />

forderungen Richard Wagners 32 , ganz zu Schweigen von Instrumenten, die nur <strong>für</strong> be-<br />

stimmte Räume gebaut werden, wie beispielsweise Kirchenorgeln 33 .<br />

Die Vorsehung von baulichen Maßnahmen zur flexiblen Anpassung der Raumakustik<br />

auf die aufzuführenden Werke ist naheliegend, sei es in Form von absorbierenden Vor-<br />

hängen, von akustisch koppelbaren „Hallkammern“ 34 oder als gänzlich modulare Be-<br />

31 Weinzierl 2002<br />

32 Meyer 1999 S. 304f.<br />

33 Meyer 2003, insbesondere S. 235ff.<br />

34 Morton H. Meyerson Symphony Center, Dallas 1989; Symphony Hall, Birmingham 1991; KKL,<br />

Luzern 2000<br />

28


stückung der Wände 35 .<br />

Trotzdem wird immer wieder beklagt, daß nur sehr wenige Konzerträume geeignet <strong>für</strong><br />

die Präsentation elektroakustischer <strong>Musik</strong> seien, nicht nur wegen zu wenig flexibler<br />

Akustik, sondern auch wegen mangelnder Bestuhlungsfreiheit, nicht ausreichender An-<br />

schlüsse oder Hängemöglichkeiten <strong>für</strong> die Lautsprecher und sonstige Technik.<br />

Die Nutzung von Aufführungsräumen unter Einbeziehung von deren akustischen Eigen-<br />

schaften als Bestandteil einer Komposition muß demzufolge weitestgehend an bestimm-<br />

te Lokalitäten gebunden bleiben, je unüblicher die Akustik, desto mehr. Eine Ausnahme<br />

aus jüngerer Zeit, allerdings ohne Elektronik, bildet hier beispielsweise das auf den Do-<br />

naueschinger <strong>Musik</strong>tagen 2005 aufgeführte FAMA von Beat Furrer, einem „Hörtheater<br />

<strong>für</strong> großes Ensemble, acht Stimmen, Schauspielerin und Klanggebäude“, bei dem im<br />

Konzertsaal ein speziell entworfenes Klanggebäude aufgebaut wird, in dem sich die<br />

Plätze <strong>für</strong> das Publikum befinden. An allen Seiten dieses Klanggebäudes befinden sich<br />

Klappen, die Einfluß auf die Akustik im Inneren nehmen können, zumal meist die Solis-<br />

ten innen und das Ensemble außen spielen. Der Komponist beschreibt die Eigenschaften<br />

des Raums folgendermaßen:<br />

„[...] das Gebäude ist eigentlich nichts anderes als ein Instrument, und seine Resonanz funktioniert im<br />

Prinzip ganz ähnlich wie das Mundstück eines Blasinstruments oder der Korpus eines Streichinstruments.<br />

Es ist ein einziger großer Transformator des Klanges, ein Resonator, ein Meta-Instrument. Wir haben die<br />

beiden Seiten der Klappen, die sich öffnen und schließen lassen wie beim Schwellwerk einer Orgel, die<br />

man aber auch um 180° drehen kann, unterschiedlich beschichtet, die eine Seite mit einer Metallschicht -<br />

wie das Erz beim "Haus der Fama" -, die den Klang ganz direkt reflektiert, die andere Seite mit einem<br />

speziellen Kunststoff, der den Klang trocken, aber gleichzeitig ganz präsent macht. [...] es sind spezielle<br />

Filterungen und Richtungseffekte möglich. Man kann etwa außen ein Ereignis mit einer langen Nachhall-<br />

zeit haben und innen gleichzeitig ganz trockene und klare Klänge. Wenn die Klappen geschlossen sind,<br />

hört man manchmal nur den Reflexionsklang, bei metallenen Klängen verlieren gewisse Teile des Spek-<br />

trums schnell ihre Energie. Oder es gibt Klänge, die schwer zu orten sind und von überall herzukommen<br />

scheinen: Der Raum spielt immer mit, und das Phänomen der klanglichen Präsenz in diesem Raum wird<br />

zum Thema.“ 36<br />

35 IRCAM, Espace de projection, Paris 1976<br />

36 "Der Raum spielt immer mit", Beat Furrer im Gespräch mit Daniel Ender in Programmheft der Donaueschinger<br />

<strong>Musik</strong>tage 2005<br />

29


Ein solcher Bau kann, allerdings mit entsprechend großem logistischen Aufwand, dann<br />

in jedem ausreichend großen Saal aufgebaut werden und als Instrument genutzt werden.<br />

Es wird deutlich, wie der Raum durch akustische Modifizierbarkeit Möglichkeiten zur<br />

kompositorischen Nutzung bekommt und mit der Akustik des Konzertsaales kommuni-<br />

ziert. Die Schnittstelle zur Live-Elektronik wird an zwei Stellen möglich, zum einen,<br />

wenn die Vorgänge zur akustischen Modifikation automatisierbar sind und die Elektro-<br />

nik diese steuert, zum anderen wenn die so geformte raumakustische Umgebung in den<br />

weiteren elektroakustischen Bearbeitungsprozeß eingebunden wird. Ein prominentes<br />

Beispiel hier<strong>für</strong> ist Alvin Luciers „I am sitting in a room“ (1970) <strong>für</strong> Stimme und Ton-<br />

band. Hier wird ein vorgegebener Text gelesen und auf Tonband aufgenommen, diese<br />

Aufnahme wird dann über einen Lautsprecher in den Raum projiziert und mit Hilfe ei-<br />

nes Mikrofons aufgenommen. Dieser Prozeß von Wiedergabe und Aufnahme wird dann<br />

mit der jeweils resultierenden Aufnahme bei identischer Lautsprecher- und Mikrofonpo-<br />

sition so oft wiederholt, bis ausschließlich Raumresonanzen hörbar bleiben. Lucier<br />

kommentiert dazu:<br />

„[...] the space acts as a filter, it filters out all of the frequencies except the resonant ones. It has to do with<br />

the architecture, the physical dimensions and acoustic characteristics of the space.“ 37<br />

Der Raum mit seiner spezifischen Akustik ist als ein Glied in der elektroakustischen<br />

Übertragungskette zu begreifen, das der eingesetzten Technik und ihren jeweiligen<br />

klanglichen Eigenschaften als auch ihrer Positionierung und Ausrichtung im Raum als<br />

gleichwertig zur Seite gestellt wird. Der Raum als Instrument 38 wird in diesem Falle in<br />

seiner Einzigartigkeit charakterisiert und <strong>für</strong> eine Realisierung in einem anderen Raum<br />

wird gerade nicht die Übertragung der raumakustischen Eigenschaften gefordert, son-<br />

dern des Prinzips des Umgangs mit der Technik. Sollte in anderen Fällen die exakte<br />

Übertragung der akustischen Eigenschaften des Raumes nötig sein, gibt es nur die Mög-<br />

lichkeit einer exakten Kopie desselben (wie es beispielsweise mit der transportablen<br />

Raum-in-Raum-Konstruktion bei Furrer realisierbar ist) unter spezieller Beachtung der<br />

akustischen Eigenschaften des Materials der Wände.<br />

37 Lucier 2005, S.88<br />

38 siehe Supper 1997 S. 122f.<br />

30


Hall<br />

Obwohl das Phänomen des Halls sich bei detaillierter Analyse aus Veränderungen im<br />

Frequenzgang, in der Zeit, im Raum und im Pegel zusammensetzt, soll in dieser Arbeit<br />

die Einordnung unter der Kategorie der räumlichen Veränderung geschehen. Unser Ge-<br />

hör bildet nämlich bei der Wahrnehmung von natürlichem Nachhall und auch bei künst-<br />

lichem Hall, der an natürliche Phänomene angelehnt ist, in erster Linie Assoziationen zu<br />

räumlichen Strukturen. Der wahrnehmungsorientierte Ansatz soll hier, wie bereits dar-<br />

gelegt, im Vordergrund stehen. Selbst bei intensiver Auseinandersetzung und viel Trai-<br />

ning erreicht die diskrete auditive Erfassung der Strukturen des Pegels, des<br />

Frequenzgangs und des Zeitverlaufs im Hall nie eine annähernde Qualität und Präzision<br />

wie die intuitive Erfassung der räumlichen Strukturen eines Halls.<br />

Die Entwicklung der Tontechnik war eine notwendige Voraussetzung, um den Nachhall<br />

auch ohne Berücksichtigung der realen Raumakustik gestaltbar und kompositorisch<br />

nutzbar zu machen, um ihn flexibel auch innerhalb von Werken und kleinerer Zeitein-<br />

heiten zum Einsatz zu bringen, und um sogar nicht real existierende Räume simulieren<br />

zu können.<br />

Zunächst wurde mit der elektroakustischen Übertragung durch Mikrofon, Verstärker<br />

und Lautsprecher die Möglichkeit gewonnen, auch lokal entkoppelte Räume mit beson-<br />

derer Akustik als Übertragungssystem zu nutzen und so, beispielsweise durch die Nut-<br />

zung von eigens gebauten Hallräumen, mit in die <strong>Musik</strong> einzubeziehen. 39<br />

Die Erfindung von Hallplatten, Hallfedern und Hallfolien als ebenfalls analogen Über-<br />

tragungssystemen erlaubten die vollständige Loslösung von real existierenden Räumen<br />

und stellten somit die ersten simulierten Räume dar. Allerdings mußten zumindest Hall-<br />

platten weiterhin in akustisch isolierten Räumen platziert werden, um Störungen zu ver-<br />

meiden.<br />

Erst die Einführung von digitalen Hallgeräten in den siebziger Jahren führte zur Mög-<br />

lichkeit einer umfangreicheren Nutzung des Halls als Parameter der Komposition. Erst<br />

nun wurde es sinnvoll, einzelne Parameter von Nachhall in numerische Werte zu fassen,<br />

die dann unabhängig voneinander zur Generierung künstlichen Halls genutzt werden<br />

39 vgl. Arbeit mit der realen Raumakustik<br />

31


konnten. Bei analoger Hallerzeugung mußten nicht nur die akustischen Eigenschaften<br />

der hallerzeugenden Systeme gemessen und dokumentiert werden, sondern zudem bei<br />

jeder Reproduktion wieder ein adäquat gebauter Hallerzeuger gefunden werden. Digita-<br />

le Hallerzeugung ermöglicht heutzutage zudem eine wesentlich größere Variationsbreite<br />

innerhalb eines Gerätes und den Einsatz von künstlichem Hall, der in realen Räumen<br />

nicht zu erzeugen ist.<br />

Für die Charakterisierung von künstlichem Nachhall haben sich die Parameter der<br />

Raumakustik, wie sie zur Beschreibung natürlicher Räume üblicherweise zu finden<br />

sind, weitestgehend etabliert, vor allem in standardisierten digitalen Hallgeräten. Nur<br />

stellt sich aufgrund der Fülle dieser Parameter die Frage nach ihrer jeweiligen Relevanz<br />

<strong>für</strong> eine Übertragbarkeit zur Realisierung in verschiedenen realen Räumen.<br />

Zunächst ist es einleuchtend, daß die Wahrnehmbarkeit von künstlichem Hall in einem<br />

Saal entscheidend davon abhängig ist, inwieweit dieser sich vom natürlicherweise im<br />

Raum entstehenden Hall unterscheidet. Wenn der Aufführungsraum selbst bereits eine<br />

üppige Akustik bietet, werden nuancierte Veränderungen im Kunsthall wesentlich un-<br />

auffälliger und schwerer zu differenzieren, häufig nur noch, indem dieser unverhältnis-<br />

mäßig laut und überzeichnet abgemischt werden muß. Daher empfiehlt es sich allein aus<br />

Gründen der Gestaltbarkeit sowie der Übertragbarkeit der akustischen Parameter <strong>für</strong> die<br />

Aufführung von Werken mit expliziten klanglichen und zeitstrukturellen Anforderun-<br />

gen an den Nachhall recht trockene und klanglich neutrale Aufführungsräume zu nut-<br />

zen. Auch die Dämpfung der gegebenen realen Raumakustik ist hier<strong>für</strong> häufig in<br />

Betracht zu ziehen.<br />

Da in der Realität häufig Aufführungen unter ungünstigen akustischen Bedingungen<br />

stattfinden müssen, bleiben nur wenige akustische Parameter übrig, die sich in Addition<br />

mit der realen Raumakustik <strong>für</strong> eine Wiedererkennbarkeit von künstlichem Hall eignen.<br />

Dazu gehört erstens die Länge des Halls, die als Nachhallzeit angegeben wird. Da diese<br />

gemittelt in der Realität von Konzerträumen außer in Kirchen nur selten über 3 s liegt,<br />

in Konzertsälen in der Regel bei ca. 1,5-2,5 s 40 und in Theatern und Opern noch sogar<br />

40 Meyer 1999, S.161ff.<br />

32


deutlich darunter 41 , ist es naheliegend, bei längeren Dauern des künstlichen, zugefügten<br />

Halls diesen in nahezu jedem Aufführungsraum adäquat zur Geltung bringen zu können.<br />

Zu beachten ist allerdings, daß bei großer Nachhallzeit das Risiko von Rückkopplungen<br />

deutlich zunimmt, da der Pegel des Halls ansteigt und so der Abstand von Stör- und<br />

Nutzpegel auch am Ort des Mikrofons geringer wird.<br />

Zweitens kann die Klangfarbe des Halls in Form von Pegelunterschieden und Abkling-<br />

dauern von einzelnen Frequenzgruppen gegenüber deren Summe als Parameter gelten.<br />

Auch hier muß diese natürlich in Addition zur Klangfarbe des Aufführungsraums gese-<br />

hen werden und eventuell daraufhin modifiziert werden. In der Praxis kann man sich die<br />

Angabe einer Filterkurve des Halls vorstellen, um beispielsweise einige künstliche<br />

Raummoden zu betonen oder zu unterdrücken, oder aber um Luftabsorption bei hohen<br />

Frequenzen zu simulieren. Beachtenswert ist, daß der Frequenzverlauf der „Early-<br />

Decay-Time“, die den Pegelabfall über die ersten 10 dB als Grundlage nimmt und auf<br />

60dB Pegelabfall umrechnet, im Bereich von 125 bis 2000 Hz besonders charakteris-<br />

tisch <strong>für</strong> die Klangfärbung durch den Hall ist. 42<br />

Die Betrachtung von künstlichen frühen Reflexionen erscheint mir in Hinsicht auf die<br />

Realisierbarkeit in verschiedenen Räumen problematisch, da selbst bei wenig halligen<br />

Räumen meist einige ausgeprägte frühe Reflexionen wahrzunehmen sind, die bereits auf<br />

die realen Raumdimensionen und architektonischen Gegebenheiten schließen lassen.<br />

Zudem sind diese an verschiedenen Punkten im Raum extrem unterschiedlich, da bereits<br />

recht große Laufzeiten sowohl der realen Reflexionen als auch der Signale von den<br />

Lautsprechern entstehen. Durch ein Zumischen künstlich erzeugter früher Reflexionen<br />

ergibt sich ein Reflexionsmuster, daß sowohl den realen als auch den künstlichen Raum<br />

in seinen Dimensionen darstellt, und man wird das irritierende Gefühl von zwei Räu-<br />

men bekommen, die gleichzeitig vorhanden sind.<br />

Der Einsatz eines präzise bestimmten Predelays dürfte ebenfalls aus Gründen der vor-<br />

handenen Laufzeiten nicht so ausschlaggebend sein, wie beispielsweise bei Aufnahmen,<br />

bei denen nur ein Hörplatz geschaffen wird (wenn er auch in der Realität des Raums<br />

nicht vorhanden ist). Vielmehr ist hier die Anpassung auf den realen Aufführungsraum<br />

vonnöten, um die Verzögerung des künstlichen Nachhalls mit den frühen Reflexionen<br />

41 Meyer 1999, S. 183ff.<br />

42 Lehmann, zit. nach Meyer 1999 S. 150<br />

33


des realen Raumes in sinnvoller Weise zusammenzufügen.<br />

Die Angabe der Raumgröße als Parameter nimmt meist direkten Einfluß auf die Nach-<br />

hallzeit, verändert aber auch die Reflexionsstruktur des künstlichen Halls. Sie mag zur<br />

Dokumentation als grobe Angabe sinnvoll sein, aber zur präzisen Nachbildung ist sie<br />

aufgrund ihrer ungenauen Definition meist nicht ausreichend.<br />

In den letzten Jahren hat sich zunehmend die Faltung als weitere Form der digitalen<br />

Hallerzeugung etabliert, die erst neuerdings durch die enorm gestiegene Rechenkapazi-<br />

tät auch im Live-Einsatz möglich wird. Da hier sämtliche Informationen zur Erzeugung<br />

des immer identischen Halls in Form einer Impulsantwort des zu erzeugenden künstli-<br />

chen Raumes vorliegen, wird sich in diesem Zusammenhang die Übertragung von<br />

Räumlichkeiten als wesentlich praktikabler darstellen, als es mit sämtlichen vorherigen<br />

Methoden möglich war. Gespeichert werden muß nur die Impulsantwort, die in Form<br />

eines Soundfiles vorliegt, denn das gesamte Verfahren zur Errechnung des Halls ist klar<br />

und einfach mathematisch definiert und jederzeit wieder nachzuvollziehen. Zu beachten<br />

bleibt, wie bei aller künstlicher Hallerzeugung, die Anpassung der künstlich erzeugten<br />

Räumlichkeit auf die real vorhandene, aber auch hier findet sich inzwischen die Mög-<br />

lichkeit, in Programmen <strong>für</strong> Faltungsoperationen die Impulsantwort derart zu verändern,<br />

daß einzelne klangliche oder zeitliche Parameter modifiziert werden können.<br />

Durch die gestiegene Leistung von Computern ist in den letzten Jahren auch die von<br />

Akustikern gerne genutzte Auralisation von Räumen in rechnergestützten Systemen<br />

echzeitfähig geworden. Dieses Verfahren, das eine modellbasierte Berechnung des<br />

akustischen Verhalten eines Raumes anhand der Angabe von geometrischen und akusti-<br />

schen Eigenschaften ermöglicht, kann ebenfalls zur Erzeugung von künstlichem Hall<br />

genutzt werden und bietet gegenüber allen bisher vorgestellten Methoden den Vorteil,<br />

daß die Abstrahlcharakteristik der Schallquelle mit in die Berechnung des Halls einflie-<br />

ßen kann. Der Einsatz dieses Verfahrens zur Hallerzeugung bietet sich unter dem<br />

Aspekt der Reproduzierbarkeit von Hall deswegen an, weil seine Berechnung unter Zu-<br />

hilfenahme der eingegebenen Raumabmessungen sowie der akustischen Eigenschaften<br />

von Raum und Schallquelle erfolgt. Diese Daten liegen in Textform vor und können so-<br />

mit leicht archiviert werden. Allerdings ist zu erwähnen, daß zur Anwendung der Aura-<br />

34


lisation stets die entsprechenden Modelle programmiert werden müssen, was zumindest<br />

derzeit noch einigen Aufwand bedeutet. Vielleicht werden hier<strong>für</strong> in den kommenden<br />

Jahren ja weitere Anwendungshilfen entstehen, die den Umgang mit der Auralisation<br />

beschleunigen können, um sie auch in der Live-Elektronik besser einsetzen zu können.<br />

Weitere resonierende Systeme<br />

In zeitgenössischer <strong>Musik</strong> finden sich neben realen und virtuellen Räumen außerdem<br />

vielfältige weitere Resonanzsysteme, die zur Übertragung und Transformation von<br />

Klängen genutzt werden und hallähnliche Eigenschaften besitzen. Auf rein akustischer<br />

Basis tritt beispielsweise der Flügel mit einer vorgegebenen Struktur freischwingender<br />

Saiten auf, in den ein Instrument, das wegen ausreichenden Schalldrucks vorwiegend<br />

Bläser ist, hineinspielt. Dieses Prinzip wird auch im Zusammenhang mit elektroakusti-<br />

scher Übertragung eingesetzt, z.B. bei Boulez „Dialogue de l'ombre double“ <strong>für</strong> Klari-<br />

nette und Elektronik. In einem akustisch vom Spielort getrennten Raum wird ein Flügel<br />

mit niedergedrücktem Pedal aufgestellt, ein Lautsprecher unter dem Flügel regt dieses<br />

schwingende System mit Signal von live gespielten Passagen der Klarinette an, und ein<br />

Mikrofon über dem Flügel überträgt die Resonanzen <strong>für</strong> eine Wiedergabe in den Kon-<br />

zertsaal zurück.<br />

Abb. 3: Flügel als Resonanzraum bei Boulez<br />

35


Des weiteren gibt es den Fall, daß Lautsprecher auf resonierende Instrumente, vorzugs-<br />

weise des Schlagzeugs, gelegt oder geklebt werden, um diese zur Übertragung zu nut-<br />

zen. Dies geschieht beispielsweise bei „Music for Solo Performer“ von Alvin Lucier,<br />

wobei vom Solisten erzeugte Alpha-Gehirnwellen verstärkt werden, über auf diverse<br />

Idiophone und Membranophone geklebte Lautsprecher wiedergegeben werden und so<br />

überhaupt erst hörbar werden.<br />

Prinzipiell lassen sich alle konstant resonierenden Systeme auch durch die oben genann-<br />

te Faltung simulieren, wenn es gelingt, eine Impulsantwort des Systems aufzuzeichnen.<br />

Dies ist im Falle des genannten Stückes von Boulez auch bereits zur Anwendung ge-<br />

kommen, dadurch ließ sich sogar unerwünschtes Übersprechen zwischen Lautsprecher<br />

und Mikrofon vermeiden, welches das Resonanzsystem Flügel umging. Es ist beim Er-<br />

satz von resonierenden Systemen durch Faltung nur zu bedenken, daß dadurch dann ein<br />

wesentlicher Teil der szenischen Wirkung verändert wird, wenn das entsprechende reso-<br />

nierende System sich auf der Bühne befindet und Teil der Inszenierung der Interpretati-<br />

on ist.<br />

Verräumlichung<br />

Unter dem Begriff der Verräumlichung oder Spatialisierung lassen sich alle Vorgänge<br />

zusammenfassen, die die traditionelle frontale Ordnung von Instrumenten und anderen<br />

Klangquellen gegenüber dem Zuhörer aufheben und die Erscheinungsweise von Schall-<br />

quellen im Raum hinsichtlich deren Lokalisierung um das Publikum herum anordnen.<br />

Zwar gab es bereits in der Tradition der europäischen Kunstmusik immer wieder Ten-<br />

denzen zur räumlichen Verteilung von Instrumenten, jedoch werden durch die Einbezie-<br />

hung von elektronischen Geräten einerseits und der seriellen Kompositionstechnik<br />

andererseits wesentliche Möglichkeiten zur kompositorischen Nutzung der Verräumli-<br />

chung als einer den anderen Toneigenschaften gleichberechtigten musikalischen Quali-<br />

tät überhaupt erst geschaffen. Daß dies wenig mit der Verräumlichung früherer <strong>Musik</strong><br />

gemeinsam hat, hat Karlheinz Stockhausen 1959 in seinem Artikel „<strong>Musik</strong> im Raum“<br />

beschrieben:<br />

36


„In der Komposition „Gesang der Jünglinge“ habe ich versucht, die Schallrichtung und die Bewegung der<br />

Klänge im Raum zu gestalten und als eine neue Dimension <strong>für</strong> das musikalische Erlebnis zu erschließen.<br />

[...] Von welcher Seite, mit wievielen Lautsprechern zugleich, ob mit Links- oder Rechtsdrehung, teilwei-<br />

se starr und teilweise beweglich die Klänge und Klanggruppen in den Raum gestrahlt werden: das alles ist<br />

<strong>für</strong> das Verständnis dieses Werkes maßgeblich. [...] Die Raumposition der Töne spielte ja bis dahin in der<br />

<strong>Musik</strong> überhaupt keine aktive Rolle; man empfand sie deshalb als eine „ganz andere“ klangliche Eigen-<br />

schaft, die wohl kaum je dazu in der Lage wäre, über die zeitlichen Toneigenschaften zu dominieren.<br />

(Das hat sich mittlerweile grundlegend geändert, und wir bemerken mehr und mehr, wie sich alle musika-<br />

lischen Vorstellungen in zunehmendem Maße verräumlichen)“ 43<br />

Unter Einbeziehung von elektroakustischer Übertragungstechnik lassen sich prinzipiell<br />

zwei Arten der Verräumlichung unterscheiden, statische und dynamische (also<br />

bewegte).<br />

Statische Verräumlichung wird durch jede Wiedergabe oder Verstärkung von akusti-<br />

schen Signalen im Aufführungsraum verursacht, die eine feste Lokalisation der jeweili-<br />

gen Klangquellen um den Hörer herum ermöglicht, sei es durch Lautsprecher am Ort<br />

der Klangquelle oder durch Phantomschallquellen im Raum.<br />

Dynamische Verräumlichung verlangt zudem, daß die elektronisch zu übertragenden Si-<br />

gnale entweder manuell oder automatisch in ihrer Zuordnung zu unterschiedlichen Laut-<br />

sprechern (Routing) während der Übertragung verändert werden. Dies kann sowohl in<br />

Schritten als auch sukzessive geschehen. Automatisiertes Routing wurde überhaupt erst<br />

durch die Einführung von spannungsgesteuerten Verstärkern und entsprechender Syste-<br />

me zur Aufzeichnung und Wiedergabe der Steuerspannungen möglich.<br />

Anbei sei bemerkt, daß bereits der Einsatz von traditioneller Stereo-Panorama-Regelung<br />

bei Anwendung auf im Raum verteilte Lautsprecher zur dynamischen Verräumlichung<br />

genutzt werden kann.<br />

Die Vorgänge zur Verräumlichung lassen sich sehr klar definieren und ebenso auch in<br />

die Überlegungen zur Reproduktion integrieren. Zunächst muß festgelegt werden, wel-<br />

ches Signal zu verräumlichen ist. Das können Informationen von einem Zuspielband<br />

sein, live erklingende Instrumente oder jede weitere Audio-Information, die am Ort der<br />

Elektronik zur Verfügung steht. Weiterhin muß verdeutlicht werden, wo dieses Signal<br />

43 Stockhausen 1959 S. 60f.<br />

37


im Raum erklingen soll, am besten auch, in welcher Art der Lokalisation, d.h. ob als<br />

Phantomschallquelle oder als reale Schallquelle durch einen dort positionierten Laut-<br />

sprecher. Der Einfluß der Richtcharakteristik der Lautsprecher und der Notwendigkeit<br />

der Beschallung eines größeren Areals im Raum läßt sich nicht immer zufriedenstellend<br />

lösen, weil häufig einzelne Lautsprecher zu nah am Publikum plaziert werden müssen,<br />

vor allem Phantomschallquellen werden in ihrer Lokalisation durch die entstehenden<br />

Laufzeit- und Pegelunterschiede im Publikum verzerrt, und auch die Überlagerung von<br />

natürlichem Schallfeld und der elektronisch zugefügten Signale ist an verschiedenen<br />

Hörplätzen oft ungleichmäßig verteilt.<br />

Bei dynamischer Verräumlichung ist es zusätzlich notwendig, Zeitpunkt und Geschwin-<br />

digkeit der zu vollführenden Bewegung festzuhalten. Bei simplen Bewegungen werden<br />

Lautsprecher sukzessive angesteuert, deshalb sollte bei diesen Klangbewegungen auch<br />

die Art der Überblendung von einem zum nächsten Status festgehalten werden.<br />

Abb. 4: Prinzipschaltbild des HaLaPHONs mit steuernden Pegelkurven<br />

38


Dies kann zunächst durch die Angabe von Pegelkurven der einzelnen Lautsprecher als<br />

zeitabhängigen Funktionen geschehen, wie es Hans Peter Haller und Peter Lawo in ihr<br />

seit 1971 entwickeltes Halaphon (HAllerLAwoPHON) als grundlegendes Prinzip inte-<br />

grierten. Die Speicherung von Pegelkurven in der beschriebenen Weise stellt dann aller-<br />

dings die Bedingung, daß die Lautsprecher exakt im vorgeschriebenen Setup installiert<br />

werden müssen, um die zuvor programmierten Abläufe ebenso wieder abzubilden.<br />

Als wesentlich universeller und auf variierte Lautsprechersetups anwendbar stellt sich in<br />

diesem Zusammenhang der Einsatz von vektorbasierter Darstellung der Klangbewegun-<br />

gen dar, die bei Systemen auf Grundlage von Ambisonics zur Anwendung kommt. Dies<br />

ist eine mathematische Methode zur punktbezogenen Darstellung eines dreidimensiona-<br />

len Schallfelds, die Anfang der 1970er Jahre von einer Gruppe um Michael A. Gerzon<br />

und Peter Fellgett entwickelt wurde und auf vektorieller Basis arbeitet. In seiner ein-<br />

fachsten Form, Ambisonics erster Ordnung, wird das Schallfeld im sogenannten B-For-<br />

mat mit vier Werten dargestellt, einem richtungsunabhängigen Schallpegelwert sowie<br />

den Schallschnellewerten in den drei Raumdimensionen, ein dynamisches System natür-<br />

lich als zeitabhängige Funktion. Bei diesem Prinzip wird jedes Lautsprechersignal <strong>für</strong><br />

das Schallfeld aus den vektoriellen Angaben zur Bewegung des Klangs berechnet, folg-<br />

lich kann auch eine geänderte Lautsprecherposition in kurzer Zeit neu berechnet wer-<br />

den, inzwischen sogar dank schneller rechnergestützter Systeme in Echtzeit.<br />

Die Darstellung der Klangbewegung wird also unabhängig von den räumlichen Bege-<br />

benheiten eines konkreten oder idealen Raums dokumentierbar.<br />

Zu einem realistischen Eindruck der Bewegung von Klang im Raum mit Hilfe eines fes-<br />

ten Lautsprechersetups tragen weiterhin die Berücksichtigung von entfernungsabhängi-<br />

gen Phänomenen bei, die auch bei realen Bewegungen zu beobachten sind,<br />

insbesondere Doppler-Effekt, Absorption durch die Luft und das Verhältnis von Direkt-<br />

schall, Diffusschall und frühen Reflexionen. Sowohl bei späteren Generationen des<br />

Halaphons 44 als auch beim „Spat“ des IRCAM als Beispiel <strong>für</strong> eine vektorbasierte Rea-<br />

lisation sind diese Phänomene vorgesehen. Dabei ist der Doppler-Effekt als Tonhöhen-<br />

44 Haller 1995 Bd. 1, S. 79ff.<br />

39


funktion, die Luftabsorption als spektrale Filterkurve und die Zusammensetzung des<br />

Schallfelds als Parameter künstlichen Nachhalls zu betrachten und auch als solche<br />

dokumentierbar. 45<br />

Ein nicht zu vernachlässigender praktischer Aspekt der Steuerung bei vektorbasierten<br />

Raumsteuerungssystemen ist die einfache Umsetzbarkeit in graphische Benutzeroberflä-<br />

chen oder vektorbasierte Controller, die sehr veranschaulichend und intuitiv genutzt<br />

werden können.<br />

Ein schönes Beispiel <strong>für</strong> auskomponierte dynamische Verräumlichung mit präzisen An-<br />

gaben zur Realisierung dieser Verräumlichung ist in Pierre Boulez „Dialogue de l'ombre<br />

double“ <strong>für</strong> Klarinette und Live-Elektronik zu finden. Die Einsätze werden in der Parti-<br />

tur numeriert und das Routing wird durch die direkte Angabe der zu nutzenden Laut-<br />

sprecher ebenfalls als Nummern notiert.<br />

Abb. 5 a+b: Lautsprecherdisposition und dynamische Verräumlichung bei Boulez<br />

45 siehe jeweils dort<br />

40


2.2.3.3 Frequenzbereich<br />

Bei der Klangveränderung in der Frequenzdomäne gibt es zwei Bereiche, die sich in ih-<br />

rer Konsequenz <strong>für</strong> die Wahrnehmung der Klänge unterscheiden. Erstens gibt es Prozes-<br />

se, die Veränderungen der wahrgenommenen Tonhöhe zur Folge haben, bei Geräuschen<br />

entsprechend Veränderungen der Lage im Frequenzspektrum, zweitens gibt es Prozesse,<br />

die Veränderung auf dem Gebiet der Klangfarbe, also der spektralen Zusammensetzung<br />

von Klängen, hervorrufen. Diese Unterteilung ist nicht <strong>für</strong> alle Veränderungsprozesse<br />

möglich, bei komplexeren Operationen sind oft auch beide Bereiche betroffen, jedoch<br />

ist bei einigen grundlegenden Prozessen eine Einordnung möglich und auch sinnvoll.<br />

Harmonizer / Pitch shifter<br />

Zur Veränderung der Tonhöhenwahrnehmung ist die naheliegendste Methode die har-<br />

monische (also logarithmische) Versetzung des gesamten Spektrums. Wie bereits im<br />

Zusammenhang mit Timestretching erwähnt, führt bei der einfachen Wiedergabe von<br />

gespeicherten Klängen die Änderung der Abspielgeschwindigkeit bei Tonbandmaschi-<br />

nen oder die Änderung der Auslesegeschwindigkeit (Samplingfrequenz) bei digitalen<br />

Systemen zu einer gekoppelten Änderung von Tonhöhe und Dauer: Geschieht die Wie-<br />

dergabe schneller, steigt die Tonhöhe, umgekehrt ebenso. Für eine wenig aufwendige<br />

Änderung der Tonhöhe muß man also die entsprechende Änderung der Zeitstruktur in<br />

Kauf nehmen, wie es beispielsweise bei Samplern der Fall ist. 46<br />

Um eine Änderung der Tonhöhe ohne Dehnung bzw. Stauchung der Zeitebene zu errei-<br />

chen, und somit ein System zu erlangen, daß <strong>für</strong> den Einsatz in Echtzeit geeignet ist,<br />

kommt auch hier digitale Signalverarbeitung zum Einsatz. Allerdings war dies mit den<br />

bereits erwähnten Springer-Tonbandmaschinen prinzipiell auch schon möglich. Heutzu-<br />

tage benutzt man hier in der Regel ebenfalls Granularsynthese. Zwar muß systembe-<br />

dingt auch bei diesen Prozessen eine Zwischenspeicherung stattfinden, doch kann in der<br />

Digitaltechnologie die Verarbeitung in so kurzer Zeit geschehen, daß sich die Latenz<br />

zwischen eingehendem Signal und Ausgabe des transponierten Signals auf die Dauer<br />

46 Dies ist auch der Grund da<strong>für</strong>, warum man bei der Erstellung von Samples über den gesamten Spielbereich<br />

von akustischen Instrumenten eine wesentlich bessere Qualität erhält, wenn man die Intervalle<br />

zwischen den gesampleten Tönen verringert.<br />

41


weniger Wellenlängen reduzieren läßt und somit im Bereich der ohnehin im Raum vor-<br />

handenen Laufzeiten zwischen Instrument, Lautsprechern und Reflexionen quasi in<br />

Echtzeit wahrgenommen wird.<br />

Die Tonhöhenveränderung wird meist entweder in traditionellen Intervallen und Cent<br />

oder prozentual angegeben.<br />

Ringmodulator<br />

Die Technik des Ringmodulators entstammt der analogen Nachrichtentechnik, wo sie<br />

insbesondere zur Signalübertragung genutzt wird. Zur Nutzung als Prozeß der Tonhö-<br />

henänderung besitzt sie das Charakteristikum, daß Spektren nicht logarithmisch, son-<br />

dern linear versetzt werden und somit das Resultat verglichen mit den Eingangssignalen<br />

inharmonische Versetzungen enthält.<br />

Es werden stets zwei Eingangssignale benötigt, die miteinander multipliziert werden,<br />

deren Spektren also addiert und subtrahiert werden. Häufig wird als eines der Eingangs-<br />

signale ein Sinuston benutzt, um das Resultat besser kalkulierbar zu machen, da das<br />

eine Spektrum dann konstant ist und nur aus einer Frequenz besteht. Um in diesem Fall<br />

nicht zwei resultierende Signale zu erhalten (durch Addition und Subtraktion) kann man<br />

durch Anwendung der Einseitenbandmodulation die Versetzung nur in eine Richtung<br />

erreichen. So kann die Ringmodulation als Prozeß zur Tonhöhenveränderung mit inhar-<br />

monischer Veränderung der spektralen Zusammensetzung funktionieren.<br />

Der Prozeß der Ringmodulation mit zwei komplexeren Eingangssignalen führt nur dann<br />

zu Ergebnissen, die als Tonhöhenversetzung wahrgenommen werden, wenn beide Si-<br />

gnale ein hinreichend grundtonlastiges Spektrum besitzen, ansonsten muß er eher dem<br />

Bereich der Klangfarbenänderung zugeordnet werden.<br />

Ergänzend zu erwähnen ist, daß es bei der Modulation mit einem Sinuston noch zwei<br />

Sonderfälle der Wahrnehmung gibt: Zum einen nimmt man durch einen Sinus mit ge-<br />

ringer Frequenz (kleiner als 15Hz) nur noch Amplitudenmodulation wahr, zum anderen<br />

sind bei Modulation von zwei Signalen mit sehr nah beieinanderliegenden Tonhöhen<br />

die Resultierenden in sehr extremen Frequenzbereichen und es entsteht die Wahrneh-<br />

42


mung von Schwebung um eine Tonhöhe zwischen den Eingangssignalen. 47<br />

Zur Dokumentation ist die Ringmodulation als mathematischer Prozeß eindeutig defi-<br />

niert, es muß nur angegeben werden, ob spezielle Effekte wie die genannte Einseiten-<br />

bandmodulation eintreten sollen.<br />

Filter<br />

Abb. 6: Ringmodulation bei „Drama“ von Vinko Globokar<br />

Der Einsatz von Filtern ist wohl die universellste Methode, die spektrale Zusammenset-<br />

zung von Signalen zu bearbeiten. Ursprünglich der Meßtechnik entstammend, wurden<br />

sie bereits seit den 50er Jahren in den Studios <strong>für</strong> elektronische <strong>Musik</strong> eingesetzt.<br />

Grundlegend betrachtet gibt es nur wenige Typen von Filtern, die auf einfachen analo-<br />

gen Schaltungen basieren.<br />

Hoch- und Tiefpaßfilter senken alle Signale unterhalb bzw. oberhalb einer definierten<br />

Grenzfrequenz mit einer Flankensteilheit ab, die in dB pro Oktave angegeben wird.<br />

Bandpaßfilter ermöglichen eine Anhebung oder Absenkung des Spektrums um eine<br />

Mittenfrequenz herum bzw. innerhalb von zwei Grenzfrequenzen, die Änderung des Pe-<br />

47 vgl. Ringmodulation ausführlich bei Haller 1995, Bd. 1, S. 26 ff.<br />

43


gels wird in dB angegeben, die Bandbreite als Güte Q.<br />

Bei diesen parametrischen Filtern reichen <strong>für</strong> die Definition eines Filters diese zwei<br />

bzw. drei Parameter aus, Grenzfrequenz und Flankensteilheit beim Hoch-/Tiefpaß sowie<br />

Mittenfrequenz, Anhebung/Absenkung und Güte beim Bandpaß.<br />

Es ist zu erwähnen, daß beim Einsatz dieser Filter in ihrer einfachen Form stets Phasen-<br />

verschiebungen einzelner Frequenzgruppen entstehen, die in der Regel nicht beabsich-<br />

tigt sind. Ihre Stärke ist von der Flankensteilheit der Filter abhängig. 48<br />

Durch die Erfindung digitaler Filter wurde es möglich, auch ungewöhnliche und kom-<br />

plexe Frequenzkurven zu realisieren, insbesondere durch Anwendung von FFT-Filtern,<br />

die auf FFT-Analyse und Resynthese basieren. Ebenso wurde es möglich, phasenlineare<br />

Filter zu bauen, die einheitliche Laufzeiten <strong>für</strong> alle Frequenzen besitzen.<br />

Im Allgemeinen läßt sich aber <strong>für</strong> alle diese Filter, wie auch sämtliche weiteren speziel-<br />

len Anwendungen von Filtern, die Angabe einer Übertragungskurve des Frequenzgangs<br />

zur Dokumentation eines Filters angeben. Sie kann dann je nach aktueller und verfügba-<br />

rer Technik neu realisiert werden. Wenn sie besonders zur Anwendung beitragen soll,<br />

kann auch die Kurve des Phasenganges über der Frequenz angegeben werden.<br />

Übertragung der Hüllkurve des Spektrums<br />

Ein weiterer beliebter Eingriff in die Zusammensetzung von Frequenzspektren ist die<br />

Übertragung von spektralen Hüllkurven von einem Klang auf einen anderen, auch als<br />

„Morphen“ von Klängen bezeichnet. Im Prinzip eine spezielle Form des Filterns, wird<br />

hier zunächst das Spektrum des modulierenden Signals analysiert, in einer Übertra-<br />

gungskurve über der Frequenz festgehalten und dann als Filter auf das zu modulierende<br />

Signal angewandt. Bei ausreichender Geschwindigkeit des Analyseteils ist die fortlau-<br />

fende Aktualisierung des Frequenzgangs gegeben und die Hüllkurvenübertragung wird<br />

in Echtzeit möglich.<br />

Das Prinzip der spektralen Hüllkurvenübertragung kam in analoger Form bereits früher<br />

48 Diese Phasenverschiebungen entstehen durch den Einsatz von kapazitiven und induktiven Bauteilen in<br />

Kombination, wie sie in den analogen Bandpaßfiltern eingesetzt werden.<br />

44


im Vocoder zur Anwendung. Hier wird das modulierende Signal zur Analyse durch eine<br />

Filterbank geschickt, der Pegel der einzelnen Bänder gemessen und mit Hilfe von<br />

Gleichrichtern und spannungsgesteuerten Verstärkern über eine identisch aufgebaute<br />

Filterbank auf ein Ersatzsignal aufmoduliert, das in der Regel künstlich erzeugt war<br />

(beispielsweise Rauschen).<br />

Abb. 7: Prinzip des Vocoders nach Dickreiter<br />

Zur exakten Definition der Übertragung der spektralen Hüllkurve ist eine Beschreibung<br />

des Analyseverfahrens notwendig, das zur Erlangung der Hüllkurve eingesetzt werden<br />

soll, ebenso das Verfahren, mit dem die Hüllkurve auf das Zielsignal übertragen wer-<br />

den soll. Heutzutage wird in beiden Fällen üblicherweise die FFT eingesetzt, da diese<br />

inzwischen auch in Echtzeit möglich ist.<br />

Verzerrung<br />

Analoge Verzerrung als ein Verfahren, das die Nichtlinearitäten von Tonbändern oder<br />

von Verstärkerkennlinien bei Übersteuerung ausnutzt, um damit die spektrale Zusam-<br />

mensetzung von Klängen zu verfremden, ist nur schwer in Parametern zu fassen, da die<br />

45


klanglichen Eigenschaften der analogen Bauteile, die verwendet werden, eben an diesen<br />

Grenzbereichen des ursprünglich vorgesehenen Übertragungsbereichs kaum zu bestim-<br />

men sind. So wäre es zwar denkbar, die Kennlinie eines Verstärkers oder eines Ton-<br />

bands anzugeben, um dann den exakten Wert der durch Übersteuerung erreichten<br />

Verzerrung zu errechnen, diese Methode ist aber weder praktikabel noch anschaulich.<br />

Die Verzerrung ist nun tatsächlich ein Prozeß zur Klangverformung, bei dem die Defi-<br />

nition kaum anhand von abstrakten Parametern geschehen kann, sondern exemplarisch<br />

erfolgen muß. Einzig die Angabe von dynamischen (also dynamikabhängigen) Filtern in<br />

Kombination mit einem dynamikabhängigen Obertongenerator wäre denkbar, doch we-<br />

der in ihrer Abstraktion aus einem bestehenden Kompressor noch in der Reproduktion<br />

sinnvoll.<br />

Gleiches gilt auch <strong>für</strong> digitale Verzerrung. Zwar ist hier durch den Zustand der eindeuti-<br />

gen Vollaussteuerung die theoretische Wellenform eines verzerrten Signals gut bere-<br />

chenbar, doch gilt hier wiederum, daß in diesem Grenzbereich die praktische Umset-<br />

zung ins Analoge zur Wiedergabe sehr abhängig von den D/A-Wandlern ist, da es sich<br />

um einen Bereich handelt, <strong>für</strong> den diese nicht entwickelt und optimiert wurden.<br />

2.2.3.4 Pegel<br />

Die Veränderung der Lautstärkepegel ist die vierte grundlegende Kategorie, in der qua-<br />

litative Änderungen in der <strong>Musik</strong> mit Elektronik vorkommen. So ist es auch kein Zufall,<br />

daß beim Mischpult als wohl unumstrittene Schalt- und Regelzentrale von Klangregie<br />

die meistgenutzte und augenfälligste Regelmöglichkeit der Einsatz der Fader zur Pegel-<br />

beeinflussung ist. Gerade durch die Möglichkeit der fernsteuerbaren und automatisier-<br />

baren Pegel hat sich ein großes Feld aufgetan, Manipulationen an Klängen<br />

vorzunehmen.<br />

Verstärkung<br />

Nicht nur elektronische <strong>Musik</strong>instrumente und elektronisch generierte oder modifizierte<br />

Signale bedürfen der Verstärkung, um überhaupt hörbar gemacht zu werden, sondern es<br />

46


hat sich herausgestellt, daß in vielen Fällen auch akustische Instrumente verstärkt wer-<br />

den müssen, um ihre akustischen Eigenschaften besser auf die Umgebung abstimmen zu<br />

können, insbesondere in Kombination mit Elektronik. Auf den künstlerisch-technischen<br />

Einsatz von Verstärkung und seine verschiedenen musikalischen und wahrnehmungsre-<br />

levanten Aspekte werde ich im Kapitel 3.1 detailliert eingehen. Daß aber durch den Ein-<br />

satz von regelbaren Widerständen und spannungsgesteuerten Verstärkern (VCAs) die<br />

Möglichkeit entstanden ist, live entstehende Klänge ferngesteuert in ihrer Lautstärke zu<br />

beeinflussen, ist ein zentraler technischer Aspekt der Verstärkung und soll deshalb hier<br />

erwähnt werden. Vor der Erfindung von Verstärkern gab es nur die Möglichkeit, durch<br />

akustische Tricks, wie beispielsweise Trichter, die Lautstärke von live erzeugten Klän-<br />

gen zu vergrößern. VCAs bieten nun die Möglichkeit, beliebige steuernde Komponen-<br />

ten zu nutzen, um die Pegel von Signalen zu regeln, die in elektronischer Form<br />

vorliegen.<br />

Kompressor/Limiter/Expander<br />

Die häufig unter „dynamics“ zusammengefassten Prozesse zur Veränderung der Dyna-<br />

mik von Signalen finden sich auch bei <strong>Musik</strong> mit Live-Elektronik in den technischen<br />

Setups wieder. Neben dem beliebten Einsatz von Kompressoren bei einfacher Verstär-<br />

kung von akustischen Signalen 49 können die genannten Prozesse auch vielfältig an ande-<br />

rer Stelle des Signalflusses eingesetzt werden, wo eine automatisierte Regelung der<br />

Pegel erwünscht ist.<br />

Kompressor und Limiter (Begrenzer) engen die Dynamik oberhalb eines bestimmten<br />

Schwellenwertes (Threshold) ein, Kompressoren dabei in einem definierten Verhältnis<br />

der Eingangs- zur Ausgangsdymanik (Ratio), Limiter hingegen gänzlich oberhalb des<br />

definierten Grenzpegels. Beide Prinzipien greifen also erst ein, wenn der absolute Pegel<br />

des Eingangssignals über dem definierten Threshold liegt, darunter wird die Dynamik<br />

des Signals nicht verändert.<br />

Da so die Spitzenpegel abgesenkt werden und das gesamte Signal leiser wird, ist übli-<br />

cherweise noch eine Regelmöglichkeit zur Anhebung des Pegels vorgesehen (Gain,<br />

49 siehe Kapitel 3.1 „Der künstlerische Umgang mit Verstärkung“<br />

47


auch automatisierbar als „Auto Gain“), die aber die spezifische Klangveränderung<br />

durch den Kompressor nicht weiter beeinflusst.<br />

Expander hingegen vergrößern die Dynamik, indem sie unterhalb eines Schwellenwer-<br />

tes den Pegel in einem definierten Verhältnis absenken. Diese werden ebenfalls als<br />

Threshold und Ratio bezeichnet.<br />

Es ist wichtig zu erwähnen, daß das bearbeitete Signal nicht notwendigerweise das steu-<br />

ernde Signal sein muß, sondern daß man ein zweites Signal zur dynamischen Steuerung<br />

zuführen kann.<br />

Weiterhin gibt es wesentliche Angaben zum zeitlichen Reaktionsverhalten oberhalb<br />

bzw. unterhalb des Threshold, da es sich herausgestellt hat, daß man die Veränderungen<br />

der Dynamik nur sinnvoll einsetzen kann, wenn man eine gewisse Zeit <strong>für</strong> den Regel-<br />

vorgang vorsieht. Die Parameter dieses Reaktionsverhaltens werden als Attack- und<br />

Release-Zeit angegeben. Manchmal finden sich auch zwei weiterere Parameter, einer,<br />

der ein Zeitpuffer zwischen Attack und Release einfügt und als Hold-Zeit bezeichnet<br />

wird, ein weiterer, der eine Glättung der Kompressions- bzw. Expansionskurve am<br />

Threshold, am sogenannten Knie, einstellen kann.<br />

Die wesentlichen Parameter <strong>für</strong> Kompressor, Expander und Limiter sind aber zusam-<br />

mengefasst: Threshold, Ratio (nicht beim Limiter), Attack- und Release-Zeit.<br />

Gate<br />

Eigentlich eine spezielle Form des Expanders, ist ein Gate, auch als „Noise Gate“ be-<br />

zeichnet, ein Prozeß, der unterhalb einer eingestellten Schwelle (Threshold) den Signal-<br />

fluß komplett unterbricht. Auch hier werden weiterhin Attack- und Release-Zeit<br />

angegeben, doch gibt es eine weitere Eigenschaft, durch die das Gate sich von den ande-<br />

ren „dynamics“ unterscheidet: Durch die Invertierung eines Gates erhält man einen Pro-<br />

zeß, der ein Signal nur unterhalb des Schwellwertes durchläßt, so kann in Kombination<br />

von einem invertierten und einem nichtinvertierten Gate bei gleichem Threshold ein Si-<br />

gnal ohne weitere Analyse auf dynamischer Ebene geteilt werden und so beispielsweise<br />

als Steuersignal eingesetzt werden. 50<br />

50 vergleiche Haller 1995 Bd. 1, S.68ff.<br />

48


2.2.4 Schallwandlung<br />

Abb. 8: Klangbewegung mit zwei Gates<br />

Eine der zentralen Aufgaben der Klangregie ist die Übertragung von akustischen Signa-<br />

len in die Apparaturen der Elektronik hinein und ebenso das rückwärtige Übertragen<br />

von Signalen, die aus der Elektronik herauskommen. In dieser Arbeit werde ich nur den<br />

Bereich der Schallwandler betrachten, speziell Mikrofone und Lautsprecher. Der Be-<br />

reich der Wandler, die beispielsweise Bewegungen erfassen und graphische Elemente<br />

projizieren können, wie sie bereits im Kapitel über Steuerung ansatzweise zur Sprache<br />

kamen, soll hier nicht untersucht werden, da sie nicht dem Bereich der Audiotechnik<br />

entstammen. Ebenso halte ich die Betrachtung von speziellen Schallwandlern, wie bei-<br />

spielsweise MIDI-Flügeln oder jegliche Art von selbstgebauten Schallwandlern, <strong>für</strong><br />

eine allgemein angelegte Untersuchung wie diese nicht <strong>für</strong> angemessen. Sie sind derart<br />

eigen, daß man sie nicht als allgemein verfügbar voraussetzen kann und im jeweiligen<br />

Fall des Einsatzes eine präzise Beschreibung <strong>für</strong> eventuellen Nachbau oder sogar das je-<br />

weilige Gerät mitliefern muß.<br />

Generell wird die Beschreibung des Einsatzes von Mikrofonen und Lautsprechern bei<br />

der konkreten Realisierung eines Werkes mit Live-Elektronik weniger präzise ausfallen<br />

und mehr Freiheiten bieten müssen als die Beschreibung der Geräte und Prozesse, die<br />

innerhalb der elektronischen Ebene genutzt werden. Das liegt zunächst daran, daß jedes<br />

eingesetzte akustische Instrument, wie auch jeder Aufführungsraum, unterschiedliche<br />

klangliche und bauliche Eigenschaften besitzt, wie auch jeder Interpret mit seinem In-<br />

49


strument anders umgeht und das akustische Resultat verschieden ist. Darüber hinaus ist<br />

durch die Vielfalt der auf dem Markt verfügbaren und sich auch ständig weiterentwi-<br />

ckelnden Mikrofone und Lautsprecher wesentlich weniger Kontinuität gegeben, als es<br />

bei Prozessen innerhalb des elektronischen Setups sein kann, die sich funktional abstra-<br />

hieren lassen. 51 Auch ist es naheliegend, daß bei der Wandlung von Schall in elektroni-<br />

sche Informationen und zurück wesentlich weniger präzise Vorgaben gemacht werden<br />

können, als es bei Verarbeitungsprozessen innerhalb der Elektronik der Fall sein kann.<br />

Die Prozesse zur A/D- bzw. D/A-Wandlung sind inzwischen derart präzise, daß in vie-<br />

len Fällen Unterschiede zwischen analoger und digitaler Signalverarbeitung nicht mehr<br />

über die Wahrnehmung differenziert werden können. Allerdings wird man nie ein idea-<br />

les Mikrofon bauen können, und eine Lautsprechermembran wird immer eine gewisse<br />

Trägheit besitzen, die sich auf das Impulsverhalten auswirkt. Bedingt durch die ver-<br />

schiedenen Konstruktionsprinzipien wie unterschiedliche Membrangröße oder Richt-<br />

charakteristik wird es immer klangliche Unterschiede zwischen Modellen geben, die<br />

sich aber typisieren lassen, beispielsweise durch diese Konstruktionsprinzipien. 52<br />

Es muß also <strong>für</strong> eine Dokumentation umso mehr angestrebt werden, die Funktion, die<br />

Mikrofone oder Lautsprecher übernehmen sollen, unabhängig von technischen Daten zu<br />

formulieren und, soweit es möglich ist, das klangliche Ergebnis der Schallwandlung zu<br />

beschreiben. Eine Angabe wie „Die Streicher sollen Live etwas lauter und gewagter<br />

klingen als auf der Einspielung“ 53 kann eine wesentlich präzisere Dokumentation sein<br />

als die exakte Vorschrift von Meßdaten der gesamten Signalkette.<br />

Demgegenüber lassen sich präzise Anforderungen an Mikrofone und Lautsprecher häu-<br />

fig erst nach der Erfahrung von vielen Proben und Konzerten, möglichst auch in unter-<br />

schiedlichen Sälen, derart formulieren, daß sie Rückschlüsse auf ihren generellen<br />

Einsatz <strong>für</strong> dieses Stück möglich machen. Dann kann auch die exemplarische Auflis-<br />

tung der eingesetzten Technik sehr hilfreich sein.<br />

51 Natürlich klingt auch jeder Hall-Algorithmus oder jedes Filter unterschiedlich, doch lassen sich innerhalb<br />

der Elektronik viele Prozesse finden, die sich über ihre Funktion zumindest theoretisch eindeutig<br />

beschreiben lassen, wie z.B. Delays, Harmonizer, Syntheseverfahren, usw.<br />

52 Siehe Kapitel 2.2.4.1 <strong>für</strong> Mikrofone und 2.2.4.2 <strong>für</strong> Lautsprecher<br />

53 Auszug der Aufführungsanweisungen in der Partitur zu Steve Reichs „Different Trains“ <strong>für</strong> Streichquartett<br />

und vorproduziertes Zuspielband<br />

50


2.2.4.1 Mikrofone<br />

Die Umsetzung von akustischen Signalen in elektrische Signale tritt in der <strong>Musik</strong> mit<br />

Live-Elektronik besonders häufig bei der Abnahme von akustischen Instrumenten auf,<br />

wesentlich seltener nur sollen Umgebungsgeräusche, Nebengeräusche oder ähnliches<br />

mikrofoniert werden. Als vorteilhaft erweist sich, daß man im allgemeinen eine um-<br />

fangreiche Hörerfahrung mit traditionellen Instrumenten voraussetzen kann, sei es im<br />

Rahmen von Aufnahmekritiken, Konzertbesuchen oder auch aus eigener Musizierpra-<br />

xis, bei der sich sowohl ein spezifisches Vokabular im Umgang mit den Instrumenten<br />

als auch gewisse Konventionen finden lassen, wie die Instrumente klingen sollen und<br />

welche Anweisungen da<strong>für</strong> zur Kommunikation geeignet sind. Auf Basis dieser Erfah-<br />

rungen, die außerdem durch die langjährige Tradition der Ausbildungen an <strong>Musik</strong>hoch-<br />

schulen stets weitervermittelt werden, läßt sich <strong>für</strong> viele Angaben zur Abnahme von<br />

akustischen Instrumenten bereits auf eine etablierte Sprache zurückgreifen, die aller-<br />

dings durchaus sehr instrumentenspezifisch oder auch spieltechnisch geprägt sein kann.<br />

Es sei nebenbei bemerkt, daß eine solche Tradition der instrumentenspezifischen Klang-<br />

konventionen und der entsprechenden Spieltechniken bei den elektronischen und elek-<br />

troakustischen Instrumenten wie Synthesizer und Sampler sich zumindest in der<br />

klassischen <strong>Musik</strong>tradition kaum finden läßt, eher noch in der Popmusik, bei der sich al-<br />

lerdings auch erst in jüngster Zeit gewisse Schulen ausbilden.<br />

Neben der Beschreibung der zu erreichenden Klanglichkeit gibt es aber weitere Anga-<br />

ben zur Mikrofonierung von Instrumenten, die sich recht gut dokumentieren und repro-<br />

duzieren lassen, wie beispielsweise die Positionierung der Mikrofone. Gut untersucht ist<br />

die Abstrahlcharakteristik bei den traditionellen akustischen Instrumenten 54 , so daß sich<br />

daraus auch Rückschlüsse auf die zu erreichende Klanglichkeit ziehen lassen. Gerade in<br />

der zeitgenössischen <strong>Musik</strong> werden zusätzlich viele Spieltechniken gefordert, die unge-<br />

wöhnlicher Mikrofonpositionen bedürfen. Deren Dokumentation kann in solchen Fällen<br />

sehr aufschlußreich <strong>für</strong> die zu erreichenden klanglichen Ergebnisse sein.<br />

Ebenso festgehalten werden sollte der Einsatz von bestimmten Mikrofonprinzipien, die<br />

auf Übertragungseigenschaften des Mikrofons schließen lassen. Nicht nur der Nahbe-<br />

sprechungseffekt bei Nierencharakteristik, die verschiedene Richtwirkung von Mikrofo-<br />

54 vgl. z.B. Meyer 1999 S. 107-142<br />

51


nen oder der Unterschied von großen und kleinen Membranen, sondern gerade die Nut-<br />

zung von Kontaktmikrofonen sind gute Beispiele <strong>für</strong> Techniken der Mikrofonierung,<br />

die in jedem Fall zu dokumentieren sind, wenn sie aus Gründen des klanglichen Ergeb-<br />

nisses explizit ausgewählt wurden.<br />

2.2.4.2 Lautsprecher<br />

Viele klangliche Anforderungen, die im Umgang mit Mikrofonen als <strong>für</strong> die Dokumen-<br />

tation nötig herausgearbeitet wurden, treffen in gleichem Maße auf die Auswahl der<br />

Lautsprecher zu, da insbesondere beim Einsatz von live bearbeiteten oder nur verstärk-<br />

ten Instrumenten die gesamte Signalkette <strong>für</strong> das klangliche Ergebnis verantwortlich ist.<br />

Darüber hinaus gilt es aber <strong>für</strong> den Einsatz von Lautsprechern immer, den Raum mit zu<br />

berücksichtigen. Zunächst hat die Positionierung und Auswahl der Lautsprecher einen<br />

wesentlich höheren Einfluß auf den beim Zuhörer erzeugten Eindruck von Räumlichkeit<br />

als die entsprechenden Parameter bei Mikrofonen. Der Grund hier<strong>für</strong> ist die unter Um-<br />

ständen recht große Entfernung der Zuhörer von den Lautsprechern, während die<br />

Mikrofonposition bei der Weiterverarbeitung <strong>für</strong> Live-Elektronik fast immer sehr nah<br />

beim Instrument liegt. So beeinflußt die Positionierung und Richtwirkung der Lautspre-<br />

cher recht stark den Eindruck der Räumlichkeit, während die Richtwirkung und Positio-<br />

nierung bei Mikrofonen eher <strong>für</strong> die Signaltrennung und <strong>für</strong> die abgenommene<br />

Klanglichkeit verantwortlich ist. Für die Höhe der Rückkopplungsgrenze bei Verstär-<br />

kung sind beide Richtwirkungen und Positionierungen gleichermaßen wichtig.<br />

Hinsichtlich der Lautsprecher läßt sich weiterhin anfügen, daß die Abstrahlcharakteris-<br />

tik und die Positionierung ebenfalls von der Disposition des Publikums im Raum, also<br />

von der Verteilung der zu beschallenden Bereiche, abhängen muß. 55 Diese Frage kann<br />

bei der Planung eines Stückes natürlich nur begrenzt berücksichtigt werden, es sei denn,<br />

man schreibt einen ganz bestimmten Raum oder exakte Sitzpositionen vor, die bei jeder<br />

Realisierung eingehalten werden müssen, unabhängig vom jeweiligen Aufführungs-<br />

raum. Sollen die Lautsprecher allerdings nach Kriterien einer bestimmten Klanglichkeit<br />

oder definierter Lokalisation im Raum ausgewählt werden, so sollte man dies dokumen-<br />

55 siehe hierzu auch im Kapitel 3.2 „Aufführungsräume“<br />

52


tieren. Für jeden Aufführungsraum muß dann in Vorbereitung eines Konzertes ohnehin<br />

ein adäquates Beschallungskonzept erstellt oder modifiziert werden. Angaben dazu,<br />

welche Bereiche des Publikums aus welcher Richtung und Höhe welche Signale idea-<br />

lerweise wahrnehmen sollten, sind dabei in der Regel hilfreicher, als definitive Vorga-<br />

ben zu Typen oder Positionierung von Lautsprechern.<br />

Eine prinzipielle Ausnahme bildet hierbei der Einsatz von Lautsprechern zum Zweck<br />

des Monitoring, da es in diesem Falle alleine um die gute Verständigung und Hörbarkeit<br />

von Signalen auf der Bühne geht. Monitoring soll so wenig wie möglich Einfluß auf das<br />

akustische Geschehen im Zuschauerraum haben und wird auch stets daraufhin einge-<br />

richtet. Sowohl das Konzept als auch der Einsatz von Monitoring sind immer abhängig<br />

vom Aufführungsraum, aber auch vom Geschmack der Instrumentalisten, die das Moni-<br />

toring benötigen. Daher kann man beim Monitoring ausschließlich auf individuelle Si-<br />

tuationen bezogen arbeiten, stets ist ein Kompromiß zu finden zwischen einer guten<br />

Arbeitsumgebung auf der Bühne und so wenig wie möglich störenden Einflüssen im<br />

Zuschauerraum. So ist es wenig sinnvoll, allgemeine Vorschriften zum Monitoring zu<br />

machen, allenfalls der Hinweis auf häufig entstehende Kommunikationsprobleme und<br />

ihre Beschreibung aus der Erfahrung im Umgang mit dem Stück sind sehr hilfreich <strong>für</strong><br />

eine Dokumentation.<br />

Zusammenfassend läßt sich also sagen, daß mit Ausnahme von Monitoring <strong>für</strong> die Laut-<br />

sprecher eher die Funktion im Raum hinsichtlich des Resultats <strong>für</strong> das Publikums zu be-<br />

schreiben ist, <strong>für</strong> die Mikrofone eher die Funktion am Instrument hinsichtlich des in die<br />

Elektronik eingehenden Signals.<br />

2.2.5 Steuerung<br />

Die Betrachtung der Elemente von Technik, die zur Steuerung der bisher besprochenen<br />

Prozesse angewandt werden, ist so umfangreich, daß hier nur die unterschiedlichen<br />

Prinzipien besprochen werden sollen, unter denen sich Steuerelemente zusammenfassen<br />

lassen. Es gibt Forschungsgruppen, Teile der Audioindustrie und spezialisierte <strong>Institut</strong>e,<br />

die sich sehr umfangreich mit dem Erstellen von „Controllern“, wie die Hardware-<br />

53


Apparaturen zur Steuerung genannt werden, mit dem Entwickeln von Methoden zur ge-<br />

stischen Steuerung und der Forschung an den zugehörigen Schnittstellen (Interfaces)<br />

zur Datenübertragung beschäftigen. 56<br />

Da jeder Controller unterschiedliche Konfigurationen von Steuerelementen enthält, de-<br />

nen jeweils verschiedenste Parameter entnommen werden können, gibt es zwei zentrale<br />

Fragen beim Einsatz zur Steuerung von den bereits besprochenen Prozessen. Erstens<br />

muß definiert werden, wie aus dem Controller die entsprechenden Parameter entnom-<br />

men werden sollen. Dies ist allerdings nur bei konkreter Realisierung von Controllern<br />

wichtig, oder hinsichtlich der von uns betrachteten Reproduzierbarkeit ebenso bei Nach-<br />

bauten von Controllern. Auch bei Parametergewinnung aus analysierten Audio- oder<br />

Videodaten ist dieser Prozeß zu definieren. Zweitens muß die Zuordnung der Parame-<br />

ter der Steuereinheit zu den Parametern des gesteuerten Prozesses festgelegt werden.<br />

Dieses Zuordnen bezeichnet man auch als Mapping von Parametern.<br />

Unmittelbare Steuerung<br />

Wird ein Prozeß der Audiobearbeitung, -generierung oder -zuspielung direkt über einen<br />

Controller gesteuert, ist also <strong>für</strong> den Interpreten die direkte Verbindung von Daten aus<br />

seiner Steuereinheit und von gesteuerten Parametern gegeben, dann kann man von di-<br />

rekter oder unmittelbarer Steuerung sprechen. Beispielsweise kann die Tonhöhenangabe<br />

über eine Klaviatur oder die Einordnung im Panorama über einen Drehregler in dieser<br />

Form vorliegen. Zur unmittelbaren Steuerung versucht man, wie in den genannten Bei-<br />

spielen, häufig Steuerelemente zu konstruieren, die an analogen Vorbildern orientiert<br />

sind, da der Interpret in diesem Falle auf Erfahrungen und Training mit entsprechenden<br />

analogen Instrumenten zurückgreifen kann.<br />

Zur Definition benötigt man die aus der Steuereinheit entstehenden Daten, die Daten<br />

des zu steuernden Gerätes oder Prozesses und das zugehörige Mapping.<br />

56 vgl. z.B. die „Discussion Group on Gesture Research in Music“ am Pariser IRCAM:<br />

http://recherche.ircam.fr/equipes/analyse-synthese/wanderle/Gestes/Externe/ [Stand 2006-09-25], und<br />

auf ihrer CD-Rom „Trends in Gestural Control of Music“, Ircam - Centre Pompidou, Paris 2000 oder<br />

verschiedene Projekte am Amsterdamer STEIM: http://www.steim.org/steim/ [Stand 2006-09-25]<br />

54


Mittelbare Steuerung<br />

Generiert die Steuereinheit die Kontrolldaten nicht direkt, sondern werden sie erst durch<br />

eine Analyse erstellten Materials gewonnen, dann kann man von mittelbarer Steuerung<br />

sprechen. Es ist kein Controller zur direkten Eingabe vorhanden, sondern man muß<br />

Algorithmen zur Analyse von vorliegendem oder live erstelltem Material liefern. Man<br />

kann beispielsweise Audiosamples, gefilmte Bewegungen, Lichtspektren usw. untersu-<br />

chen und daraus die Daten zur Steuerung von den oben genannten Prozessen generieren.<br />

In diesem Fall benötigt man zusätzlich zu den bei der unmittelbaren Steuerung nötigen<br />

Angaben den Analysealgorithmus, der eingesetzt werden soll.<br />

Steuerung aus unkalkulierbaren Prozessen<br />

Eine abgewandelte Form von mittelbarer Steuerung entsteht, wenn die Analyse nicht<br />

auf manuell erzeugtes Material angewandt wird, sondern auf Prozesse, in deren Ablauf<br />

kein Interpret mehr eingreift. Zufällige, chaotische oder unbewußt erzeugte Informatio-<br />

nen werden ausgewertet und die gewonnenen Daten zur Steuerung eingesetzt. Man kann<br />

zum Beispiel chaotische Algorithmen einsetzen, die sich selbst anregen und so unvor-<br />

hersehbare Daten produzieren, oder auch Rauschen, Signalstörungen oder Umweltge-<br />

räusche zur Steuerung analysieren. Im Prinzip gehört auch Radioempfang zu dieser<br />

Gruppe von steuerndem Material.<br />

In diesem Fall benötigt man Informationen über die Art, das Material zu gewinnen, es<br />

zu analysieren, die Ergebnisse der Analyse auf Parameter der zu steuernden Prozesse<br />

anzuwenden und darüber, wo man doch manuell eingreifen soll, und sei es nur zum Ein-<br />

oder Ausschalten.<br />

Automatisierte Steuerung<br />

Schließlich gibt es weiterhin den Fall, daß Daten zur Steuerung überhaupt nicht wäh-<br />

rend des Ablaufs eines Stückes erstellt werden, sondern sämtlich vorprogrammiert wer-<br />

den können. Ein sehr gutes Beispiel hier<strong>für</strong> ist die Automatisierung einer Mischung am<br />

Mischpult, die dann jederzeit abgerufen werden kann.<br />

55


Zur Dokumentation einer solchen automatisierten Steuerung ist es unerheblich, auf wel-<br />

chem System die Daten zur Automation gespeichert werden, solange das System die<br />

Anforderungen der Steuerung erfüllen kann. Es müssen nur die zu steuernden Vorgänge<br />

und ihre Zuordnungen zur Zeitachse festgehalten werden. Bei teilweise automatisierter<br />

Steuerung kann dies beispielsweise durch die Angabe von Synchronisationspunkten 57 in<br />

der Partitur oder anhand einer Zeitleiste geschehen, an denen dann manuell Steuerungs-<br />

mechanismen ausgelöst werden. Bei vollautomatisierter Steuerung werden diese<br />

Mechanismen automatisch ausgelöst, was ebenfalls durch eine am Timecode orientierte<br />

Liste geschehen kann, oder aber durch ein computergestütztes „score-follower“-<br />

Programm, das sich direkt an der Partitur orientiert und nach Eingabe der Tonhöhen,<br />

-dauern und Pausen diese mit dem live Gespielten synchronisiert.<br />

Die übrigen Parameter, die man bei nicht automatisierter Steuerung detailliert notieren<br />

muß, brauchen nicht angegeben zu werden, sondern müssen erst bei der Vorbereitung<br />

auf den Einsatz je nach vorhandenem Automatisierungssystem erzeugt werden. Die An-<br />

gabe von Daten des steuernden Systems sowie der Zuordnungen der Parameter kann<br />

völlig entfallen und ist nur als exemplarische Realisierung relevant.<br />

2.3 Signalfluß<br />

Betrachtet man nun Konstellationen, in denen die bisher vorgestellten Komponenten<br />

von Elektronik zusammengeschaltet werden, muß nicht nur die Frage nach der Definiti-<br />

on von Ein- und Ausgang der elektroakustischen Übertragungskette gestellt werden,<br />

sondern auch die Übergänge des Audio zwischen den einzelnen Geräten oder Prozessen<br />

betrachtet werden.<br />

Man kann feststellen, daß einige der genannten Apparaturen oder Verarbeitungsprinzi-<br />

pien je nach Verhalten des eingehenden Signals extrem unterschiedliche Ergebnisse lie-<br />

fern, was auch später nicht durch reversible Operationen wieder ausgeglichen werden<br />

kann. Dies betrifft nicht nur Aspekte der Audioqualität, wie den Abstand des Signals<br />

zum Grundrauschen, sondern eben auch die Parameter, die von den Apparaturen verän-<br />

57 Man spricht in diesem Zusammenhang oft von „Cue“-Punkten, kurz „Cues“<br />

56


dert werden sollen.<br />

Beispielsweise regelt ein Kompressor weniger, je niedriger der Eingangspegel ist, wenn<br />

der Spitzenpegel unterhalb des Threshold liegt, ist er sogar völlig außer Funktion. Dies<br />

kann später auch nicht durch Anhebung des Pegels kompensiert werden. Ebenso verhält<br />

sich ein Hall, in den man ein sehr baßlastiges Signal hereingibt: Man kann durch Absen-<br />

kung der Bässe im gleichen Maße später auch nicht das Ergebnis „retten“.<br />

Dies bedeutet, daß man bei genauer Angabe der zu verändernden Parameter nicht nur<br />

die Reihenfolge dokumentieren muß, in der die klanglichen Transformationsprozesse<br />

aufeinander folgen sollen, sondern auch notieren muß, wie ein Gerät oder ein Prozeß<br />

hinsichtlich des Pegels und des Frequenzganges angesteuert werden muß, um so zu ar-<br />

beiten, wie es beabsichtigt ist.<br />

Sehr oft zu kontrollieren sind diesbezüglich die Systeme direkt nach der ersten Schall-<br />

wandlung, da das einem Mikrofon entstammende Signal nie exakt vorherzubestimmen<br />

ist und zudem fast ausschließlich davon abhängig ist, was vor dem Mikrofon passiert,<br />

und das ist eben nie identisch. Dennoch müssen auch die Übergänge zwischen den ver-<br />

schiedenen Transformationsprozessen überprüft und gegebenenfalls korrigiert werden,<br />

was bei extrem komplex programmierter Automatisierung oder vielseitigem Routing<br />

schnell unmöglich werden kann, entweder aus Gründen der Übersichtlichkeit oder weil<br />

die entsprechenden Kontroll- und Regelfunktionen nicht vorgesehen wurden.<br />

2.4 Computeranalphabetismus und<br />

Bedienerfreundlichkeit<br />

Seit in den fünfziger Jahren die elektronischen Studios als eine Ansammlung von tech-<br />

nischen Geräten entstanden, die über ihre elektroakustische Funktion klassifiziert wer-<br />

den konnten, wurde es zunehmend praktikabel, das Instrument Elektronik 58 als ein<br />

modulares System zu behandeln, in dem baukastenartig aus einigen grundlegenden Ele-<br />

58 Hier und im Folgenden werde ich den Begriff des <strong>Musik</strong>instruments auf die Elektronik insofern ausdehnen,<br />

daß ich eine vollständige, aus vielen elektronischen Komponenten zusammengesetzte Apparatur,<br />

die als solche bestimmte musikalische Funktionen einnehmen kann, jeweils als EIN Instrument<br />

betrachten werde.<br />

57


menten immer neue Kombinationen gebildet werden können. Insbesondere seit der Nut-<br />

zung von Softwareplattformen <strong>für</strong> Programmierung von <strong>Musik</strong>elektronik ist diese Kom-<br />

binierbarkeit von grundlegenden Elementen in ihrer Komplexität enorm gewachsen, da<br />

man ohne großen logistischen Aufwand das Ergebnis jederzeit speichern, laden oder än-<br />

dern kann 59 . Somit wird durch den Einsatz von elektronischen Apparaturen Komponis-<br />

ten in einem viel größeren Maße als jemals zuvor ermöglicht, ein individuelles<br />

Instrument zu erstellen.<br />

Allerdings ist auch zu erwähnen, daß die umfangreiche Beschäftigung mit den techni-<br />

schen Grundlagen <strong>für</strong> <strong>Musik</strong>elektronik sehr viel Zeit in Anspruch nimmt, und man sich<br />

viele Kenntnisse aneignen muß, die früher aus dem Gebiet der Nachrichtentechnik,<br />

heute aus dem Gebiet der Informatik stammen und mit <strong>Musik</strong> zunächst nicht viel zu tun<br />

haben.<br />

Daher findet man seitens der Komponisten immer zwei Standpunkte im Umgang mit<br />

Elektronik:<br />

Die einen sind primär daran interessiert, die Elektronik in der <strong>Musik</strong> als ein weiteres, al-<br />

lerdings sehr umfangreiches Instrument zu nutzen, möchten aber die technischen<br />

Grundlagen nur insofern kennenlernen, um damit das Resultat <strong>für</strong> die Komposition ab-<br />

schätzen zu können.<br />

Die anderen begeistern sich daran, auf der Basis von Elektronik immer neue Instrumen-<br />

te zu entwickeln, erstellen diese häufig von Grund auf selber und beschäftigen sich da-<br />

her aus eigenem Interesse viel mit den technischen Grundlagen, um diese auch in ihrer<br />

direkten elektronischen Wirkung besser verstehen zu können.<br />

Den Ersteren kommt es zugute, daß in den großen elektronischen Studios stets Inge-<br />

nieure und Programmierer arbeiten, die ihnen dort unterstützend zur Seite stehen, weil<br />

sie alleine ihre Ideen in der Elektronik nicht umsetzen könnten. So beschreibt beispiels-<br />

weise Hans Peter Haller, der Gründer des Experimentalstudios des SWR in Freiburg,<br />

59 Es sei darauf hingewiesen, daß es natürlich weiterhin Programme <strong>für</strong> Elektronik gibt, die Textzeilen-<br />

Programmierung nutzen, aber die beiden meistverbreiteten Programme <strong>für</strong> Live-Elektronik, Max/Msp<br />

von Cycling '74 und Miller Puckettes PD als open-source-Alternative, arbeiten beide auf der Basis<br />

von objektorientierter graphischer Programmierung mit einzelnen Bausteinen (Objekten) und Verbindungslinien<br />

in einer Art Schaltplan.<br />

58


seinen Eindruck von Luigi Nono folgendermaßen:<br />

„Nono hat sich nie <strong>für</strong> die Innereien eines Gerätes näher interessiert, sein Bestreben lag im Kennenlernen,<br />

im Studieren, im Experimentieren mit dem klingenden Ergebnis (Output).“ 60<br />

Ebenso berichtete Pierre Boulez, auf dessen Initiative das Pariser IRCAM gegründet<br />

wurde, noch vor nicht einmal zwei Jahren in einem Interview:<br />

„Viele [Komponisten] haben keinen Sinn <strong>für</strong> Technologie. Ihnen ist es zu kompliziert, sich das vorzustel-<br />

len. Eigentlich ist es im Umgang mit der Elektronik gar nicht so viel anders, als wenn man <strong>für</strong> ein Orches-<br />

ter komponiert. Da müssen sie auch nicht selbst Oboe oder Pauke spielen können, sondern nur wissen,<br />

wie das Instrument funktioniert. So ist es bei den technischen Dingen auch. Ich selbst bin auch kein Pro-<br />

grammierer. Aber ich weiß, wie man die Elektronik einsetzen kann.“ 61<br />

Da allerdings die traditionellen Strukturen der großen elektronischen Studios stark ero-<br />

dieren, diese teilweise sogar geschlossen werden, wie das Studio <strong>für</strong> Elektronische Mu-<br />

sik des WDR im Jahre 2002, zeichnet sich ein Umbruch in der Szene der elektronischen<br />

Studios ab. Es ist seit einigen Jahren mit überschaubarem finanziellem Aufwand mög-<br />

lich, sich zu Hause ein Studio einzurichten, das aus nicht mehr als einem Computer, ent-<br />

sprechender Software und einigen wenigen Zusatzgeräten besteht und in vielen<br />

Bereichen <strong>für</strong> die Belange der Komponisten ausreichend ist. Sollen dann aufwendigere<br />

Live-Elektronik oder Raumsteuerungen angewendet werden müssen, kann man immer<br />

noch einen größeren Raum und Material mieten, da das eigene Setup mit der vorbereite-<br />

ten Elektronik extrem mobil ist.<br />

Für diejenigen Komponisten, die, wie die beiden oben zitierten, eher angewandt arbei-<br />

ten wollen, und sich von der Programmierung weitgehend fernhalten möchten, begann<br />

die Industrie zunehmend Oberflächen und Interfaces zu entwickeln, die bedienerfreund-<br />

licher sein sollen als die direkte Programmierung. Laut Friedrich Kittler wird dadurch<br />

aber eine Trennung von den Benutzern und den Programmierern forciert:<br />

„[Es gibt] nämlich [unter] den Computerkünstlern manchen, der Computercodes zwar lesen und deshalb<br />

60 Haller 1997, Bd. 2, S. 118<br />

61 Siemes/Spahn 2004, S.44<br />

59


auch einsetzen kann, aber ihr Anschreiben sogenannten Programmierknechten überlassen muß. [...] Den<br />

Computeranalphabeten, die Codes weder lesen noch schreiben können, soll dadurch geholfen werden,<br />

daß sie mit binären Zahlen und unverständlichen Buchstabenfolgen überhaupt nicht mehr in Berührung<br />

kommen. Die Innereien der Maschine bleiben selbstredend weiter digital, weil sie sonst gar nicht laufen<br />

würden, aber ihre Benutzerschnittstelle nimmt mehr und mehr die Züge analoger Unterhaltungsmedien<br />

an, wie sie seit gut hundert Jahren vertraut sind. [...] So wird die Trennlinie zwischen einer neuen Elite<br />

und dem Rest der Welt zum integralen Teil von Hardware und Software gleichermaßen, also<br />

zementiert.“ 62<br />

Wenn es nun Komponisten gibt, die unter Zuhilfenahme solcher vermeintlich bediener-<br />

freundlicher Oberflächen arbeiten und Klänge oder Klangverarbeitungsprozesse <strong>für</strong> ihre<br />

Kompositionen benutzen, deren Ursprung man zumindest anhand des Interfaces allein<br />

nicht erklären kann, wenn man nicht die genauen Algorithmen kennt, entsteht hinsicht-<br />

lich der Reproduzierbarkeit ein enormes Problem. Man ist in der Folge darauf angewie-<br />

sen, exakt diese Oberfläche zu nutzen, um das gewünschte Resultat zu erhalten,<br />

zumindest solange der Programmcode unter Verschluß gehalten wird. Eine Abstraktion<br />

zum Zwecke der allgemeingültigen Dokumentation ist nicht möglich.<br />

Kittler beschreibt im weiteren Verlauf sehr kritisch, daß dort, wo den Nutzern durch den<br />

Einsatz von geschützter Software jede Möglichkeit des tieferen Eingreifens in die Soft-<br />

ware verwehrt bleibt, nur die finanziellen Interessen der Industrie bedient werden. Für<br />

ihn ist die Förderung und Nutzung von Software, die nachvollziehbar bis zur System-<br />

ebene in den Computer eingreift, das Mittel der Wahl:<br />

„Wo immer eine Anwendung die Kluft gegenüber der Systemprogrammierung einebnet, weil sie wie die<br />

sogenannte Anwendung namens Programmierung schlicht und einfach das tut, wo<strong>für</strong> Computer schließ-<br />

lich konstruiert worden sind, fällt mit den graphischen Benutzeroberflächen auch die künstliche Mauer<br />

zwischen Herstellern und Benutzern wieder dahin. Eine Maschine, die nach Turings Definition alle ande-<br />

ren Maschinen soll imitieren können, kann eben keine unveränderbaren Zustände einnehmen. Sie stellt<br />

den Begriff des geistigen Eigentums, an dem die Computerindustrie inständiger festhält als alle Schrift-<br />

steller, die diesen Begriff seit Fichte und Goethe erfunden haben, grundsätzlich in Frage.<br />

Sicher, ein technisch gezüchteter und zementierter Computeranalphabetismus wirft Geld ab: Leute, die<br />

Codes weder lesen noch schreiben können, werden unmöglich zu Hackern. Aber ob dieser elektronische<br />

Protektionismus [...] sein Geld wert ist, steht in den Sternen“ 63<br />

62 Kittler 2002, S. 122ff.<br />

63 Kittler 2002, S. 127f.<br />

60


Darüber hinaus steht allerdings auch in den Sternen, wie in dem von uns betrachteten<br />

Fall der Anwendung auf Live-Elektronik der Code zur Dechiffrierung der entsprechen-<br />

den Informationen auch in Zukunft verfügbar sein wird, wenn dessen Aufrechterhaltung<br />

und Pflege von finanziellen Interessen abhängt, die aufgrund der fehlenden Masse der<br />

Benutzer in diesem speziellen Bereich nicht zu leisten sind. Wie bereits im Zusammen-<br />

hang mit Zuspielbändern angesprochen, ist es in jedem Fall sicherer und einfacher,<br />

wenn der Code offen zur Verfügung steht, wie Miller Puckette erwähnt:<br />

„An artist who thinks carefully about preserving his or her work will naturally prefer the open source<br />

solution, because it's much easier to keep running than a proprietary one can ever be.“ 64<br />

64 Scheib 2006, S.168<br />

61


3. Überlegungen zur Interpretation<br />

Während im letzten Kapitel Aspekte der Funktionalität der Technik analysiert wurden,<br />

stellt sich bei der Aufführung eines Werkes mit Live-Elektronik darüber hinaus die Fra-<br />

ge nach dem interpretatorischen Umgang mit der Technik. Es reicht nicht aus, daß man<br />

die Technik funktionsfähig macht, man muß auch die Fragen beantworten, wie man sie<br />

akustisch umsetzen kann, und welche ihrer Komponenten wie zu behandeln sind.<br />

3.1 Der künstlerische Umgang mit Verstärkung<br />

Beim erwünschten oder zumindest explizit tolerierten Einsatz von Verstärkung 65 von<br />

akustisch vorhandenen Informationen gibt es einige Parameter, die in Angaben zum in-<br />

terpretatorischen Umgang mit einem Stück gesondert betrachtet werden sollten. Wie<br />

schon beim Einsatz von Lautsprechern erwähnt, gilt auch <strong>für</strong> die Verstärkung, daß sie<br />

extrem situations- und raumbezogen eingesetzt werden muß. Jedes individuelle Instru-<br />

ment hat spezielle Eigenheiten im Abstrahl- und Frequenzverhalten, jeder Raum rea-<br />

giert anders auf Verstärkung, daher sollte auch hier sinnvollerweise die Beschreibung<br />

des erwünschten Resultats einer technischen Beschreibung des Vorgangs der Verstär-<br />

kung vorgezogen werden. Im Folgenden sollen einige akustische Auswirkungen von<br />

Verstärkung analysiert werden, um diese in einer Dokumentation zu ihrem Einsatz in ei-<br />

nem Werk adäquat differenzieren zu können.<br />

3.1.1 Änderung der Dynamik<br />

Daß Verstärkung Auswirkungen auf die in den Raum projizierte Dynamik eines Instru-<br />

65 Wenn hier und im Folgenden von „Verstärkung“ die Rede ist, soll immer die Verstärkung von akustischem,<br />

meist instrumentalem Klangmaterial in Echtzeit gemeint sein, <strong>für</strong> die Umsetzung von sämtlichem<br />

sonstigen Audiomaterial werde ich den allgemeineren Begriff „Beschallung“ verwenden.<br />

62


ments hat, ist evident, jedoch gibt es einige Aspekte der Veränderung der Dynamik, die<br />

darüber hinaus stets zu beachten sind. Da das zu verstärkende Signal üblicherweise<br />

recht nah mikrofoniert wird und dort mit einer großen dynamischen Bandbreite abge-<br />

nommen wird, kommt es vor, daß bei entsprechender Verstärkung die beim Zuhörer an-<br />

kommende Dynamik sehr groß ist, zu groß sogar, um noch einer instrumental erzeugten<br />

Dynamik nahezukommen. Dies ist insbesondere bei sehr leisen Signalen oft der Fall,<br />

die in Relation zu lauten Signalen deutlich mehr verstärkt werden müssen. Ist dann das<br />

Ziel der Verstärkung, die natürlich klingenden Instrumente unauffällig zu unterstützen,<br />

wird es oft notwendig, die Signale der sehr nah mikrofonierten Instrumente vor der Pro-<br />

jektion etwas zu komprimieren oder sie ständig mitzuregeln. Andererseits kann diese<br />

vergrößerte Dynamik von akustischen Signalen auch gerade dazu genutzt werden, die<br />

dynamische Verhaltensweise von akustischen Instrumenten derer elektronischer Instru-<br />

mente anzupassen, wenn sie zusammen in einem Stück vorkommen. Da bei rein elektro-<br />

nischen Instrumenten oder vorgemischten Zuspielbändern der Dynamik nur die<br />

physikalischen Grenzen der Lautsprecher und Verstärker gesetzt sind, anders als bei<br />

akustischen Instrumenten, wo Physis des Spielers und das Material weitgehend die<br />

dynamischen Grenzen bestimmen, passiert es häufig, daß diese beiden Ebenen sehr ver-<br />

schieden sind.<br />

3.1.2 Änderung der Klangfarbe<br />

Für die Auswirkungen der Verstärkung auf die Klangfarbe gelten recht ähnliche Kriteri-<br />

en wie die der Dynamik der verstärkten Instrumente. Durch die nahe Mikrofonierung<br />

kann <strong>für</strong> die Verstärkung ein Klangspektrum abgenommen werden, das fast nicht von<br />

der Akustik des Raums nivelliert ist und wesentlich differenziertere Frequenzen enthält<br />

als diejenigen, welche beim Zuhörer ohne Verstärkung ankommen. Vor allem hochfre-<br />

quente Anteile sind noch nicht durch lange Wege von der Luft absorbiert worden. Hinzu<br />

kommt die Positionierung der Mikrofone in Relation zum Instrument als wesentliches<br />

Kriterium <strong>für</strong> die zu erhaltenden Frequenzanteile, wie bereits im Absatz über Mikrofone<br />

erwähnt. So werden immer einige Teile des Spektrums des zu verstärkenden Signals<br />

mehr und einige andere weniger stark hervorgehoben. Gerade die genannten hochfre-<br />

63


quenten Anteile des Klangspektrums von Instrumenten sind häufig bedeutend, um so<br />

eine Angleichung an das Spektrum von elektronischen Instrumenten zu ermöglichen.<br />

3.1.3 Subjektive Nähe<br />

Sowohl die Vergrößerung der Dynamik als auch die Projektion von Klangfarben, die<br />

normalerweise nur in geringer Entfernung vom Instrument vorhanden sind, haben bei<br />

starkem Einsatz von Verstärkung zur Folge, daß sich <strong>für</strong> den Zuhörer ein Gefühl der<br />

akustischen Nähe zum Instrument einstellt, welches dem visuellen Eindruck wider-<br />

spricht. Zudem ist es möglich, daß durch die Positionierung der Lautsprecher, die sich<br />

in der Regel näher am Zuhörer befinden als die zu verstärkenden Schallquellen, dieser<br />

Effekt noch verstärkt wird.<br />

Um diesem Phänomen entgegenzuwirken gibt es die Möglichkeit, die Lautsprecher-<br />

signale derart mit Delay zu versehen, daß sie <strong>für</strong> den Zuhörer zusammen mit oder sogar<br />

nach dem Direktschall vom Instrument eintreffen. Nach dem Gesetz der ersten Wellen-<br />

front wird das Instrument dann wieder aus der Richtung des Direktschalls geortet 66 und<br />

die Verstärkung weniger wahrgenommen, da die Kopplung an den visuellen Eindruck<br />

wieder stimmig ist.<br />

Auch die Dynamik der verstärkten Signale kann, wie bereits erwähnt, mit Kompres-<br />

soren an die Dynamik der Originalsignale angeglichen werden, ebenso die Klangfarbe<br />

über Filter. Allerdings funktionieren alle diese Schritte zur Verschmelzung des verstärk-<br />

ten Klanges mit dem Originalklang nur dann, wenn die Verstärkung nicht zu groß ist,<br />

ansonsten verdecken die Lautsprechersignale nahezu völlig die Originalsignale und<br />

diese sind nicht mehr differenziert wahrzunehmen.<br />

Es gibt allerdings auch den Fall, daß sich die Diskrepanz zwischen Originalklang und<br />

verstärktem Klang als künstlerisch interessant herausstellt und sogar besonders geför-<br />

dert wird. So bemerkt der Komponist Heiner Goebbels hierzu beispielsweise:<br />

„Generell versuche ich mit den Lautsprechern nicht, die Distanz, die sich zwischen Bild und Ton ergibt,<br />

zu überspielen, sondern zu vergrößern. [...] Mich interessiert es, den Körper vom Klang zu trennen und<br />

66 Siehe auch Kapitel 3.1.4<br />

64


dann als Zuschauer die Verbindung wiederherzustellen. [...] Ich schaffe damit eine akustische Bühne, die<br />

ich von der optischen Bühne trenne, eine zweite Bühne also. In dem Zwischenraum werde ich als<br />

Zuschauer aktiv.“ 67<br />

3.1.4 Lokalisation<br />

Befindet sich beim Einsatz von Verstärkung der Lautsprecher nicht am gleichen Ort wie<br />

das zu verstärkende Signal, wie es meist der Fall ist, gibt es zwei reale Schallquellen <strong>für</strong><br />

das gleiche Signal (oder zumindest <strong>für</strong> sehr ähnliche), beim Einsatz von allen Formen<br />

von Phantomschallquellen sogar noch mehr Quellen. Der exakte psychoakustische Pro-<br />

zeß, nach dem sich die subjektive Lokalisation dann vollzieht, ist recht komplex. Es läßt<br />

sich aber generell feststellen, daß je nach Disposition, Pegel, Frequenzanteilen und auch<br />

je nach Hörplatz die Lokalisation von verstärkten Signalen im Raum enorm beeinflußt<br />

werden kann: Entweder bleibt sie bei der originalen Schallquelle, oder sie wird teilweise<br />

oder auch gänzlich von den Lautsprechern bestimmt. Auch wenn jeder Raum sowie je-<br />

des Lautsprecherkonzept individuell reagiert, kann zumindest dokumentiert werden, in-<br />

wieweit die Lokalisation der Schallquellen sich von ihrer realen Position lösen dürfen<br />

oder sollen und wie sie sich dann verhalten sollen. Es muß allerdings beachtet werden,<br />

daß es in der Realität der heute vorhandenen Konzertsäle oft nur an den wenigsten Hör-<br />

plätzen tatsächlich möglich ist, einigermaßen optimale akustische Bedingungen <strong>für</strong> eine<br />

Lokalisation von allen Seiten zu schaffen. 68<br />

3.1.5 Absolute und relative Lautstärke<br />

Ein weiterer Aspekt von Verstärkung ist neben dem Hörbarmachen von sehr leisen<br />

akustischen Signalen die generelle Möglichkeit, die Gesamtlautstärke in einem Maße zu<br />

heben, wie es mit den Signalen bei rein akustischer Übertragung nie möglich wäre. Ins-<br />

besondere bei klangästhetischen Ansätzen, die popmusikalisch geprägt sind, wird häufig<br />

die Forderung nach einer erhöhten Durchschnittslautstärke gestellt, um gewisse physi-<br />

67 Persönliches Gespräch mit dem Autor am 30.05.2006<br />

68 Mehr dazu in Kapitel 3.2 Aufführungsräume<br />

65


sche Aspekte des Klangs nutzen zu können und einem Publikum zu vermitteln, das sel-<br />

ber in seinen Hörgewohnheiten von den physischen Aspekten der Popmusik geprägt ist.<br />

Die Frage der Lautstärke ist also stark genreabhängig und zudem mit der Hörgewohn-<br />

heit des Publikums verknüpft. Während letzteres oft situationsgebunden im Konzert am<br />

Mischpult entschieden werden muß, ist die Frage nach der absoluten Lautstärke einer<br />

Verstärkung immer sehr schwer allgemein zu vermitteln.<br />

Wenn eine Orientierung an der Lautstärke der unverstärkten Instrumente stattfinden<br />

soll, kann man diese als Referenz setzen und relativ dazu Abweichungen dokumentie-<br />

ren. Man hat dann allerdings das Problem, daß die Referenzlautstärke nicht über Pegel<br />

innerhalb des Verstärkungssystems zu fassen ist, daß man also auch die Abweichungen<br />

von ihr außerhalb des elektroakustischen Systems fassen muß, beispielsweise über ver-<br />

bale Formulierungen. Dies wird deutlich, wenn bei einer neuerlichen Aufführung des-<br />

selben Werks in einem anderen Raum die Werte der Pegel im Mischpult korrigiert<br />

werden müssen.<br />

Soll die Verstärkung sich nicht an der Lautstärke der unverstärkten Instrumente orien-<br />

tieren, sondern deutlich darüber liegen, ist eine Referenz noch schwieriger zu definie-<br />

ren, nur ein Schallpegelmesser ist <strong>für</strong> die subjektiv empfundene Lautstärke, an der man<br />

sich orientieren soll, nicht ausreichend. Hier kann nur die Erfahrung und der Geschmack<br />

entscheiden. Jedoch ist in diesem Fall die Frage der Relation von abweichenden Pegeln<br />

besser zu vermitteln, da sämtliche akustisch relevanten Signale durch die Beschallungs-<br />

anlage erzeugt werden und so innerhalb des Mischpults Pegelverhältnisse definiert wer-<br />

den können.<br />

3.1.6 Rückkopplungen<br />

Nicht zu vergessen ist der Aspekt der Rückkopplungen, die bei Verstärkung entstehen<br />

können. Da sie in der Regel nicht erwünscht sind, müssen sie bereits bei der Planung ei-<br />

nes Lautsprechersetups und der zugehörigen Mikrofonkonfiguration bedacht werden<br />

und Vorkehrungen zu ihrer Unterdrückung getroffen werden. In der Regel benutzt man<br />

heutzutage stark gerichtete Mikrofone und Lautsprechersysteme, mit denen man relativ<br />

klar die Bereiche, <strong>für</strong> die die Verstärkung greifen soll, von den Bereichen trennen kann,<br />

66


in die die Verstärkung nicht gelangen soll. Darüber hinaus ist das Rückkopplungsver-<br />

halten stark von der Halligkeit des Aufführungsraumes abhängig, auch hier können ab-<br />

sorbierende Maßnahmen zur besseren akustischen Trennung des zu beschallenden<br />

Raumes von den Bereichen, aus denen beschallt werden soll, getroffen werden. Schließ-<br />

lich werden zur Vermeidung von Rückkopplungen außerdem möglichst schmalbandige<br />

Filter eingesetzt, die die resonierenden Frequenzen im Pegel absenken können, manch-<br />

mal kommen da<strong>für</strong> auch Laufzeitglieder zum Einsatz, die die Phasenlage des verstärk-<br />

ten Signals im Raum, also auch am Ort des Mikrofons, ändern.<br />

3.2 Aufführungsräume<br />

Im Gegensatz zu einer Aufnahme steht man bei der Beschallung eines Konzertes immer<br />

vor der Problematik, daß die erstellte Mischung nicht nur <strong>für</strong> einen Hörplatz optimiert<br />

werden kann, sondern daß die Vielfalt der Hörplätze im Aufführungsraum mit ihren<br />

akustischen Eigenschaften berücksichtigt werden müssen. Unabhängig davon, daß ein<br />

Klangregisseur während der Beschallung immer nur von einem Ort aus zeitgleich hören<br />

kann, und daher der Vergleich verschiedener Hörpositionen ohnehin schon schwer fällt,<br />

ist es naheliegenderweise überhaupt nicht möglich, ein einheitliches Klangbild an jedem<br />

Hörplatz zu erzeugen, alleine wegen der realen Akustik des Aufführungsraums. Es gibt<br />

zwar neuere technische Entwicklungen wie die Wellenfeldsynthese, die es theoretisch<br />

erlauben, identische Ortung an vielen Plätzen im Hörraum zu erreichen, dieses funktio-<br />

niert aber nur in extrem schallarmen Räumen (wie es bei Konzertsälen nie der Fall ist)<br />

und bei reiner Wiedergabe von Tonträgern. Zudem sind diese Systeme zumindest der-<br />

zeit noch viel zu leistungsschwach <strong>für</strong> große Beschallungsanlagen. Folglich ist es also<br />

notwendig, <strong>für</strong> jeden Aufführungsraum in Abhängigkeit vom jeweiligen Werk und sei-<br />

nen speziellen Anforderungen ein neues Beschallungskonzept zu erstellen, das es <strong>für</strong><br />

den individuellen Raum und die entsprechenden Hörplätze ermöglicht, eine bestmögli-<br />

che akustische Qualität <strong>für</strong> den Großteil der Hörer zu gewährleisten. Daß die meisten<br />

heute verfügbaren Konzerträume in ihrer Bauweise <strong>für</strong> solche Aufgaben denkbar unge-<br />

eignet sind, sieht man schnell, wenn man sich vor Augen hält, daß es bereits rein logis-<br />

67


tisch oft unmöglich ist, Lautsprecher hinter oder seitlich des Publikums mit adäquatem<br />

Abstand zu installieren, von Systemen zur Installation an der Decke ganz abgesehen.<br />

Schon 1972 hat Stockhausen in einem Vortrag auf der Tonmeistertagung gefordert, es<br />

sollen in Aufführungsräumen <strong>für</strong> zeitgenössische <strong>Musik</strong> „keine Balkone mehr gebaut<br />

werden und Lautsprecher rings um die Hörer in genügender Tiefe [...] und in genügen-<br />

der Höhe [...] angebracht werden“ 69 , jedoch werden auch heute noch viele Konzertsäle<br />

mit fester Bestuhlung und frontaler Sitzordnung, mit Balkonen und unzureichenden<br />

Hängevorrichtungen gebaut. Dieser sehr zu bedauernde Umstand trägt aber umso mehr<br />

dazu bei, daß keine generellen Beschallungskonzepte <strong>für</strong> einzelne Werke entwickelt<br />

werden können, sondern daß man immer nach Kompromissen in den jeweiligen Räu-<br />

men suchen muß. Zudem bleibt ebenso die eigene Akustik des Aufführungsraums, die<br />

zusätzlich zur rein baulichen Problematik die Projektion von <strong>Musik</strong> über Lautsprecher<br />

negativ beeinflussen kann. Wie bereits erwähnt sind hier in einigen Konzerträume Vor-<br />

kehrungen zur Veränderung der Akustik durch Vorhänge, Reflektoren oder Schallkam-<br />

mern vorhanden, selbst diese sind aber in der Regel auf die Anpassung der Akustik im<br />

Rahmen unverstärkter <strong>Musik</strong> ausgelegt. Sobald Lautsprechersysteme installiert werden,<br />

müssen oft weitere Maßnahmen zur Dämpfung der Akustik getroffen werden.<br />

Ist die Beschreibung des Lautsprechersetups in der Weise vorhanden, wie ich sie weiter<br />

oben gefordert haben, nämlich als Beschreibung der Funktion, die die Lautsprecher <strong>für</strong><br />

den jeweiligen Hörer im Raum einnehmen sollen, dann ist die Adaption auf einen Auf-<br />

führungsraum in jedem Fall besser zu realisieren, als wenn zunächst aus einem festge-<br />

schriebenen Setup erahnt werden muß, welche diese Funktion ist. Weiß man, welche<br />

Signale aus welcher Richtung zu orten sein sollen, dann kann man auch <strong>für</strong> die „benach-<br />

teiligten“ Hörzonen im Saal versuchen, durch Stützlautsprecher die verlorengehenden<br />

Informationen aufrechtzuerhalten und so eine Angleichung der akustischen Qualität auf<br />

den verschiedenen Sitzpositionen zu erreichen.<br />

Schließlich bleibt ein weiterer Punkt, der sich zwar eher auf die Realisierbarkeit als auf<br />

die Dokumentation auswirkt, aber ebenfalls schon in dem erwähnten Vortrag von<br />

Stockhausen angesprochen wurde, und immer wieder zu Konflikten führt: dies ist die<br />

69 Stockhausen 1974 S. 436<br />

68


Möglichkeit, die Position des Mischpultes und der am FOH-Platz 70 darüber hinaus be-<br />

nötigten Technik an einer geeigneten Position im Publikum zu installieren, so daß dem<br />

Klangregisseur überhaupt eine sinnvolle Beurteilung des klanglichen Resultats während<br />

der Aufführung möglich ist.<br />

3.3 Klangideale und Mischreferenzen<br />

Durch das Auftreten einer enormen Stilvielfalt in der zeitgenössischen <strong>Musik</strong> hat sich in<br />

den letzten Jahrzehnten herausgestellt, daß es sowohl seitens der Komposition als auch<br />

der Interpretation immer mehr Bestrebungen zu einer extremen Individualisierung gibt.<br />

Dies hat zur Folge, daß sich wesentlich weniger als früher Schulen von Stilen mit einer<br />

eigenen Tradition bilden können, sondern daß häufig <strong>für</strong> jeden Komponisten oder sogar<br />

<strong>für</strong> jedes Werk individuelle Kriterien der Interpretation zu finden sind, die sich nur aus<br />

dem Umgang mit Materialien erschließen lassen, die dem persönlichen oder zumindest<br />

sehr nahem Umfeld des Komponisten entstammen. Der persönliche Kontakt zum Kom-<br />

ponisten oder auch zu Personen, die unmittelbar mit ihm und <strong>für</strong> ihn gearbeitet haben,<br />

ist natürlich eine sehr zuverlässige und authentische Quelle. Auf diesem Wege kann<br />

sich eine mündliche Tradition bilden, wie sie auch derzeit im Umgang mit der musikali-<br />

schen Literatur der Werke der zeitgenössischen <strong>Musik</strong> nahezu ausschließlich zu finden<br />

ist. Es ergibt sich dann auch, daß an einigen Punkten, in der Regel an entsprechenden<br />

<strong>Institut</strong>en oder bei recht aktiven und prominenten Interpreten, viele solcher mündlichen<br />

Traditionen von unterschiedlichsten Komponisten zusammenlaufen und sich diese Per-<br />

sonen oder <strong>Institut</strong>e dann auch als Vermittler der zugehörigen Informationen anbieten.<br />

Bei der Dokumentation eines Werkes mit Live-Elektronik stellt sich aber nun die Frage,<br />

wie es gelingen kann, <strong>für</strong> zukünftige Interpreten diejenigen ästhetischen Aspekte, die<br />

über eine rein funktionale Beschreibung der Technik hinausgehen, auch unabhängig von<br />

solcher direkter mündlicher Tradition so weit wie möglich faßbar zu machen und wel-<br />

che Formen der Präsentation sich da<strong>für</strong> anbieten.<br />

70 „Front Of House“ bezeichnet den Platz im Saal, an dem die Klangregie, inklusive der dort benötigten<br />

Apparaturen, plaziert ist. Idealerweise ist dies mitten im Publikum, quasi am durchschnittlichen Hörplatz.<br />

69


Im Folgenden werde ich einige Medien analysieren, die häufig im Zusammenhang mit<br />

einem existierenden Werk oder Komponisten erhältlich sind und deren Tauglichkeit <strong>für</strong><br />

zusätzliche Informationen zu einem Werk mit Live-Elektronik prüfen.<br />

Wie Informationen innerhalb der Partitur möglichst universell verständlich umgesetzt<br />

werden können, soll im Kapitel 4.3 thematisiert werden.<br />

3.3.1 Aufnahmen<br />

Sehr oft lassen sich von Werken, die im Rahmen von Konzertreihen und Festivals zeit-<br />

genössischer <strong>Musik</strong> (ur)aufgeführt wurden, Mitschnitte verschiedenster Art finden, bis-<br />

weilen auch Studioproduktionen, insbesondere bei prominenten Komponisten. Es stellt<br />

sich die Frage, inwieweit eine solche Aufnahme dem Zugang zu einem Werk dienlich<br />

sein kann, oder unter welchen Aspekten es auch problematisch sein kann, adäquate In-<br />

formationen von ihr zu erhoffen.<br />

Zunächst ist zu klären, ob der Komponist die Aufnahme kennt und beurteilt hat, ob er<br />

vielleicht sogar anwesend war, um spezielle Adaptionen während der Aufnahme vorzu-<br />

nehmen oder beratend tätig zu sein.<br />

Weiterhin ist es gut zu wissen, unter welchen Umständen die Aufnahme stattfand, ob es<br />

eine Studioproduktion war, bei der zumindest davon auszugehen ist, daß technisch alles<br />

funktioniert hat und daß auch der interpretatorische Teil eine Auswahl aus vielen Versu-<br />

chen überstanden hat, oder ob es sich eventuell um einen echten Konzertmitschnitt han-<br />

delt, bei dem sich im Ablauf Fehler eingeschlichen haben können. Bei Konzerten<br />

hingegen ist es häufig so, daß die Interpreten besonders viel Wert auf die Wirkung im<br />

Großen legen, auch die innere Spannung ist höher und besonders bei improvisierter Mu-<br />

sik kann die direkte Rückmeldung aus dem Publikum <strong>für</strong> zusätzliche Inspiration sorgen.<br />

Zudem kann man sich aufgrund des hohen Zeitaufwands <strong>für</strong> Studioproduktionen<br />

manchmal gute Räume oder Instrumente nur <strong>für</strong> Konzerte leisten.<br />

Aspekte der Räumlichkeit von mehrkanaliger Beschallung lassen sich insbesondere bei<br />

den meist zu findenden Stereo-Aufnahmen nur unzulänglich beurteilen, jedoch ist dies<br />

sehr abhängig davon, wie mit dem im Raum verteilten Material bei der Mischung umge-<br />

gangen wurde. So können beispielsweise kopfbezogene Mischungen oder sogar Kunst-<br />

70


kopfaufnahmen bei der Wiedergabe über Kopfhörer wesentlich bessere Eindrücke ver-<br />

mitteln, als sogar manche Surround-Aufnahmen über mehr als zwei Lautsprecher. Die<br />

Darstellung der Verteilung und Wirkung von vertikal im Raum verteilten Klangereig-<br />

nissen dürfte selbst so problematisch bleiben.<br />

Durch den Einsatz von Stützmikrofonie oder direkter Abnahme von Elektronik bei der<br />

Aufnahme kommt es darüber hinaus meistens zu Verzerrungen des Klangbilds gegen-<br />

über dem Klangeindruck im Zuschauerraum. Betroffen sind die meisten Parameter, die<br />

im Zusammenhang mit interpretatorischen Aspekten der Verstärkung im letzten Kapitel<br />

besprochen wurden, nur daß in diesem Fall der aufnehmende bzw. mischende Toninge-<br />

nieur oder Tonmeister die Instanz zur Bewertung dieser Verzerrungen war. So können<br />

auch bei Aufnahmen über die Veränderung der Dynamik, der Klangfarben der Instru-<br />

mente, der Lokalisation und der subjektiven Nähe Klänge aneinander angeglichen oder<br />

voneinander unterschieden werden. Dies trifft in besonderem Maße auf elektronische<br />

oder elektroakustisch veränderte Klänge und ihr Verhältnis zu den akustischen Klängen<br />

zu, wenn sie nicht im Raum über Mikrofone aufgenommen werden, sondern vor der<br />

Projektion über die Beschallung <strong>für</strong> die Aufnahme bereitgestellt werden.<br />

Gerade dann ist ein Kommentar des Komponisten oder des Klangregisseurs zu der Auf-<br />

nahme vonnöten, um diese Unterschiede qualitativ erfassen zu können und wieder<br />

Rückschlüsse auf die beabsichtigte Wirkung im Raum zu ermöglichen.<br />

Eine Videoaufnahme der Interpreten ist im Übrigen hilfreich <strong>für</strong> die Dokumentation der<br />

Inszenierung und der Aktionen der Interpreten, kann aber nur selten als Orientierung <strong>für</strong><br />

die akustische Projektion genutzt werden.<br />

3.3.2 Schriften / Programmtexte<br />

Bei Schriften über Komponisten oder einzelne ihrer Werke, die ästhetische Vorstellun-<br />

gen über die Gestalt der jeweiligen <strong>Musik</strong> und ihrer adäquaten Interpretation vermitteln<br />

können, muß zunächst getrennt werden, ob der Komponist selbst der Autor dieser<br />

Schriften ist oder nicht. Sollte dies nicht der Fall sein, ist es wichtig herauszufinden, wie<br />

sehr der Autor in Arbeitsprozesse von Proben und Aufführungen von Werken des Kom-<br />

ponisten involviert war, wie sehr seine ästhetische Vorstellung also durch Arbeitspro-<br />

71


zesse mit dem Komponisten geprägt ist.<br />

Wenn es so gelingt, an verläßliche Informationen über die mehr oder wenige individuel-<br />

le Ästhetik zu gelangen, dann können Texte über Komponisten oder einzelne ihrer Wer-<br />

ke gute Hinweise auf entscheidende Aspekte der Interpretation geben, den Fokus der<br />

Arbeit an einem Werk auf <strong>für</strong> den Komponisten sehr Wichtiges lenken und beispiels-<br />

weise so das Verhältnis des Komponisten zur Technik und zu den mit ihr beschäftigten<br />

Personen verdeutlichen, um die Rolle zwischen Interpret und Techniker zu definieren,<br />

die einem Klangregisseur in der Aufführung zukommen soll. Auch historische Hinter-<br />

gründe und Umstände der Entstehung oder Aufführung eines Werkes, die <strong>für</strong> die Inter-<br />

pretation Bedeutung erlangen, können über Schriften jeglicher Art recht gut<br />

kommuniziert werden.<br />

3.3.3 Interviews / Porträts<br />

Jegliche Form von Interviews oder auch Porträts eines Komponisten können ähnliche<br />

Informationen beinhalten, wie die gerade besprochenen Schriften, jedoch ist es hierbei<br />

offensichtlich, daß die Darstellung der Person und ihrer Ansichten sehr von der Art der<br />

Interviewführung oder Regie des Porträts beeinflußt ist. Gerade durch gezieltes Fragen<br />

im Interview kann ein Gespräch inhaltlich stark gelenkt werden, ebenso kann bei der<br />

Zusammenstellung eines Porträts durch subjektive Auswahl beim Schnitt der Schwer-<br />

punkt einer Darstellung innerhalb gewisser Grenzen verschoben werden.<br />

3.4 Alte oder neue Technik?<br />

Vor dem Hintergrund der schnellen Alterung der technischen Komponenten der Live-<br />

Elektronik ist es fraglich, inwieweit und nach welchen Kriterien man bei der Auffüh-<br />

rung älterer Werke die „originale“, also die bei der Uraufführung eingesetzte Technik<br />

benutzen sollte, wenn dies möglich ist, oder ob man versuchen sollte, wo immer es sinn-<br />

voll und machbar ist, neuere Technik zu verwenden.<br />

72


Außerdem muß bei der Erstellung von Werken mit Live-Elektronik die Frage gestellt<br />

werden, wie weit man die Konfiguration <strong>für</strong> zukünftige Entwicklungen in der Technik<br />

öffnet.<br />

Bei der Aufführung solcher Werke mit Live-Elektronik, deren Technik heute als histo-<br />

risch gelten muß, ist es naheliegend, daß man durch den Einsatz der technischen Auf-<br />

bauten, die bei der Entstehung der Werke genutzt wurden, die größtmögliche<br />

Annäherung an Aufführungen der Entstehungszeit erreichen kann. Dies ist natürlich nur<br />

dann möglich, wenn die „originale“ Technik zur Verfügung steht und voll funktionsfä-<br />

hig ist und wenn man ebenso ihre Bedienung in einer adäquaten Weise garantieren<br />

kann. Im selben Zuge wird man dann allerdings auch mit den eventuellen technischen<br />

Problemen konfrontiert werden, vor denen die Ausführenden bereits früher gestanden<br />

haben, obwohl es da<strong>für</strong> unter Umständen in der aktuellen Situation einfache Lösungen<br />

gäbe.<br />

Die mögliche Annäherung an eine Aufführung der Entstehungszeit muß jedenfalls nicht<br />

notwendigerweise der Idee des Komponisten hinsichtlich des Einsatzes der Technik<br />

nahekommen. Sich dieser Idee zu nähern ist nur möglich, wenn es gelingt zu ergründen,<br />

warum bestimmte Apparaturen zur Zeit der Uraufführung oder auch bei einzelnen Kon-<br />

zerten genutzt wurden, falls deren Einsatz überhaupt dokumentiert wurde. Die entschei-<br />

dende Frage ist hierbei, ob bestimmte technische Komponenten oder Verfahrensweisen,<br />

die Eigenheiten beispielsweise klanglicher Art besitzen, eben wegen dieser Eigenheiten<br />

ausgewählt wurden, oder ob der Komponist eher auf den prinzipiellen Prozeß der Bear-<br />

beitung oder Steuerung Wert gelegt hat, unabhängig von der konkreten Art der Realisie-<br />

rung. Gelingt es, darüber Informationen zu erlangen, kann man daraus ableiten, ob die<br />

Übertragung des betrachteten Teils der Live-Elektronik auf andere Technik dem inten-<br />

dierten Einsatz der Elektronik widerspricht oder ob es sich nur um eine alternative Rea-<br />

lisierung desselben Konzeptes der Elektronik handeln würde.<br />

Ist es nur möglich, Informationen über die ursprünglich eingesetzte Technik ohne eine<br />

Wertung dieser seitens des Komponisten oder anderer ursprünglich Beteiligter zu erhal-<br />

ten, ist nicht immer ersichtlich, ob bestimmte technische Komponenten, die vom heuti-<br />

gen Standpunkt aus als verbesserungswürdig erscheinen, nur aus Mangel an Zeit, Geld<br />

oder Verfügbarkeit eingesetzt wurden, oder ob nur sie Eigenschaften besitzen, die <strong>für</strong><br />

73


das Werk von besonderer Bedeutung sind.<br />

Erstellt man heute ein neues Werk mit einem zugehörigen Konzept <strong>für</strong> ein Live-<br />

Elektronik-Setup, kann man konstatieren, daß die Hardware, die, wie bereits erwähnt,<br />

wesentlich standardisierter ist als früher (mit Ausnahme der Mikrofone und Lautspre-<br />

cher), durch präzisere Fertigungs- und Meßmethoden immer weniger individuellen und<br />

unbeabsichtigten Einfluß auf das Signal nimmt. Demzufolge muß heutzutage die Frage<br />

nach dem expliziten Einsatz bestimmter Prozesse im Bereich der Software gestellt wer-<br />

den, auch Programmierstrategien gehören beispielsweise dazu. Durch die Möglichkei-<br />

ten, die aktuelle, sehr frei anwendbare Software ihm bietet, kann ein Programmierer mit<br />

großer Präzision die Prozesse der Elektronik in ihrem Erscheinungsbild festlegen und so<br />

exakt definieren, welche elektronischen Eingriffe in den elektroakustischen Signalfluß<br />

explizit erwünscht sind und welche nur eine mögliche Realisation einer prinzipiellen<br />

Verarbeitung sind.<br />

Genau diese Frage ist nämlich die zu klärende bei der Übermittlung jeder exemplari-<br />

schen Realisierung eines Konzeptes <strong>für</strong> Live-Elektronik.<br />

3.5 Identität von Werken und die Freiheit der<br />

Interpretation<br />

„Interpretation heißt: die Komposition so komponieren, wie sie von sich aus komponiert sein möchte.“ 71<br />

Diese Aussage Adornos umreißt die Problemstellung der Interpretation so scharf, wie<br />

sie zu ihrer Lösung in keinster Weise beiträgt. Eine Komposition beinhaltet demnach<br />

Intentionen, die sich aus ihr selbst ergeben und zu ihrer Interpretation erkannt werden<br />

sollen, denn<br />

„Die wahre Interpretation ist die vollkommene Nachahmung der musikalischen Schrift.“ 72<br />

Wie diese Erkennung aber nun funktionieren soll, das ist die eigentliche Frage, die un-<br />

71 Adorno 2005, S. 169<br />

72 Adorno 2005, S. 83<br />

74


eantwortet bleibt. Meiner Meinung nach krankt die Position Adornos zumindest hin-<br />

sichtlich der zeitgenössischen <strong>Musik</strong> daran, daß es inzwischen ein allgemeines Bestre-<br />

ben von Komponisten geworden ist, eine grundlegend individuelle Sprache ihrer <strong>Musik</strong><br />

und ihrer Ästhetik zu finden, die sich allerdings im Gegensatz zu älterer <strong>Musik</strong> oft nicht<br />

mehr aus einem historischen Kontext erschließen läßt. Diese Sprache, die sich also nicht<br />

unbedingt nur aus dem Werk allein mitteilt, muß dem Interpreten <strong>für</strong> eine adäquate In-<br />

terpretation deutlich werden, vor allem wenn über sie wichtige Inhalte der Komposition<br />

vermittelt werden.<br />

Eine sehr extreme Position stellt die Nutzung offener Formen dar, wie sie seit den fünf-<br />

ziger Jahren in der zeitgenössischen <strong>Musik</strong> Einzug erhielt. Dieses Phänomen beschreibt<br />

Umberto Eco folgendermaßen:<br />

„Der Künstler, so kann man sagen, bietet dem Interpretierenden ein zu vollendendes Werk: er weiß nicht<br />

genau, auf welche Weise das Werk zu Ende geführt werden kann, aber er weiß, daß das zu Ende geführte<br />

Werk immer noch sein Werk, nicht ein anderes sein wird, und daß am Ende des interpretativen Dialogs<br />

eine Form sich konkretisiert haben wird, die seine Form ist, auch wenn sie von einem anderen in einer<br />

Weise organisiert worden ist, die er nicht völlig vorhersehen konnte: denn die Möglichkeiten, die er dar-<br />

geboten hatte, waren schon rational organisiert, orientiert und mit organischen Entwicklungsdrängen be-<br />

gabt.“ 73<br />

Um die Vielfalt dieser Möglichkeiten <strong>für</strong> die Interpretation nutzbar zu machen, ist es<br />

nötig, daß der Komponist dem Interpreten den genauen Rahmen hinterläßt, innerhalb<br />

dessen er agieren kann. Diese Forderung trifft aber nicht nur auf die von Eco explizit<br />

angesprochenen Werke der fünfziger und sechziger Jahre zu, sondern prinzipiell auf<br />

jedes Werk, daß zu seiner Ausführung eines Interpreten bedarf und diesen auch voraus-<br />

setzt. Also ist im Besonderen auch die Interpretation von Live-Elektronik betroffen, ge-<br />

rade weil sich hier<strong>für</strong> bisher nur individuelle Notationsweisen gebildet haben, die<br />

genutzte Sprache häufig sehr technisch geprägt ist und folglich, zusammen mit den mit<br />

ihr verbundenen technischen Apparaturen, einer schnellen Alterung unterliegt.<br />

Wenn man nun die Frage nach der Definition dieses Rahmens <strong>für</strong> die elektronischen<br />

Komponenten einer Komposition stellt, kann man sowohl auf Basis der Funktionalität<br />

73 Eco 1977, S. 55, Hervorhebungen im Original<br />

75


der Technik Grenzen ziehen, als auch im interpretatorischen Umgang mit ihr. Kriterien<br />

da<strong>für</strong> habe ich bisher umfangreich herausgearbeitet. Dabei kann man entweder Wert auf<br />

die Beschreibung des akustisch zu erzielenden Resultats legen, oder es wird eher dort<br />

ein Rahmen gesetzt, wo das konkrete akustische Ergebnis nachrangig ist und hauptsäch-<br />

lich Fragen der Form, der Gestik oder des Prinzips der Steuerung gestellt werden.<br />

Es gibt noch einen weiteren Aspekt im Umfeld von Steuerung, der bisher nicht erwähnt<br />

wurde, <strong>für</strong> die Rezeption einer Aufführung von <strong>Musik</strong> mit Live-Elektronik aber eben-<br />

falls sehr entscheidend sein kann: die physische Aktion der Interpreten und ihre optische<br />

Wirkung.<br />

Wenn bestimmte physische Aktionen visuell an verschiedene Elemente der Live-<br />

Elektronik direkt gekoppelt sind, dann muß auch hierbei der Rahmen festgelegt werden,<br />

innerhalb dessen sich diese Bewegungsabläufe vollziehen müssen. Soll beispielsweise<br />

ein Interpret in einem <strong>Musik</strong>theater einen Lautsprecher über die Bühne schieben, ist der<br />

Effekt sicherlich ein anderer, als wenn der Lautsprecher ohne sichtbare Einwirkung aus<br />

dem Off gezogen wird. Auch die Größe des Lautsprechers könnte in diesem Fall übri-<br />

gens entscheidenden Einfluß haben, sogar ohne Beisein eines Interpreten. Ein anderes<br />

Beispiel wäre das Abrufen von Samples während eines Stückes. Ein Interpret, der an ei-<br />

nem Keyboard agiert, weckt völlig andere, zudem durch die Ähnlichkeit zur traditionel-<br />

len Spielweise des Klaviers geprägte Assoziationen beim Zuschauer als derselbe<br />

Interpret an einer Computertastatur oder an einem Controller mit Tastern, obwohl sich<br />

<strong>für</strong> den Zuhörer dasselbe akustische Ergebnis einstellen kann.<br />

Bei aller Bestrebung, der Vorstellung des Komponisten nahezukommen, darf aber auch<br />

eines nicht vergessen werden:<br />

„Die Werke verändern sich: das heißt auch: gegen den Willen des Autors“ 74<br />

Dabei muß ja nicht einmal dem Komponisten aktiv widersprochen werden, denn bereits<br />

die von Eco so treffend beschriebene Situation der Interpretation, die „er [der Kompo-<br />

74 Adorno 2005, S. 122<br />

76


nist] nicht völlig vorhersehen konnte“ 75 reicht bisweilen aus, um ein Ergebnis zu erzie-<br />

len, dem der Komponist in dieser Form vielleicht nicht seine Zustimmung geben würde,<br />

obwohl es sich immer noch um sein Werk handelt. Wenn ein Komponist solche Situa-<br />

tionen ausschließen möchte, muß er seine <strong>Musik</strong> von der Kultur der Interpretation lösen<br />

und dazu übergehen, auf Tonträgern festgeschiebene <strong>Musik</strong> zu produzieren, die dann al-<br />

lerdings nicht einmal mehr im Konzert präsentiert werden dürfte, denn das wäre ja<br />

ebenfalls wieder eine Interpretation bezüglich Auswahl und Positionierung der Laut-<br />

sprecher, gewählter Lautstärke usw.<br />

Um bei der Interpretation Bezüge zur Gegenwart der Interpreten und des Publikums<br />

herstellen zu können, ist es hingegen immer wieder nötig, die Rezeptionssituation neu<br />

zu überdenken. So kann man mit Sicherheit sagen, daß sich die Rezeption von mehrka-<br />

naliger Beschallung in zeitgenössischer <strong>Musik</strong> stark gewandelt hat, seit die mehrkanali-<br />

ge Wiedergabe von Filmen in den Kinos zur Normalität geworden ist, die inzwischen<br />

sogar in immer größerer Anzahl auch beim Publikum zu Hause Einzug erhält. Zudem<br />

sind seit einigen Jahren immer mehr Tonträger und sogar Radiosendungen in Surround<br />

verfügbar.<br />

75 Eco 1977, S. 55<br />

77


4. Entwurf einer Methodik zur strukturellen<br />

Vorgehensweise<br />

Im Folgenden soll eine Methodik erstellt werden, anhand derer eine Komposition mit<br />

Live-Elektronik auf einer allgemeinen Ebene mit denjenigen Fragestellungen konfron-<br />

tiert werden kann, die <strong>für</strong> eine möglichst universelle Dokumentation hinsichtlich der in<br />

den letzten Kapiteln untersuchten Aspekte dringend benötigt werden. Dieser allgemeine<br />

Ansatz kann dann unter Zuhilfenahme der untersuchten Parameter und Entscheidungs-<br />

kriterien weiter differenziert werden.<br />

4.1 Technik<br />

Um die funktionalen Zusammenhänge der technischen Komponenten der Elektronik zu<br />

erfassen, bietet es sich an, diese zu visualisieren, um sie lesbar und übersichtlich zu ge-<br />

stalten. Je nach Bedarf bieten sich da<strong>für</strong> verschiedene Schemata an, die auch kombiniert<br />

genutzt werden sollten:<br />

• Schaltpläne der elektronischen Bauteile 76 (mit Symbolen nach DIN EN 60617)<br />

• Plan des Routings z.B. in Form einer Matrix<br />

• Flußdiagramme der programmierten Software (mit Symbolen nach DIN<br />

66001 77 )<br />

• Zuweisung und spezielle Anwendung (z.B. Loops) von Samples, die ansonsten<br />

wie herkömmliche Tonträger archiviert werden können 78<br />

• Aufbaupläne <strong>für</strong> alle Instrumente, Spielerpositionen, Lautsprecher- und Mikro-<br />

fonpositionen sowie spezielle Setups von Controllern zur Steuerung der Elektro-<br />

nik<br />

76 Ein Beispiel ist in Abbildung 9 zu finden<br />

77 Siehe Abbildung 10<br />

78 Siehe zur Archivierung Kapitel 4.4<br />

78


• Beschreibungen des Setups der Elektronik in Form von Texten 79<br />

• Exemplarische Equipmentliste (Technical Rider) mit Angabe der bei einer Rea-<br />

lisierung bereits eingesetzten Komponenten, insbesondere der leicht austausch-<br />

baren Komponenten wie Mikrofone, Lautsprecher, gängige Effekte und<br />

Mischpult<br />

• Exemplarische Realisierung von automatisierten Steuerungen oder program-<br />

mierter Elektronik, beispielsweise Max/MSP-Patches oder Sampler-Program-<br />

men<br />

Abb. 9: Schaltplan mit genormten Symbolen bei Stockhausen<br />

Gerade im Falle von programmierter Software, aber auch bei Schaltplänen, hängt die<br />

Dokumentierbarkeit enorm davon ab, wie sehr sich die vorliegende Technik abstrahie-<br />

ren läßt und ihre Funktionalität sich in eine allgemein lesbare Sprache, beispielsweise<br />

mit den vorgeschlagenen graphischen Symbolen, übertragen läßt. Bei geschützter Soft-<br />

ware wie gewissen Plugins oder auch bei herstellergebundener Hardware wie z.B.<br />

Synthesizern kommt es oft vor, daß es Parameter gibt, deren Skalierung oder klangliche<br />

Auswirkung auf das akustische Endergebnis nicht dokumentiert und offiziell zugänglich<br />

sind. In diesem Fall kann man nur das konkrete Produkt dokumentieren und darauf hof-<br />

fen, daß es auch in Zukunft in dieser oder alternativer Form zugänglich sein wird. Wie<br />

bereits erwähnt, entsteht dieses Problem bei Open-Source-Software nicht.<br />

79 Als gutes Beispiel kann man die Verbalpartituren von Alvin Lucier betrachten. (Lucier 2005)<br />

79


Abb. 10: Sinnbilder nach DIN 66001<br />

An dieser Stelle sei ausdrücklich darauf hingewiesen, daß die alleinige Erfassung und<br />

Weitergabe von exemplarischen Auflistungen und Realisierungen meistens nur einge-<br />

schränkte Rückschlüsse auf die Anforderungen an die Elektronik zuläßt. Zudem besteht<br />

die enorme Gefahr, daß <strong>für</strong> Software Kompatibilitätsprobleme durch Alterung der Hard-<br />

ware entstehen, oder daß auch akustische Eigenschaften von alter Hardware nicht mehr<br />

zu recherchieren sind und damit die gesamte Information verlorengeht.<br />

80


4.2 Aktion<br />

Um eine Grundlage <strong>für</strong> eine sinnvolle Notation 80 <strong>für</strong> Interpreten entwickeln zu können,<br />

bedarf es einer Analyse der von den Interpreten auszuführenden Aktionen. Bei Aktionen<br />

auf dem akustischen Instrumentarium ist durch die Tradition der jahrhundertelangen<br />

Musizier- und Unterrichtspraxis eine Basis vorhanden, die auch neuartige Spieltechni-<br />

ken zunehmend integriert und standardisiert. Für den Bereich des elektroakustischen<br />

Instrumentariums gibt es diesen Konsens jedoch kaum. Das liegt darin begründet, daß<br />

es dieses Instrumentarium erst seit einigen Jahrzehnten überhaupt gibt, daß es sich in<br />

dieser Zeit aber auch ständig in seinem Erscheinungsbild geändert hat. Zudem ist der<br />

Aufbau der Elektronik als Instrument <strong>für</strong> nahezu jedes Stück unterschiedlich und bietet<br />

sich auch daher nicht gerade <strong>für</strong> eine Standardisierung an. Wenn auch die konkrete<br />

Erscheinung in jedem Werk unterschiedlich ist, so kann dennoch eine standardisierte<br />

Vorgehensweise <strong>für</strong> deutliche und universelle Resultate Sorge tragen.<br />

Die Aktionen, die bei der Ausführung von Live-Elektronik anfallen, lassen sich zu-<br />

nächst linear anhand einer Zeitleiste einordnen. Damit bietet es sich auch an, sie in einer<br />

(wenn auch speziell präparierten) Partitur in der Art einer traditionellen Instrumental-<br />

stimme einzufügen.<br />

Weiterhin kann man bei genauerer Betrachtung der Aktionen feststellen, daß fast alle<br />

Aktionen im Umgang mit der Elektronik sich auf Schalter oder Regler beziehen. Dabei<br />

kann man immer <strong>für</strong> die Schalter eine bestimmte Anzahl an festen Einstellungen defi-<br />

nieren, <strong>für</strong> die Regler hingegen einen Regelbereich, der anhand einer gewissen Skalie-<br />

rung oder einer Regelkurve innerhalb von zwei Grenzwerten definiert werden kann.<br />

Kennt der Interpret diese Parameter und ihre Auswirkungen, kann er die daran auszu-<br />

führenden Aktionen vorbereiten, bei schwierigen Passagen auch üben. In jedem Fall<br />

müssen ihm die Auswirkungen seiner Aktionen vorhersehbar sein, damit er eine zuver-<br />

lässige Interpretation gewährleisten kann.<br />

Bei der Nutzung von speziellen Controllern wie Datenhandschuhen, Bewegungs-<br />

sensoren oder jeglichen Analog-to-MIDI-Convertern läßt sich ebenfalls die Einteilung<br />

in Schalter und Regler vornehmen, nur werden diese nicht direkt bedient, sondern über<br />

80 Genaueres hierzu im Kapitel 4.3<br />

81


Mapping der jeweiligen controller-eigenen Parameter gesteuert.<br />

Schließlich gibt es noch eine weitere Kategorie von Aktionen, die entstehen, wenn bei<br />

der Kontrolle von zuvor automatisierten Aktionen ein manuelles Eingreifen nötig wird.<br />

Automatisierte Parameter verhalten sich prinzipiell nicht anders, als wenn ein Beteilig-<br />

ter diese live steuern würde, nur sind sie exakter, zuverlässiger und identisch reprodu-<br />

zierbar. Da der kontrollierende Interpret die Aktionen allerdings nicht direkt reflektieren<br />

und gegebenenfalls korrigieren kann, wie bei der manuellen Ausführung, muß ihm ge-<br />

nau ersichtlich sein<br />

• was automatisiert wurde,<br />

• wie die Automatisierung synchronisiert wird (z.B. Timecode oder Cue-Punkte)<br />

• ob die Automation über Anzeigen oder motorisierte Controller ersichtlich ist<br />

oder nur anhand des (akustischen) Resultats überprüft werden kann und<br />

• wie er im gegeben Falle eingreifen kann.<br />

4.3 Notation<br />

Die oben beschriebene Dokumentation des technischen Setups sollte der Partitur beige-<br />

fügt sein oder zumindest von Personen oder <strong>Institut</strong>ionen zu erhalten sein, deren Kon-<br />

taktdaten aus der Partitur ersichtlich sein sollten.<br />

Darüber hinaus gibt es aber Informationen zur Interpretation eines Werks mit Elektro-<br />

nik, die nur in der Partitur notiert sein können. Dies sind einerseits alle oben beschrie-<br />

benen Aktionen, die im Zusammenhang mit der Elektronik auszuführen sind, darüber<br />

hinaus aber andererseits alle Angaben zu den in den vorigen Kapiteln herausgearbeite-<br />

ten Parametern der akustischen Funktion der Elektronik, wie beispielsweise Klanglich-<br />

keit, Lokalisation, Balance, Räumlichkeit oder Dynamik, die nicht schon vollständig<br />

über die Dokumentation des technischen Setups zu erschließen sind. Insbesondere bei<br />

Parametern, die sich im Verlauf des Stückes ändern sollen, müssen diese innerhalb der<br />

Partitur vermerkt sein.<br />

82


Möchte man Aktionen notieren, gibt es zunächst die Möglichkeit, in der Partitur an den<br />

entsprechenden Stellen verbale Anmerkungen einzufügen. Dies bietet sich besonders an<br />

bei schaltbaren Vorgängen, da man diese genau definiert hat und in der Regel die Ein-<br />

stellungen bereits numeriert oder binär (ein/aus) vorliegen. Auch sämtliche Angaben,<br />

die sich nicht über Schalter oder Regler fassen lassen, sondern auf Bewegung im Raum<br />

oder Bedienung spezieller Controller beruhen, lassen sich gut verbalisieren, wenn man<br />

nicht eine individuelle Notation erfinden möchte.<br />

Für kontinuierliche Regelvorgänge hingegen bietet sich vielmehr eine Notation an, die<br />

graphisch über der Zeitachse als Amplitude aufgetragen wird. So kann man innerhalb<br />

von zwei Linien als Grenzwerten und mit einer zu definierenden Skala eine kontinuierli-<br />

che Kurve auftragen, die als Visualisierung des dynamischen Verlaufs gelten kann.<br />

Nicht zufällig wird diese Form der graphischen Darstellung auch in Sequenzern <strong>für</strong> die<br />

Darstellung von automatisierten Parametern genutzt. So kann man pro variablem Para-<br />

meter eine Kurve über der Zeit auftragen und eine exakte Notation gewährleisten.<br />

Während die Beschreibung der Aktionen prädestiniert ist <strong>für</strong> die direkte Beschreibung<br />

steuernder Vorgänge, wird man <strong>für</strong> die Beschreibung des akustisch zu erzielenden Re-<br />

sultats in der Partitur die von mir in den vorherigen Kapiteln herausgearbeiteten Para-<br />

meter nutzen oder sich der herkömmlichen musikalischen Symbole und Anweisungen<br />

bedienen. So sind beispielsweise die klassischen Angaben zur Dynamik universell ver-<br />

ständlich und leicht lesbar. 81 Wenn <strong>für</strong> die genannten Parameter keine Symbolsprache<br />

erfunden werden soll, wird man sich hier<strong>für</strong> meistens kurzer Anmerkungen als ausfor-<br />

muliertem Text bedienen. Nur wenige unter den Parametern eignen sich <strong>für</strong> eine graphi-<br />

sche Notation, wie beispielsweise die Angaben zur Lokalisation.<br />

Für die Übersichtlichkeit in der Partitur und <strong>für</strong> die Praxis der Interpretation ist es im<br />

allgemeinen wünschenswert, wenn der Komponist eine Hierarchie der Parameter und<br />

Aktionen aufstellt, um sie in ihrer Wichtigkeit <strong>für</strong> das vorliegende Werk einordnen zu<br />

können. So kann man sich auch vorstellen, bei einer großen Anzahl von Parametern und<br />

81 Auf die Problematik der absoluten Lautstärke habe ich bereits in Kapitel 3.1.5 hingewiesen, daher<br />

können diese Angaben nur relativ eingesetzt werden. Allerdings kann man Vergleiche <strong>für</strong> die Angaben<br />

absoluter Lautstärke suchen, beispielsweise im Bezug zu Instrumenten oder akustischen Ereignissen,<br />

die man als bekannt voraussetzen kann, und diese in einer Legende oder an der entsprechenden<br />

Stelle der Partitur definieren.<br />

83


Aktionen die weniger wichtigen nur in einer „Dokumentationspartitur“ zu notieren und<br />

dann in einer zweiten, übersichtlicheren „Arbeitspartitur“ die wichtigsten <strong>für</strong> die prakti-<br />

sche Anwendung zusammenzufassen.<br />

4.4 Archivierung<br />

Bei sämtlichen bisherigen Überlegungen in dieser Arbeit stand das Bestreben an erster<br />

Stelle, so viele reproduktionsrelevante Aspekte der Live-Elektronik wie nur möglich zu<br />

abstrahieren, um diese von konkreten Systemen unabhängig verbalisieren und notieren<br />

zu können.<br />

Meiner Meinung nach ist dieses Abstrahieren schließlich in nur wenigen Fällen prinzi-<br />

piell nicht möglich:<br />

• Künstlerische Nutzung von „Fehlern“ in der Technik, die nicht reproduzierbar<br />

und somit nicht messbar sind<br />

• Nutzung von physikalischen Phänomenen oder akustischen Eigenschaften vor-<br />

handener Räume oder Instrumente, die zu komplex sind, um sie messen oder si-<br />

mulieren zu können<br />

• Nutzung von Geräten aus anderen als akustischen Eigenschaften, z.B. wegen der<br />

Optik<br />

• Aufgenommene Klänge, die nicht reproduziert werden können<br />

Bei den ersten drei Fällen ist <strong>für</strong> eine Archivierung nur eine Konservierung der vorhan-<br />

denen Gegenstände denkbar oder tatsächlich die Erstellung einer exakten Kopie, falls<br />

alle da<strong>für</strong> nötigen Informationen und technischen Grundlagen zur Verfügung stehen.<br />

Der <strong>für</strong> uns hier interessanteste Fall ist die Archivierung von aufgenommenen Klängen.<br />

Da Aufnahmen immer zu einem bestimmten Zeitpunkt unter Einsatz von dann verfüg-<br />

barer Technik durchgeführt werden und wurden, befinden sie sich stets auf Speicherme-<br />

dien, die ebenfalls einer speziellen Epoche entstammen. Dabei ist es prinzipiell völlig<br />

84


egal, ob es sich um Bänder, Spulen oder Festplatten handelt, sie werden in ihrer Funk-<br />

tion als Tonträger eingesetzt. Diese Tonträger sind <strong>für</strong> die Wiedergabe der Klänge nur<br />

wertvoll in Verbindung mit der entsprechenden Lesevorrichtung, die aus dem Tonträger<br />

die akustischen Informationen wieder herauslösen kann. Daß diese derselben Epoche<br />

entstammen muß wie der Tonträger, ist dabei evident. Ergänzend müssen noch alle In-<br />

formationen <strong>für</strong> die Anpassung des Tonträgers auf seine Lesevorrichtung festgehalten<br />

werden, die dieser nicht selber liefern kann. Diese können mit anderen „Metadaten“ üb-<br />

licherweise in Text- oder Tabellenform notiert werden, was die Archivierbarkeit enorm<br />

erleichtert.<br />

Wichtig <strong>für</strong> die Archivierung von Audio ist der prinzipielle Unterschied zwischen der<br />

Speicherung codierter und nicht codierter Daten: Während es bei letzterer alleine darum<br />

geht, den Datenträger lesbar zu halten, weil die gelesenen Informationen sich dann ana-<br />

log zum Spannungsverlauf der aufgenommenen Klänge verhalten, müssen bei codierter<br />

Speicherung die gelesenen Daten zunächst decodiert werden, bevor sie weiter genutzt<br />

werden können. Diese Codierung besteht sowohl bei analogen als auch digitalen Medi-<br />

en, mit dem Unterschied, daß bei digitaler Datenspeicherung die Werte diskret vorlie-<br />

gen und somit codiert werden müssen. Bei analoger Speicherung kann ein Code<br />

vorliegen, wie beispielsweise die Entzerrung <strong>für</strong> Schallplatten durch die genormte<br />

RIAA 82 -Kennlinie oder die Frequenzmodulation bei Radioübertragung, er ist aber nicht<br />

zwingend nötig.<br />

Der jeweilige Code ist immer essentieller Bestandteil der Lesevorrichtung und muß ihr<br />

beigefügt sein. Dem ist besonders dann Beachtung zu schenken, wenn der Code von der<br />

Hardware der Lesevorrichtung getrennt werden kann, wie es beispielsweise bei Compu-<br />

tern oft der Fall ist, wo der Code als zusätzliches Programm vorliegt.<br />

Es gibt drei Forderungen, die an die genannten drei Komponenten (Tonträger, Lesevor-<br />

richtung, Metadaten) gestellt werden sollten, um eine Reproduzierbarkeit zu gewährleis-<br />

ten:<br />

82 „Recording Industry Association of America“, wurde 1952 gegründet, um einen Standard <strong>für</strong> die<br />

Schallplatte zu schaffen<br />

85


• Haltbarkeit (damit eine Generation von ihnen lange Zeit nutzbar ist)<br />

• Fähigkeit zu Sicherungskopien (um weitere Generationen anfertigen zu können,<br />

gilt vor allem <strong>für</strong> Tonträger und Metadaten)<br />

• Übertragbarkeit auf ein anderes System (falls es unmöglich wird, das System<br />

aufrechtzuerhalten; gilt <strong>für</strong> alle drei Komponenten im Verbund)<br />

Zu erwähnen ist, daß durch den Einsatz digitaler Speicherung die Möglichkeit gegeben<br />

wird, Sicherungskopien und Übertragungen auf andere Systeme verlustfrei zu machen,<br />

jedoch nur, solange die Codierungen der Systeme gegenüber dem nicht codierten Origi-<br />

nal verlustfrei sind. Handelt es sich hingegen um Datenreduktion, gehen bei jedem Vor-<br />

gang einer Codierung Daten verloren, was sich bei Kopien zwischen datenreduzieren-<br />

den Systemen summieren kann. Dabei ist nicht zu vergessen, daß ein digitales Signal<br />

prinzipiell bereits einen Verlust von Informationen gegenüber dem jeweiligen analogen<br />

Signal bedeutet, da es nur diskrete Werte abtasten und speichern kann.<br />

Glücklicherweise gibt es im Bereich der Archivierung von Audio ein wesentlich größe-<br />

res kommerzielles Interesse als bei der Archivierung von Live-Elektronik, da auch<br />

sämtliche Tonträgerarchive vom Rundfunk oder von privaten Plattenfirmen mit der<br />

Problematik der Archivierung von ihren Beständen konfrontiert sind. Dies läßt darauf<br />

hoffen, daß es immer ausreichend Nachfrage und finanzielle Mittel <strong>für</strong> Forschung und<br />

Entwicklung im Bereich der Tonträger geben wird, die insbesondere Lösungen <strong>für</strong> die<br />

Übertragung von alten auf neue Speichersysteme bieten kann.<br />

Die Frage der Metadaten, die zur Archivierung in Datenbanken erfasst werden sollen,<br />

muß im Kontext der <strong>Musik</strong> mit Live-Elektronik völlig neu gestellt werden. Schon bei<br />

der herkömmlichen Tonträgerarchivierung ist der nötige Umfang der Metadaten um-<br />

stritten, üblicherweise werden aber mindestens folgende Angaben erfasst:<br />

• Komponist<br />

• Werk<br />

• Interpret<br />

• Tonträger (Format und Quelle)<br />

86


Derzeit wird von der ARD, dem ZDF und dem Deutschen Rundfunkarchiv ein neues<br />

„Regelwerk Mediendokumentation“ ausgearbeitet, das dann als Rahmenrichtlinie <strong>für</strong><br />

die Dokumentation sowohl bei der Produktion als auch bei der Archivierung von jegli-<br />

chen Medien gelten soll. 83 Hier eine graphische Darstellung der ausgearbeiteten Struktur<br />

aus einer Präsentation, die im Internet zum Download bereitsteht:<br />

Abb. 11: Metadaten nach dem neuen „Regelwerk Mediendokumentation“<br />

Man erkennt die deutlich deskriptive Ausrichtung des Archivs hinsichtlich der zu archi-<br />

vierenden Medieninhalte, die größte Gruppe von Metadaten beschreibt das dokumen-<br />

tierte Ereignis, daneben gibt es Metadaten zur Produktion, also den Auftraggebern, und<br />

zu den Personen und <strong>Institut</strong>ionen, die bei der Realisierung des dokumentierten Ereig-<br />

nisses mitgewirkt haben. Recht klein ist der Bereich der formalen Daten des Mediums<br />

ausgefallen, und der Verweis auf die Partitur sieht nur einen Standort und Seitenzahl<br />

vor. Dieses Beispiel ist ein klassischer Fall der Optimierung eines Archivs <strong>für</strong> Tonträ-<br />

ger in standardisiertem Format, in dem man viele Informationen über ihren Inhalt ein-<br />

bringen kann. Die Reproduzierbarkeit wird als gegeben vorausgesetzt und daher werden<br />

83 ARD/DRA: Regelwerk Mediendokumentation: http://rmd.dra.de/arc/php/main.php<br />

[Stand 2006-09-22]; die Seite befindet sich derzeit noch im Aufbau<br />

87


hierzu keine umfangreichen Daten gesammelt.<br />

Für die Dokumentation von <strong>Musik</strong> mit Live-Elektronik müssen im Vergleich zur Doku-<br />

mentation von Tonträgern Angaben in den Metadaten ergänzt werden, die bei einer Re-<br />

produktion von dem dokumentierten Werk <strong>für</strong> die Beteiligten nötig sind. Hierzu gehört<br />

insbesondere Folgendes:<br />

• Daten mit technischen Angaben zur Live-Elektronik, die nicht in der Partitur<br />

vermerkt sind 84<br />

• Kontaktpersonen oder <strong>Institut</strong>e, die den elektronischen Part des Stücks bereits<br />

realisiert haben<br />

• detaillierte Angaben zu bisherigen Aufführungen und früheren Versionen der<br />

Elektronik<br />

Einen Entwurf <strong>für</strong> die Archivierung elektronischer <strong>Musik</strong> legte im Jahre 2004 das Insti-<br />

tut <strong>für</strong> elektronische <strong>Musik</strong> und Akustik (IEM) der Universität <strong>für</strong> <strong>Musik</strong> und darstel-<br />

lende Kunst Graz in Form des „Internet Archivs <strong>für</strong> Elektronische <strong>Musik</strong>“ (iaem) 85 vor.<br />

Es ist offensichtlich, daß bei diesem Archiv die technischen Kriterien des Mediums und<br />

auch seiner Inhalte wesentlich detaillierter ausgearbeitet worden sind, als bei der zuvor<br />

besprochenen Archivstruktur. Es wird nicht von standardisierten Datenformaten ausge-<br />

gangen, und die notwendigen Informationen zur Wiedergabe von den entsprechenden<br />

Tonträgermedien sind vielfältig. Dennoch wird auch hier auf die speziellen Belange der<br />

Live-Elektronik eher nicht eingegangen, die Informationen zur Technik der Entstehung<br />

der Archivinhalte, die <strong>für</strong> eine Reproduktion der technischen Apparaturen nötig wären,<br />

sind kaum vorgesehen. Ebenso werden die Daten nicht <strong>für</strong> eine Weitergabe hinsichtlich<br />

erneuter Aufführungen vorbereitet.<br />

Interessant ist aber, daß bei dem Grazer Archiv zumindest eine Koppelung an eine Nut-<br />

zung von Raumsimulation mit Binaural-Transformation durch Ambisonic angestrebt<br />

wird, um die Projektion von mehrkanaligen Werken in virtuellen Räumen umzusetzen.<br />

84 Siehe hierzu die Auflistung unter 4.1<br />

85 IEM: Internet Archiv <strong>für</strong> Elektronische <strong>Musik</strong>: http://iem.iaem.at/ [Stand 2006-09-22], Seite veraltet<br />

88


Hier eine Darstellung der angestrebten Metadaten-Struktur des Grazer Archivs:<br />

Abb. 12: Metadaten-Struktur des iaem<br />

Zusammenfassend möchte ich hier diejenigen Daten darstellen, die ich <strong>für</strong> die Struktur<br />

eines Archivs <strong>für</strong> <strong>Musik</strong> mit Live-Elektronik als notwendig erachte. Die Aufbereitung<br />

<strong>für</strong> eine Reproduktion des archivierten Werkes steht hierbei als primäres Ziel im Vor-<br />

dergrund. Neben den Daten bezüglich Werk, Komponist und Interpreten gibt es das<br />

große Feld der technischen Dokumentation, das danach aufgeteilt ist, ob man die Tech-<br />

nik abstrahieren kann oder nicht. Dies wirkt sich nämlich in der Art der Archivierung<br />

aus, da man die nicht abstrahierbaren und die exemplarisch realisierten Komponenten<br />

aufwendig lagern und konservieren muß 86 , während die Abstraktionen als Texte oder<br />

Grafiken einfach zu archivieren sind. Darüber hinaus werden Informationen zur Ästhe-<br />

tik des Werkes oder des Komponisten gesammelt, die Aufschluß über die Anforderun-<br />

gen an die Interpretation geben sollen. Schließlich ist zu erwähnen, daß sowohl die<br />

technischen Komponenten als auch die weiteren Informationen von Aufführung zu Auf-<br />

führung differieren können, daher sollte man die Historie der Aufführungen sowohl in<br />

86 Das muß aber nicht notwendigerweise in diesem Archiv geschehen, es kann Verweise geben, z.B. auf<br />

Personen, <strong>Institut</strong>ionen o.ä., die historische Abspielgeräte oder Klangerzeuger lagern und pflegen.<br />

89


der technischen Dokumentation als auch in der Sammlung der weiteren Informationen<br />

deutlich kennzeichnen. Folgend mein Vorschlag:<br />

Komponist (Name, Geburtsdatum, Kontaktdaten)<br />

Werk (Titel, Untertitel, Besetzung, Versionen, Entstehungsdaten, Verlag usw.)<br />

bisherige Aufführungen<br />

bisherige Interpreten (Klangregie, Dirigenten, Instrumentalisten; jeweils mit<br />

Kontaktdaten)<br />

Technische Dokumentation (je Aufführung getrennt)<br />

nicht abstrahierbare Technik<br />

• Medien (Zuspielbänder, Samples)<br />

• Hardware (spezielle Klangerzeuger und Controller)<br />

• spezielle Software<br />

abstrahierte Technik (als Schaltpläne, Routing, Programmstrukturen)<br />

• Klangerzeugende Elemente<br />

• Schallwandler<br />

• Klangverarbeitende Elemente<br />

• Klangspeichernde/-wiedergebende Elemente<br />

• Steuerung<br />

exemplarische Realisation<br />

• Aufführungsraum<br />

• Pläne <strong>für</strong> die Positionierung von Instrumenten, Spielern und Technik<br />

• Technical Rider<br />

• Patches gängiger Programmierumgebungen (z.B. Max/Msp und PD)<br />

• Samplerprogramme<br />

Informationen zur Interpretation und zur Ästhetik (je Aufführung getrennt)<br />

an Aufführungen gebunden<br />

• Audioaufnahmen<br />

• Videoaufnahmen und Fotos<br />

• Programmtexte<br />

• Kritiken/Rezensionen<br />

allgemein<br />

• Schriften<br />

• Interviews<br />

90


5. Fazit<br />

In der vorliegenden Arbeit konnte gezeigt werden, wie sehr die schnell fortschreitende<br />

Entwicklung der technischen Komponenten, die im Kontext von <strong>Musik</strong> mit Live-<br />

Elektronik eingesetzt werden, Einfluß auf die Aufführbarkeit von Werken nimmt. Diese<br />

Entwicklung hatte in der Vergangenheit wesentliche strukturelle Änderungen der Ar-<br />

beitsweise mit der Technik zur Folge, und es ist davon auszugehen, daß dies auch zu-<br />

künftig der Fall sein wird. Die von mir eingangs aufgestellte Forderung nach<br />

systemunabhängiger Dokumentation wird so bestärkt.<br />

Um hier<strong>für</strong> notwendige Kriterien herauszuarbeiten, wurde eine Strukturierung der tech-<br />

nischen Komponenten vorgestellt, anhand derer meiner Meinung nach sämtliche Pro-<br />

zesse der Live-Elektronik funktionell abstrahiert und eingeordnet werden können sowie<br />

ihre Verwandschaft zu anderen Prozessen aufgezeigt werden kann. Für wichtige Geräte-<br />

prinzipien, die in der Live-Elektronik häufig vorkommen, wurden die jeweils reproduk-<br />

tionsrelevanten Parameter genannt und erörtert, wie diese in eine Dokumentation<br />

eingehen können.<br />

Weiterhin wurden wesentliche Parameter der Interpretation, also der Anwendung von<br />

Live-Elektronik, definiert und <strong>für</strong> ihren Einsatz in Dokumentationen analysiert.<br />

Auf der Basis der so erarbeiteten Kriterien konnte ich eine Methode vorstellen, die als<br />

generelle Herangehensweise an die Erstellung einer Dokumentation im genannten Sinne<br />

gelten kann. Nach der Analyse der zu dokumentierenden technischen und interpretatori-<br />

schen Parameter wird der Fokus hier schließlich auch auf die Niederschrift in der Parti-<br />

tur und auf die Archivierung weiterer zum Stück gehörender Medien gelenkt. Die<br />

erarbeitete Auflistung von Metadaten bietet eine Fokussierung auf die Angaben, die <strong>für</strong><br />

eine Reproduktion relevant sind und läßt eine Einordnung der Technik hinsichtlich ihrer<br />

Historie zu, insbesondere bezüglich früherer Aufführungen.<br />

Diese Arbeit versteht sich als grundlegender Beitrag zu einem Leitfaden, der helfen soll,<br />

die Vorgehensweise <strong>für</strong> Dokumentationen von <strong>Musik</strong> mit Live-Elektronik lückenloser<br />

91


zu gestalten, als dies derzeit häufig der Fall ist, um so eine standardisierte Notation und<br />

die einheitliche Aufbereitung von zusätzlichen Medien zu fördern, wo dies möglich ist.<br />

So kann sie ein Ausgangspunkt <strong>für</strong> weitere Untersuchungen auf dem Gebiet der <strong>Musik</strong><br />

mit Live-Elektronik sein, beispielsweise <strong>für</strong><br />

• die Entwicklung einer systemunabhängigen, schriftlich notierbaren Meta-<br />

Sprache <strong>für</strong> die üblicherweise eingesetzten Computerprogramme zu Zwecken ei-<br />

ner Archivierung, die dauerhafter ist als diese Programme selbst<br />

• die Sammlung von technischen Daten und praktischen Bedienungsanleitungen<br />

historischer Technik, insbesondere solange die Entwickler und ehemaligen An-<br />

wender noch leben<br />

• die Aufbereitung von Partituren und zusätzlichen Medien <strong>für</strong> die Veröffentli-<br />

chung im Verlagswesen<br />

• den Entwurf von Strategien und Techniken zur Archivierung historischer<br />

Klangerzeuger.<br />

92


Quellenangaben<br />

Literatur<br />

Theodor W. Adorno: Zu einer Theorie der musikalischen Reproduktion<br />

Suhrkamp, Frankfurt am Main 2005<br />

Donaueschinger <strong>Musik</strong>tage 2005, Programmheft<br />

Pfau-Verlag, Saarbrücken<br />

auch unter: http://www.swr.de/swr2/donaueschingen/archiv/2005<br />

/werkbeschreibung/furrerfama.html [Stand 2006-09-19]<br />

Umberto Eco: Das offene Kunstwerk<br />

Suhrkamp, Frankfurt am Main 1977<br />

Hans Peter Haller: Das Experimentalstudio der Heinrich-Strobel-Stiftung des<br />

Südwestrundfunks Freiburg 1971-1989. Die Erforschung der Elektronischen<br />

Klangumformung und ihre Geschichte<br />

Nomos Verlagsgesellschaft, Baden-Baden 1995, 2 Bände<br />

Friedrich Kittler: Short cuts<br />

Zweitausendeins, Frankfurt am Main 2002<br />

daraus S. 109-133: Computeranalphabetismus<br />

ursprünglich in F. Kittler / D. Matejowski (Hg.): Literatur im Informations-<br />

zeitalter, Campus, Frankfurt am Main 1996<br />

Alvin Lucier: Reflexionen. Interviews, Notationen, Texte 1965-1994<br />

<strong>Musik</strong>Texte, Köln 1995, 2. Auflage 2005<br />

93


Jürgen Meyer: Akustik und musikalische Aufführungspraxis<br />

Verlag Erwin Bochinsky, Frankfurt am Main 1972, 4. erweiterte Auflage 1999<br />

Jürgen Meyer: Kirchenakustik<br />

Verlag Erwin Bochinsky, Frankfurt am Main 2003<br />

Marietta Morawska-Büngeler: Schwingende Elektronen. Eine Dokumentation über<br />

das Studio <strong>für</strong> Elektronische <strong>Musik</strong> der Westdeutschen Rundfunks in Köln 1951-<br />

1986<br />

P.J. Tonger, Köln-Rodenkirchen 1988<br />

Roman Pfeifer: Schrift und Klang. zur Verschriftlichung von Tonbandmusik<br />

<strong>Diplomarbeit</strong>, Essen 2002<br />

http://icem.folkwang-hochschule.de/Publikationen/diplome.php?mid=17<br />

[Stand: 2006-09-19]<br />

Curtis Roads: The Computer Music Tutorial<br />

MIT, Cambridge, Mass. 1996<br />

André Ruschkowski: Elektronische Klänge und musikalische Entdeckungen<br />

Reclam, Stuttgart 1998<br />

Christian Scheib: Two rooms. A short conversation with Miller Puckette<br />

in bang. Pure Data, S. 165-169<br />

Wolke Verlag, Hofheim 2006<br />

Christof Siemes / Claus Spahn: Das Problem fängt mit den Posaunen an.<br />

Interview mit Pierre Boulez<br />

Die Zeit 30.12.2004, Feuilleton-Spezial: Die digitalen Künste, S. 44-45<br />

auch unter: http://www.zeit.de/2005/01/Boulez_echt [Stand 2006-09-19]<br />

94


Karlheinz Stockhausen: <strong>Musik</strong> im Raum<br />

Oktober 1958, erschienen in „Die Reihe“ 5<br />

Universal Edition A. G., Wien 1959<br />

Karlheinz Stockhausen: Die Zukunft der elektroakustischen Apparaturen in der <strong>Musik</strong><br />

in Texte zur <strong>Musik</strong> 1970-1977, Bd. 4, S. 425-436<br />

DuMont Buchverlag, Köln 1978<br />

Martin Supper: Elektroakustische <strong>Musik</strong> und Computermusik<br />

Wissenschaftliche Buchgesellschaft, Darmstadt 1997<br />

Stefan Weinzierl: Beethovens Konzerträume. Raumakustik und symphonische<br />

Aufführungspraxis an der Schwelle zum bürgerlichen Zeitalter<br />

Verlag Erwin Bochinsky, Frankfurt 2002<br />

95


Abbildungen<br />

Abb. 1: Karlheinz Stockhausen: SOLO <strong>für</strong> Melodieinstrument mit Rückkopplung,<br />

Komposition Nr. 19, UE 14789, Universal Edition A.G., Wien 1969<br />

Abb. 2: Dennis Gabor: Theory of Communication, The Journal of the <strong>Institut</strong>ion of<br />

Electrical Engineers, Unwin Brothers, London 1946, 93(3): S. 429-457, aus:<br />

Timothy Opie: Sound in a nutshell: Granular Synthesis. An overview of<br />

granular synthesis and the techniques involved, BA Honours,<br />

http://granularsynthesis.music.net.au/hthesis/gabor2.html<br />

[Stand 2006-09-24]<br />

Abb. 3: Pierre Boulez: Dialogue de l'ombre double <strong>für</strong> Klarinette und Tonband,<br />

Technische Anweisungen, UE 18407, Universal Edition A.G., Wien 1992<br />

Abb. 4: Haller 1995 (siehe Literatur), Bd. 1, S. 78, Abb. T32<br />

Abb. 5: siehe Abb. 3<br />

Abb. 6: Vinko Globokar: Drama <strong>für</strong> Klavier und Schlagzeug,<br />

Henry Litolff's Verlag/C.F. Peters, Frankfurt/London/New York 1971<br />

Abb. 7: Michael Dickreiter: Handbuch der Tonstudiotechnik,<br />

5. Auflage, K.G. Saur Verlag KG, München 1987, 2 Bände<br />

Bd. 1, S. 370, Bild 6/16<br />

Abb. 8: Haller 1995 (siehe Literatur), Bd. 1, S. 71, Abb. T30c<br />

Abb. 9: Karlheinz Stockhausen: Kurzwellen <strong>für</strong> sechs Spieler, Komposition Nr. 25,<br />

Universal Edition A.G., Wien 1968<br />

Abb. 10: Stahlknecht, P.; Hasenkamp, U.: Einführung in die Wirtschaftsinformatik,<br />

Springer-Verlag, Berlin/Heidelberg/New York 2005<br />

http://www.stahlknecht-hasenkamp.de/sh_abbildungen.php<br />

[Stand 2006-09-24]<br />

Abb. 11: ARD: Regelwerk Multimedia, Präsentation zur Veranschaulichung, Folie 50,<br />

http://rmd.dra.de/arc/doc/agRm_praes_2005-04-06.pps [Stand 2006-09-22]<br />

Abb. 12: <strong>Institut</strong> <strong>für</strong> Elektronische <strong>Musik</strong> und Akustik (IEM) der Universität <strong>für</strong><br />

<strong>Musik</strong> und darstellende Kunst Graz: Datenstrukturdiagramm des iaem,<br />

http://iem.iaem.at/doku/presentation/music/LibDiag.jpg [Stand 2006-09-22]<br />

96


Danksagung<br />

An dieser Stelle möchte ich mich bei allen denjenigen Personen bedanken, die mir<br />

während und im Vorfeld dieser Arbeit unterstützend zur Seite gestanden haben, insbe-<br />

sondere bei:<br />

• meinem Professor Michael Sandner <strong>für</strong> die intensive und konstruktive Beratung<br />

beim Entwurf und der Realisierung meines Themas<br />

• der Internationalen Ensemble Modern Akademie und meinem dortigen Tutor<br />

Norbert Ommer <strong>für</strong> die Möglichkeit, im Rahmen eines einjährigen Stipendiums<br />

und darüber hinaus die praktischen Arbeitsweisen im Gebiet der Zeitgenössi-<br />

schen <strong>Musik</strong> mit Live-Elektronik kennenzulernen und umzusetzen<br />

• denjenigen Personen aus dem zeitgenössischen <strong>Musik</strong>leben, die mir zuvorkom-<br />

mend persönliche Gespräche und Schriftverkehr ermöglicht haben, um weitere<br />

Einblicke in die Praxis der Dokumentation von <strong>Musik</strong> mit Live-Elektronik zu<br />

bekommen, darunter (in alphabetischer Reihenfolge):<br />

Paulo Chagas, Alan Fabian, Prof. Orm Finnendahl, Johannes Fritsch, Javier<br />

Garavaglia, Prof. Heiner Goebbels, Prof. Dr. Georg Hajdu, Dipl.-Ing. Folkmar<br />

Hein, Prof. Wofgang Heiniger, Gottfried Michael Koenig, Prof. Thomas<br />

Neuhaus, Melvyn Poore, Prof. Marco Stroppa und Bryan Wolf<br />

• Christina Bürger und Christoph Seibert <strong>für</strong> schnelles Korrekturlesen<br />

Schließlich möchte ich einen besonderen Dank an meine Familie aussprechen, insbe-<br />

sondere an meine Eltern Ingrid und Erik Manook, durch deren persönliche Unterstüt-<br />

zung in allen Bereichen mir das Tonmeisterstudium möglich war.<br />

97


Erklärung<br />

Detmold, den 28. September 2006<br />

Hiermit versichere ich, Hendrik Manook, daß ich die vorliegende <strong>Diplomarbeit</strong> selb-<br />

ständig verfaßt und keine anderen als die angegebenen Hilfsmittel benutzt habe. Alle<br />

Zitate wurden unter Angabe der Quelle kenntlich gemacht.<br />

Diese Arbeit wurde noch bei keinem anderen Prüfungsverfahren in identischer oder<br />

ähnlicher Form vorgelegt.<br />

Hendrik Manook<br />

98

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!