Diplomarbeit - Erich-Thienhaus-Institut - Hochschule für Musik ...
Diplomarbeit - Erich-Thienhaus-Institut - Hochschule für Musik ...
Diplomarbeit - Erich-Thienhaus-Institut - Hochschule für Musik ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
<strong>Hochschule</strong> <strong>für</strong> <strong>Musik</strong> Detmold<br />
<strong>Erich</strong>-<strong>Thienhaus</strong>-<strong>Institut</strong><br />
<strong>Diplomarbeit</strong><br />
Aspekte der Reproduzierbarkeit von<br />
Zeitgenössischer <strong>Musik</strong> mit Live-Elektronik<br />
und ihrer Interpretationspraxis<br />
vorgelegt von:<br />
Hendrik Manook<br />
Siebengebirgsallee 10<br />
50939 Köln<br />
Studiengang: <strong>Musik</strong>übertragung (Tonmeister)<br />
Betreuer: Prof. Michael Sandner<br />
28. September 2006
1. Einleitung<br />
Inhaltsverzeichnis<br />
2. Die technischen Komponenten 6<br />
2.1 Historie 6<br />
2.2 Funktionsbereiche 11<br />
2.2.1 Klanggenerierung 13<br />
2.2.2 Klangergänzung 16<br />
2.2.3 Klangveränderung 22<br />
2.2.3.1 Zeit 22<br />
2.2.3.2 Raum 25<br />
2.2.3.3 Frequenzbereich 41<br />
2.2.3.4 Pegel 46<br />
2.2.4 Schallwandlung 49<br />
2.2.4.1 Mikrofone 51<br />
2.2.4.2 Lautsprecher 52<br />
2.2.5 Steuerung 53<br />
2.3 Signalfluß 56<br />
2.4 Computeranalphabetismus und Bedienerfreundlichkeit 57<br />
4<br />
2
3. Überlegungen zur Interpretation 62<br />
3.1 Der künstlerische Umgang mit Verstärkung 62<br />
3.1.1 Änderung der Dynamik 62<br />
3.1.2 Änderung der Klangfarbe 63<br />
3.1.3 Subjektive Nähe 64<br />
3.1.4 Lokalisation 65<br />
3.1.5 Absolute und relative Lautstärke 65<br />
3.1.6 Rückkopplungen 66<br />
3.2 Aufführungsräume 67<br />
3.3 Klangideale und Mischreferenzen 69<br />
3.3.1 Aufnahmen 70<br />
3.3.2 Schriften / Programmtexte 71<br />
3.3.3 Interviews / Porträts 72<br />
3.4 Alte oder neue Technik? 72<br />
3.5 Identität von Werken und die Freiheit der Interpretation 74<br />
4. Entwurf einer Methodik zur strukturellen Vorgehensweise 78<br />
5. Fazit<br />
4.1 Technik 78<br />
4.2 Aktion<br />
4.3 Notation 82<br />
4.4 Archivierung 84<br />
Quellenangaben<br />
Danksagung<br />
81<br />
91<br />
93<br />
97<br />
3
1. Einleitung<br />
<strong>Musik</strong> lebt durch ihre Produktion und Reproduktion, und besonders im Umfeld der klas-<br />
sischen <strong>Musik</strong> ist der Bereich der aktiven Reproduktion sehr bedeutend. Dies zeigt sich<br />
bereits in der Tatsache, daß die Arbeitsbereiche der beteiligten Personen schon durch<br />
ihre Ausbildung in Komposition und Interpretation getrennt werden, zur Ausführung<br />
von <strong>Musik</strong> aber in Kombination auftreten müssen. So ist die Überlieferung von allen<br />
Werken klassischer <strong>Musik</strong> als Teil unserer gelebten Kultur nur dann möglich, wenn es<br />
immer wieder Interpreten gibt, die sich dieser Werke annehmen, sie einstudieren und öf-<br />
fentlich präsentieren.<br />
Man kann davon ausgehen, daß diejenigen Werke, die als besonders gut und wertvoll<br />
betrachtet werden, immer wieder gespielt und angefordert werden und daß sich so im<br />
Laufe der Zeit eine Auswahl der beliebten Stücke weiterverbreiten wird; der Rest wird<br />
eventuell vergessen oder geht ganz verloren.<br />
Daher ist es völlig natürlich, daß es in Zeitgenössischer <strong>Musik</strong> viele Werke gibt, die<br />
produziert werden, aber davon nur wenige auch noch nach langer Zeit immer wieder<br />
aufgeführt, also reproduziert, werden.<br />
Nach inzwischen mehrjähriger aktiver Beschäftigung mit der Zeitgenössischen <strong>Musik</strong><br />
des 20. und 21. Jahrhunderts, insbesondere als Klangregisseur und Aufnahmeleiter, bin<br />
ich persönlich zu der Überzeugung gekommen, daß durch die Ergänzung des akusti-<br />
schen Instrumentariums mit live eingesetzter Elektronik seit inzwischen mehreren Jahr-<br />
zehnten dieser Selektionsprozeß empfindlich gestört wird. Durch mangelhafte,<br />
unzureichende oder schlicht nicht vorhandene Dokumentation der Apparaturen der<br />
Elektronik in Verbindung mit ihrer schnellen Veränderung gehen die <strong>für</strong> eine Repro-<br />
duktion notwendigen Informationen nämlich ungewollt verloren. Diese Dokumentation<br />
ist aber nötig, da die Vielfältigkeit der Geräte der Elektronik und insbesondere deren<br />
Kombinierbarkeit die Varianten der traditionellen Instrumente bei weitem übersteigt.<br />
Die Selektion der Werke findet also nicht mehr nur über die Bewertung der Stücke in<br />
ihrer musikalischen Qualität statt, sondern ist zudem abhängig von der Qualität der Do-<br />
kumentation, die der Elektronik beigegeben wurde.<br />
4
Dies mag daran liegen, daß der Komponist fast immer bei den ersten Aufführungen an-<br />
wesend ist und sich nicht bewußt macht, wie viele Informationen nur er liefern kann, die<br />
<strong>für</strong> eine adäquate Realisierung der Technik und <strong>für</strong> ihren genauen Einsatz im Stück not-<br />
wendig sind. Auch wenn er nicht selber die Klangregie führt, so wird er doch in Proben<br />
und eventuell auch im Konzert korrigierend eingreifen, indem er Anweisungen gibt, die<br />
den Interpreten weitere Informationen über die Realisierung oder den Umgang mit der<br />
Elektronik bieten, zumindest in der jeweiligen Situation.<br />
Aufgabe dieser Arbeit soll es nun sein, Kriterien <strong>für</strong> eine unabhängige Dokumentation<br />
von <strong>Musik</strong> mit Live-Elektronik zu finden, die den beteiligten Personen bei der Repro-<br />
duktion eines solchen Werkes zur Umsetzung dienlich sein können. Dies gilt insbeson-<br />
dere <strong>für</strong> den Fall, daß weder der Komponist, noch sonstige Personen, die mit ihm das<br />
betroffene Stück erarbeitet haben, anwesend sind und <strong>für</strong> Nachfragen zur Verfügung<br />
stehen, ebenso <strong>für</strong> eine sinnvolle Archivierung in nicht mündlicher Form.<br />
Die Arbeit teilt sich in drei große Abschnitte:<br />
• Zunächst werde ich eine Auflistung der gängigsten technischen Komponenten<br />
<strong>für</strong> Live-Elektronik durchführen, systematisieren und dann auf die genannten<br />
Kriterien hin analysieren. Es sei darauf hingewiesen, daß diese Auflistung zwar<br />
den Anspruch einer umfassenden Systematisierung hat, aber die Auswahl der<br />
Komponenten subjektiv und exemplarisch ist, sich also weitere finden lassen,<br />
die aber meiner Meinung nach zweitrangig sind.<br />
• Danach werde ich verschiedene Aspekte des interpretatorischen Umgangs mit<br />
dieser Elektronik betrachten und hier ebenfalls Kriterien <strong>für</strong> eine allgemeingülti-<br />
ge Dokumentation herausarbeiten.<br />
• Schließlich stelle ich eine Methodik vor, die mein Vorschlag <strong>für</strong> eine sinnvolle<br />
Vorgehensweise bei der Entwicklung einer Dokumentation im oben genannten<br />
Sinne ist.<br />
Es sei darauf hingewiesen, daß ich in dieser Arbeit ausschließlich die Audio-relevanten<br />
Aspekte von Live-Elektronik betrachten werde, da mein Studienfach dies nahelegt.<br />
5
2. Die technischen Komponenten<br />
2.1 Historie<br />
Die Entwicklung der tontechnischen Gerätschaften hat insbesondere in der zweiten<br />
Hälfte des 20. Jahrhunderts einige grundlegende und strukturelle Veränderungen her-<br />
vorgebracht, die sich weitreichend in ihrer Funktionalität und Bedienbarkeit im Kontext<br />
von Live-Anwendungen niedergeschlagen haben.<br />
Analog und digital<br />
Historisch gesehen lassen sich im Wesentlichen drei Phasen feststellen:<br />
Zunächst wurde bis in die 60er Jahre die elektroakustische Übertragungstechnik stets<br />
verfeinert, es wurden elektronische Klangerzeuger entwickelt, Medien zur Schallspei-<br />
cherung bis hin zum Tonband erfunden und so erstmals feiner Tonschnitt möglich. Bis<br />
zu diesem Zeitpunkt war aber aller Technik gemein, daß sie nur auf analogen Prinzipien<br />
basierte.<br />
Durch die raschen Entwicklungen der Computertechnik seit den 50er Jahren einerseits<br />
und durch die Erfindung der spannungsgesteuerten Verstärker (VCA) Mitte der 60er<br />
Jahre andererseits wurde es in der Folge möglich, die weiterhin analogen Prozesse zur<br />
Klangerzeugung und -verarbeitung digital zu steuern. Dadurch gewann die Möglichkeit<br />
der Automatisierung und Programmierung von ganzen Arbeitsabläufen enorm an Be-<br />
deutung und erlaubte die Realisierung von wesentlich komplexeren technischen Auf-<br />
bauten auch im Kontext von Live-Anwendungen.<br />
Seit Anfang der 70er Jahre wurden dann auch digital arbeitende Klangerzeuger gebaut,<br />
wenig später immer zufriedenstellender funktionierende Geräte zur digitalen Speiche-<br />
rung von Klängen wie Sampler und digitale Tonbandgeräte und im Laufe der folgenden<br />
Zeit wurden sämtliche analogen Prozesse der Klangerzeugung, -verarbeitung und<br />
-speicherung ebenfalls digital realisierbar.<br />
6
Es veränderten sich analoge Systeme zunächst zu digital gesteuerten (sogenannten hy-<br />
briden) Systemen und schließlich zu nahezu vollends digitalen Systemen.<br />
Allein die Schallwandlung an beiden Enden der elektroakustischen Übertragungskette<br />
blieb zwingend analog, zum einen Mikrofone und die zugehörigen Vorverstärker, zum<br />
anderen Lautsprecher mit den zugehörigen Endverstärkern. In jüngster Zeit gibt es nun<br />
sogar auf diesem Gebiet weitere Entwicklungen hin zur digitalen Signalverarbeitung,<br />
zumindest hinsichtlich der Verringerung der analogen Übertragungswege: Es werden<br />
inzwischen Mikrofone auf dem Markt angeboten, die im Gerät selber direkt hinter dem<br />
Schallwandler die A/D-Wandlung vollziehen.<br />
Konsequenzen der Entwicklung<br />
Im Zuge der fortschreitenden Entwicklung der <strong>Musik</strong>elektronik lassen sich drei Prinzi-<br />
pien erkennen, die die Erscheinung der Technik qualitativ prägen: die Miniaturisierung<br />
der technischen Geräte trotz ihrer technischen Weiterentwicklung, die Standardisierung<br />
der physikalisch vorhandenen Geräte, also der Hardware, und schließlich die Verkür-<br />
zung der Innovationszyklen bei den aufeinander folgenden Generationen der Technik,<br />
also der exponentiell ansteigende technische Fortschritt.<br />
Die Verkleinerung des Geräteparks, die sich in fast allen Bereichen der Tontechnik fin-<br />
den läßt, hat zur Folge, daß die Systeme heutzutage wesentlich leichter transportiert und<br />
installiert werden können als früher. Dies heißt auch, daß in bestehende Geräteprinzi-<br />
pien bei gleichbleibender Größe immer mehr Funktionen integriert werden und so wei-<br />
tere Geräte wegfallen können. 1 Eine Ausnahme bilden einige Komponenten, die<br />
aufgrund ihres Funktionsprinzips nur begrenzt miniaturisiert werden können, wie bei-<br />
spielsweise Lautsprecher 2 oder Controller, die zur manuellen Bedienung angenehme<br />
Maße besitzen sollen. Bei den Lautsprechern wurden allerdings Fortschritte des Wir-<br />
kungsgrads erreicht und sie konnten so zumindest an Gewicht einbüßen.<br />
1 Dieser Fall läßt sich immer wieder bei digitalen Mischpulten oder Digitalen Audio Workstations<br />
(DAWs) finden, aber auch bei der Entwicklung der Computerschnittstellen.<br />
2 Lautsprecher können bei zu kleinen Abmessungen tieffrequente Schallwellen rein physikalisch nicht<br />
mehr produzieren, da diese so große Abmessungen besitzen.<br />
7
Während <strong>für</strong> einige Stücke mit Live-Elektronik am Anfang, also in den sechziger und<br />
frühen siebziger Jahren, noch individuelle Apparaturen gebaut wurden 3 , wurden in der<br />
Folgezeit allgemeiner verfügbare Geräte, wie beispielsweise Synthesizer oder Sampler,<br />
in Kombination mit einigen speziell konstruierten Komponenten <strong>für</strong> Live-Elektronik 4<br />
eingesetzt. Diese speziell entwickelten Geräte wurden nun aber nicht mehr <strong>für</strong> nur ein<br />
bestimmtes Stück konstruiert, sondern als ein Element der Elektronik, das dann in vie-<br />
len Werken genutzt werden konnte. Im Laufe der neunziger Jahre wurde dann durch den<br />
zunehmenden Einsatz von rein computergestützten Systemen, die nicht explizit <strong>für</strong> elek-<br />
troakustische Zwecke konstruiert wurden, die Standardisierung der Geräte weiter geför-<br />
dert. Durch die strikte Trennung von Hard- und Softwareindustrie, die aus Gründen der<br />
Effektivität und der Kostensenkung durch Massenproduktion marktwirtschaftlich nahe-<br />
liegend ist, wurde es nun möglich, speziell programmierte Software auf einer sehr<br />
großen Zahl „fremder“ Hardware laufen zu lassen, da diese Hardwaresysteme eine<br />
Plattform <strong>für</strong> vielerlei Anwendungen bilden und sich demzufolge großer Verbreitung<br />
erfreuen. Für die Fälle, in denen man tatsächlich spezielle Hardware zur Anbindung an<br />
das individuelle Elektronik-Setup benötigt, wird diese über die standardisierten Schnitt-<br />
stellen der Hardware in Form von zusätzlich entwickelten Adaptern realisiert, die dann<br />
nur in Kleinauflagen und in Abstimmung auf die standardisierte Hardware produziert<br />
werden. Beispiele hier<strong>für</strong> sind Audio- und MIDI 5 -Interfaces, spezielle Controller oder<br />
individuell entwickelte Schnittstellen, die derzeit üblicherweise per USB 6 - oder Fire-<br />
Wire-Schnittstellen an die standardisierten Computer angeschlossen werden.<br />
Diese Entwicklung widerspricht der eben genannten Tendenz zur Integration von Gerä-<br />
teprinzipien keineswegs, da Hard- und Software unabhängig voneinander betrachtet<br />
kein eigenständig funktionierendes System bilden und nur in Kombination <strong>für</strong> die An-<br />
wendung im Bereich der <strong>Musik</strong>elektronik in Frage kommen. Zudem wird die Integrati-<br />
3 Dies geschah beispielsweise 1966 <strong>für</strong> Stockhausens SOLO, wo in der Partitur zusätzlich zur Funktionsbeschreibung<br />
der elektronischen Apparatur die exemplarische Realisierung in Bildern dokumentiert<br />
ist und sich sogar eine Adresse findet, wo man diese ausleihen kann. Auch <strong>für</strong> MANTRA wurde<br />
1970 eine Apparatur in Auftrag gegeben, die dann der Anlaß zur Gründung des Experimentalstudios<br />
des SWR wurde (nachzulesen bei Haller 1995 Bd. 2, S. 10ff.)<br />
4 Hierzu zählen beispielsweise das Raumsteuerungsgerät „Halaphon“ im Freiburger Experimentalstudio<br />
(siehe Kapitel 2.2.3.2 unter „Verräumlichung“) oder das Computersystem 4X im Pariser IRCAM.<br />
5 musical instrument digital interface<br />
6 universal serial bus<br />
8
on von diversen Geräteprinzipien in größere Geräte nun sogar in wesentlich umfangrei-<br />
cheren Maße möglich.<br />
Der besondere Vorteil, den diese Entwicklung mit sich gebracht hat, liegt darin, daß zu-<br />
nehmend keine besonderen Geräte mehr transportiert werden müssen, oder nur noch in<br />
wesentlich geringerem Maße, sondern daß vor Ort vorhandene Hardware genutzt wer-<br />
den kann und auf dieser die spezielle Software mit den klangerzeugenden, klangverar-<br />
beitenden und steuerungsrelevanten Komponenten der Elektronik geladen und<br />
angewendet werden kann. Gerade in Zeiten von fast allgegenwärtiger Vernetzung muß<br />
inzwischen nahezu nichts mehr postalisch gesendet werden, sondern man kann die Soft-<br />
ware überall aus dem Internet herunterladen. Dies vereinfacht die Verbreitung von Wer-<br />
ken mit Elektronik sowie deren Aktualisierung in einem bisher nicht denkbaren Maße<br />
und löst die Bindung von ihren Aufführung an bestimmte Lokalitäten, wo die zugehöri-<br />
ge Technik vorhanden ist oder wohin sie mit vertretbarem finanziellem und organisato-<br />
rischem Aufwand transportiert werden kann, weitgehend auf.<br />
Das enorme Problem, das durch die Loslösung speziell entwickelter Software von der<br />
früher einmal zugehörigen speziell entwickelten Hardware entstanden ist, liegt in der<br />
Notwendigkeit, diese beiden Teile zueinander kompatibel zu halten. Für neu entwickelte<br />
Software und Hardware wird nicht uneingeschränkt Kompatibilität zu älterer Software<br />
und Hardware angestrebt, zum einen aufgrund der wirtschaftspolitischen Forderung,<br />
trotz gesteigerter Produkt- und Innovationszyklen Anreize zum Neukauf von alter Tech-<br />
nik zu schaffen, die im Umfeld der neuen Komponenten nicht mehr ins Gesamtsystem<br />
zu integrieren ist und somit inkompatibel wird, zum anderen wegen mangelnder Nach-<br />
frage nach dieser Kompatibilität auf dem gesamten Markt <strong>für</strong> die genannte Hardware,<br />
wobei ja der Markt <strong>für</strong> Audioanwendungen insbesondere im Kontext von Live-<br />
Elektronik nur einen kleinen Ausschnitt darstellt.<br />
Demzufolge erlangt die Forderung, die vollständige Funktionalität der Elektronik unab-<br />
hängig vom gesamten System zu beschreiben, eine neue Qualität von Notwendigkeit,<br />
wenn ein zukünftiger Einsatz auch nur von Teilen der speziell programmierten Elektro-<br />
nik möglich sein soll. Früher war diese Dokumentation nur dort nötig, wo ein komplet-<br />
ter Nachbau vom gesamten System in Frage kam, zum Beispiel wenn durch<br />
Neuentwicklungen der elektronischen Bauteile Verbesserungen der Audioqualität zu<br />
9
erwarten waren oder falls Teile beschädigt wurden und ein stabiler Ablauf nicht mehr<br />
möglich war. Nun muß der Möglichkeit Rechnung getragen werden, daß aufgrund von<br />
Inkompatibilitäten Anpassungen der Software auf neue Hardware vorgenommen wer-<br />
den müssen. 7<br />
Es besteht natürlich weiterhin die Möglichkeit, lokal gebunden ein funktionierendes<br />
Gesamtsetup der Elektronik <strong>für</strong> jedes Werk zu konservieren, doch dies würde alle oben<br />
beschriebenen Vorteile der Befreiung der Software von den physikalisch vorhandenen<br />
Hardwarekomponenten zunichte machen.<br />
Durch die rasant fortschreitenden Entwicklungen auf dem Gebiet der Audiotechnik ist<br />
die Frequenz, mit der neue Generationen von technischen Geräten auf den Markt kom-<br />
men, sehr hoch geworden. Insbesondere seit der Durchdringung der Geräte mit digitalen<br />
Technologien und dem weitverbreiteten Einsatz von Computern ist dies der Fall, und<br />
die von Gordon Moore schon in den sechziger Jahren prophezeite Verdopplung der An-<br />
zahl der Transistoren auf einem integrierten Schaltkreis (also auch in Computerprozes-<br />
soren) in regelmäßigen Abständen von ca. 18 bis 24 Monaten scheint sich bis heute<br />
hartnäckig zu halten. So kommt es, daß die zur Aufführung eines Werkes mit Live-<br />
Elektronik eingesetzte Technik, wenn sie computergestützt ist, heutzutage schon inner-<br />
halb eines Jahrzehnts als völlig veraltet und überholt gelten muß; man kann in solch ei-<br />
nem Fall bereits von historischer Technik sprechen. Zudem ist durch die<br />
Beschleunigung der Produktzyklen und durch die gesunkene Lebensdauer einer Genera-<br />
tion technischer Geräte die Verfügbarkeit von älterer Hardware sowie der Support von<br />
älterer Software ebenfalls schon nach wenigen Jahren nicht mehr gewährleistet 8 . Die<br />
Frage nach dem Umgang mit dieser kurzen Lebensdauer der technischen Komponenten<br />
im Kontext von <strong>Musik</strong> mit Live-Elektronik soll im Kapitel 3.4 thematisiert werden.<br />
7 Anpassungen von Hardware an Software wären prinzipiell natürlich auch möglich, allerdings nicht<br />
sehr praktikabel, denn mit der Hardware als standardisierte, offene Plattform muß ja Kompatibilität zu<br />
vieler Software angestrebt werden. Daher ist die Anpassung einer speziellen Software an die Hardware,<br />
die man als allgemein verfügbar voraussetzen kann, zu leisten, denn diese wird schließlich nicht<br />
<strong>für</strong> bestimmte Software konstruiert.<br />
8 Eigentlich ist inzwischen nicht das Sinken der Lebensdauer, sondern der durchschnittlichen Nutzungsdauer<br />
von einer Generation von Technik relevant, da viele Geräte unbrauchbar und inkompatibel werden,<br />
bevor sie verbraucht und kaputt sind.<br />
10
2.2 Funktionsbereiche<br />
Um der Forderung einer adäquaten Beschreibung der technischen Komponenten von<br />
Live-Elektronik zur besseren Reproduzierbarkeit sowie unabhängig von bestimmten<br />
Hardware- und Softwaresystemen Rechnung zu tragen, soll hier eine Systematisierung<br />
der gängigsten Komponenten oder Prinzipien der Technik unter dem Gesichtspunkt<br />
ihrer Funktionalität im jeweiligen musikalisch-technischen Kontext vorgenommen wer-<br />
den.<br />
Zur Kategorisierung der Technik möchte ich jedoch möglichst Abstand nehmen von der<br />
weit verbreiteten Herangehensweise der primären Betrachtung der elektroakustischen<br />
Verarbeitungsprozesse, wie man sie häufig in historisierenden oder chronologischen<br />
Darstellungen, insbesondere einzelner Studios und Forschungseinrichtungen, findet.<br />
Hans Peter Haller wählt beispielsweise eine Unterteilung in drei Kategorien, nämlich<br />
Frequenzumsetzung (Tonhöhenveränderung), Klangselektion (Eingriff in das Frequenz-<br />
spektrum) und Klangsteuerung (hinsichtlich diverser Parameter wie Lautstärke, Klang-<br />
farbe, Ort, Bewegung oder zeitlicher Versetzung). 9 Somit differenziert er primär, wie in<br />
die Natur der Signale technisch eingegriffen wird. Die akustischen Konsequenzen hin-<br />
sichtlich der unterschiedlichen musikalischen Ebenen sind in dieser Kategorisierung<br />
nachgeordnet.<br />
Ich werde vielmehr eine Betrachtung in Kategorien der wahrnehmbaren musikalischen<br />
Konsequenzen der Technik, insbesondere derer akustischer Natur, anstreben 10 , die mir<br />
aus folgenden Gründen <strong>für</strong> diese Aufgabe als wesentlich naheliegender erscheint:<br />
• Sie ist als Notationssystem in der Partitur, auch <strong>für</strong> Instrumentalisten und auf<br />
diesem technischen Gebiet nicht spezialisierte Personen, wesentlich universeller<br />
und nachvollziehbarer.<br />
• Sie bietet ein Beschreibungssystem <strong>für</strong> eine retrospektive Analyse von Stücken<br />
und eventuelle Rekonstruktion von einzelnen Elementen von Elektronik, die<br />
mangelhaft dokumentiert sind.<br />
9 Haller 1995, Bd. 1, S.25f.<br />
10 Wie bereits erwähnt soll sich diese Arbeit nur mit den <strong>für</strong> das Audio relevanten Komponenten beschäftigen<br />
11
• Sie erlaubt eine präzise Einordnung von neuen Technologien und kennzeichnet<br />
ebenso Verwandschaften von technischen Systemen, die einander ersetzen kön-<br />
nen.<br />
Das Bescheibungssystem von Verarbeitungsprozessen wird man trotzdem dort beibehal-<br />
ten müssen, wo sich einige technische Komponenten auf diese Weise präziser, kürzer<br />
oder überhaupt nur so festhalten lassen, jedoch schlage ich vor, diese Kategorisierung<br />
der wahrnehmungsorientierten Systematisierung unterzuordnen.<br />
Die verschiedenen Komponenten der Live-Elektronik sollen nach ihrer Systematisie-<br />
rung auf ihre wesentlichen Parameter hin untersucht und diese schließlich hinsichtlich<br />
der Eignung zur Dokumentation von Live-Elektronik betrachtet werden.<br />
Im Anwendungsfeld der Live-Elektronik gibt es so fünf wesentliche Funktionsbereiche<br />
der Technik, die hier analysiert werden sollen.<br />
• Zunächst gibt es das umfangreiche Gebiet der Klanggenerierung, das sehr eng<br />
verbunden ist mit der Tradition der rein elektronischen <strong>Musik</strong>, der Computermu-<br />
sik sowie den elektronischen Klangerzeugern, die in der Popmusik weite Ver-<br />
breitung fanden und große Entwicklungsschübe verursacht haben.<br />
• Als weiteres Feld kommt der Umgang mit vorgefertigten Klängen hinzu, die un-<br />
abhängig von ihrer Entstehung und von ihrer weiteren Verwendung im Stück auf<br />
einem adäquaten Medium zur Verfügung gestellt und wiedergegeben werden.<br />
Dieser Bereich läßt sich mit dem Begriff Klangergänzung beschreiben, da er<br />
Klänge bereitstellt, die ansonsten nicht verfügbar wären.<br />
• Der Bereich, der der <strong>Musik</strong> mit Live-Elektronik wahrscheinlich am meisten zu-<br />
eigen ist, läßt sich unter dem Begriff der Klangveränderung zusammenfassen.<br />
Hierunter fallen alle Prozesse, die Klänge, ob live oder zuvor erzeugt, in ihrer<br />
Erscheinungsweise verändern, um sie dann hörbar zu machen oder <strong>für</strong> weitere<br />
Verarbeitungsprozesse zu verwenden.<br />
• Als vierte Kategorie gibt es alle Prozesse zur Schallwandlung, die im Rahmen<br />
des Einsatzes von Live-Elektronik anfallen. Hier werde ich die elektroakusti-<br />
schen Schnittstellen betrachten, die eingangs- und ausgangsseitig zur Wandlung<br />
12
von Schall in elektrische Informationen und zurück genutzt werden, insbesonde-<br />
re Mikrofone und Lautsprecher.<br />
• Als fünfter und letzter Funktionsbereich ist sämtliche Steuerung zu nennen, die<br />
im Kontext der angewandten Technik anfällt und Auswirkung auf die Erschei-<br />
nungsweise der <strong>Musik</strong> hat. In dieser Arbeit sollen zwar nur Auswirkungen auf<br />
das klangliche Ergebnis betrachtet werden, im Prinzip läßt sich dieser Bereich<br />
aber auf alle Medien ausdehnen, die inbesondere in der Multimedia-Kunst im-<br />
mer häufiger in einem Verbund und interdependent auftreten.<br />
Darüber hinaus gibt es immer wieder Situationen in <strong>Musik</strong> mit Live-Elektronik, in de-<br />
nen Technik übergeordnete Funktionen einnimmt, wie beispielsweise formbildende<br />
oder organisatorische. Diese Anwendung ist aber in der Regel nicht direkt mit dem<br />
akustischen Ergebnis verbunden und soll daher ebenfalls nicht Gegenstand dieser Arbeit<br />
sein.<br />
Es wird sich zeigen, daß sich bestimmte Gerätekonzepte nicht immer auf nur eines die-<br />
ser Gebiete einschränken lassen 11 , aber zur Definition der jeweiligen Funktion der Tech-<br />
nik im Kontext eines bestimmten Werkes wird es beitragen, die Live-Elektronik<br />
hinsichtlich dieser Bereiche voneinander getrennt zu dokumentieren, um die Integration<br />
von zukünftigen oder altenativen Gerätekonzepten zu erleichtern.<br />
2.2.1 Klanggenerierung<br />
Historische Instrumente zur elektronischen Klanggenerierung<br />
Bereits seit Anfang des zwanzigsten Jahrhunderts finden sich immer wieder individuelle<br />
Erfindungen von elektronischen <strong>Musik</strong>instrumenten. Hierzu gehören beispielsweise<br />
Thaddeus Cahills Dynamophon, Jörg Magers Sphärophon und das von Trautwein ent-<br />
wickelte und nach ihm benannte Trautonium. 12 Diese Instrumente haben sich jedoch in<br />
der <strong>Musik</strong>literatur der Folgezeit mit Ausnahme einiger weniger Kompositionen kaum<br />
11 Dies wird insbesondere unterstützt durch die bereits genannte Tendenz zur Integration von unterschiedlichsten<br />
Funktionen in übergeordneten technischen Gesamtsystemen.<br />
12 vgl. hierzu und im Folgenden Ruschkowski 1998, S. 15-75<br />
13
erhalten, es bildete sich folglich auch keine Tradition <strong>für</strong> Interpreten oder Komponisten.<br />
Nur zwei Instrumente haben es immer wieder geschafft, in Kompositionen Einzug zu<br />
erhalten und sogar in den Kreis der Instrumente zu gelangen, die an staatlichen Hoch-<br />
schulen unterrichtet werden. Dies sind das von Lew Thermen entwickelte Theremin so-<br />
wie Maurice Martenots Ondes Martenot. Noch heute gibt es eine Klasse <strong>für</strong> Theremin<br />
am Moskauer Konservatorium und eine Klasse <strong>für</strong> Ondes Martenot am Pariser Conser-<br />
vatoire Supérieur. Gefördert durch diese Umstände konnte sich folglich <strong>für</strong> diese beiden<br />
Instrumente eine Tradition der Technik sowie der Interpretation entwickeln, die sehr am<br />
jeweiligen Instrument orientiert spezielles Wissen darüber vermitteln kann. So besteht<br />
weiterhin eine Nachfrage <strong>für</strong> diese Instrumente und sie haben damit den Status der tra-<br />
ditionellen <strong>Musik</strong>instrumente mit spezialisierten Instrumentenbauern und Instrumenta-<br />
listen erreicht: Sie brauchen auch zukünftig nicht ersetzt zu werden.<br />
Klangsynthese<br />
Die Klangsynthese als Methode der Verarbeitung von einfachsten elektronischen Ele-<br />
menten zur Erzeugung von komplexen Klanggemischen ist die am weitesten verbreitete<br />
Form der elektronischen Klanggenerierung. Bereits bei der Arbeit in den elektronischen<br />
Studios der 50er Jahren haben sich erste Methoden zur Klangsynthese herausgebildet,<br />
die später verfeinert und erweitert wurden, aber weitestgehend immer noch die prinzipi-<br />
elle Grundlage <strong>für</strong> heute genutzte Verfahren bilden. Die Ursprünge der jeweiligen Ver-<br />
fahren waren aber immer in der rein elektronischen <strong>Musik</strong> zu finden, da es hier möglich<br />
war, bereits in wesentlich früheren Entwicklungsstadien der jeweiligen Technik mit lan-<br />
gandauernden Bearbeitungsverfahren oder Berechnungen sowie fragileren Aufbauten<br />
Formen der Klangsynthese anzuwenden, die der Forderung nach Echtzeitfähigkeit und<br />
Stabilität nicht nachkommen mußten, wie sie <strong>für</strong> den Einsatz im Umfeld von Live-<br />
Elektronik notwendig ist. Daher sind auch die jeweiligen Verfahren der Klangsynthese<br />
in der Literatur der elektronischen <strong>Musik</strong> bzw. Computermusik recht vielfältig und gut<br />
dokumentiert 13 und sollen hier nur rudimentär beschrieben werden.<br />
13 vgl. z.B. Roads 1996, Supper 1997, Ruschkowski 1998<br />
14
Zur Klassifizierung der Verfahren zur Klangsynthese schlägt Martin Supper zwei Prin-<br />
zipien vor: vertikale und horizontale Synthese, die auch kombiniert auftreten können. 14<br />
Zur vertikalen Synthese, der Synthese im Frequenzbereich, gehören dann die additive<br />
Synthese, die Klänge aus einzelnen sinusförmigen Teiltönen zusammensetzt, die sub-<br />
traktive Synthese, die aus frequenzreichen Klängen mittels Filtern bestimmte Frequen-<br />
zen abschwächt oder entfernt und zuletzt die FM-Synthese, die Klänge aus der<br />
Modulation von einfach strukturierten Signalen erzeugt.<br />
Zur horizontalen Synthese, der Synthese im Zeitbereich, gehört insbesondere die Granu-<br />
larsynthese, die auf der Aneinanderreihung von zahlreichen sehr kurzen Samples, den<br />
sogenannten Grains, basiert, die aufgrund ihrer Kürze nicht mehr als Einzelklänge<br />
wahrgenommen werden können, sondern neue Klangeindrücke hervorrufen.<br />
Ein Beispiel <strong>für</strong> ein kombiniertes Syntheseverfahren ist das „physical modelling“, das<br />
anhand von akustischen Modellen und ihres Schwingungsverhaltens die resultierenden<br />
Klänge errechnet.<br />
Für den Umgang mit Klangsyntheseverfahren hinsichtlich deren Reproduzierbarkeit er-<br />
gibt die Nutzung von frei programmierbarer Hardware einen entscheidenden Unter-<br />
schied zu der Nutzung von herstellergebundenen Systemen. Während bei ersterer der<br />
Benutzer die Programmierung der Klangsynthese von Grund auf durchführen und über-<br />
blicken muß, also auch einen vollständigen Überblick über alle Vorgänge der Synthese<br />
haben muß, besteht bei herstellergebundenen Komplettsystemen prinzipiell die Gefahr,<br />
daß bestimmte Schalt- und Rechenvorgänge dem Benutzer nicht zugänglich sind und<br />
auch nicht offen dokumentiert sind, so daß es bei manchen Programmen oder Systemen<br />
unmöglich ist, die exakten Vorgänge der Synthese abstrakt zu dokumentieren, um sie<br />
eventuell später auf anderer Hardware neu zu programmieren. Diese Dokumentation<br />
sollte bei der Nutzung offener Hardware <strong>für</strong> den Nutzer immer möglich sein, häufig ist<br />
er sogar schon vor der Programmierung mit einem Entwurf der Klangsynthese in ab-<br />
strakterer Form beschäftigt und setzt diesen Entwurf dann auf der jeweiligen Plattform<br />
um.<br />
Dieses Problem stellt sich im übrigen bei aller Hard- sowie Software, bei der dem Be-<br />
14 Supper 1997, S. 38<br />
15
nutzer Informationen nicht zugänglich sind, die <strong>für</strong> den audioverarbeitenden Prozeß ge-<br />
nutzt werden. 15<br />
Insbesondere in den 1980er Jahren wurden durch die weite Verbreitung einiger Synthe-<br />
sizermodelle, beispielsweise des DX7 von Yamaha oder des Synthi 100 von EMS, eini-<br />
ge zeitweilige Standards <strong>für</strong> die Erzeugung synthetisierter Klänge geschaffen. Diese<br />
Geräte waren problemlos erhältlich, die Zahl der potentiellen Benutzer enorm und die<br />
Auswahl der Typen gering. So wurden diese Geräte auch immer wieder in zeitgenössi-<br />
scher <strong>Musik</strong> eingesetzt und die Steuerdaten in proprietären Formaten gespeichert.<br />
Heutzutage ist es allerdings zunehmend problematisch, die originalen Geräte zu erhalten<br />
und so ist die Gefahr groß, daß viele der zu den Werken gehörigen Klänge nicht mehr<br />
einzusetzen sind, wenn es nicht gelingt, sie quasi rückwirkend auf einem noch laufen-<br />
den System zu analysieren und zu dokumentieren.<br />
2.2.2 Klangergänzung<br />
Zuspielbänder<br />
Es ist zwar umstritten, ob die Wiedergabe von vorproduzierten Klängen während eines<br />
Konzertes mit live spielenden Instrumenten als Live-Elektronik gelten kann, unabhän-<br />
gig von dieser Definitionsfrage ist es aber üblich, daß bei <strong>Musik</strong> mit Live-Elektronik<br />
zugespielte Klänge immer wieder eingesetzt werden, deshalb darf auf ihre Besprechung<br />
insbesondere hinsichtlich der Reproduzierbarkeit hier nicht verzichtet werden. Zudem<br />
ist es so, daß vorproduzierten Klänge diesbezüglich eine Sonderstellung zugesprochen<br />
werden muß: Sie müssen in einer Form archiviert werden, in der sie immer wieder gele-<br />
sen werden können, oder zumindest auf ein neues Medium kopiert werden können, daß<br />
dann seinerseits wieder die Funktion eines „Originals zweiter Generation“ einnehmen<br />
kann. Der Grund hier<strong>für</strong> ist darin zu suchen, daß aufgenommene Klänge bereits eine<br />
transkribierte Form von akustischen oder elektronischen Signalen sind, die in ihrer Er-<br />
scheinung während der Aufnahme entweder später überhaupt nicht reproduziert werden<br />
können, oder deren Ursprung zumindest aus der Transkription auf dem Aufnahme-<br />
15 siehe auch Kapitel 2.4 „Computeranalphabetismus und Bedienerfreundlichkeit“<br />
16
medium nicht mehr entnommen werden kann. Das muß nicht heißen, daß man Aufnah-<br />
mesituationen nicht reproduzieren kann, in denen Zuspielbänder nach Vorgabe des<br />
Komponisten <strong>für</strong> die aktuelle Anwendung produziert werden können 16 ; hingegen ist es<br />
so, daß man mit Hilfe von Aufnahmen Klänge oder elektronische Signale aus ihrem<br />
Kontext entfernen kann oder auch einmalige Ereignisse festhalten kann, die dann in<br />
transkribierter Form auf einem Tonträger vorliegen und nur wiedergegeben werden<br />
können, wenn der Tonträger adäquat gelesen werden kann. Diese Feststellung ist sehr<br />
wichtig, da sie besagt, daß man aufgenommene Klänge im Gegensatz zu allen anderen<br />
hier vorgestellten technischen Komponenten der Live-Elektronik nie durch Abstraktio-<br />
nen ersetzen oder auf grundlegende Funktionen reduzieren können wird. Wenn es nicht<br />
gelingt, die Originale oder zumindest Kopien davon wiederzugeben, sind die Informa-<br />
tionen unwiederbringlich verloren.<br />
Darüber hinaus gibt es seit der Nutzung von digitaler Schallspeicherung ein weiteres<br />
Kriterium, das der Reproduzierbarkeit von gespeicherten Klängen hinderlich sein kann.<br />
Da die Klänge nicht mehr analog, also auf einen Datenträger transkribiert, sondern auch<br />
codiert werden müssen, um sie überhaupt digital verarbeiten und speichern zu können,<br />
muß der entsprechende Code bei der Wiedergabe oder zumindest bei der Kopie in ein<br />
anderes Format, die ja bei digital gespeicherten Klängen auch ohne Wiedergabe erfol-<br />
gen kann, verfügbar sein. Dies ist besonders dann problematisch, wenn der Code nicht<br />
offen verfügbar ist, sondern rechtlich geschützt ist und nur in ausgewählten Produkten<br />
eingesetzt wird. Entsteht die Situation, daß der Proprietär des Codes nicht mehr verfüg-<br />
bar ist, daß die Produktion und der Support der entsprechenden Produkte eingestellt ist,<br />
ist nicht nur der Code verloren, sondern auch die Möglichkeit, die codierten Aufnahmen<br />
zu lesen. Diese Problematik ist derzeit bei Audiodateien nur wenig zu finden, sondern<br />
hauptsächlich bei Dateitypen, die an eine bestimmte Software gebunden sind, doch läßt<br />
die momentane Entwicklung um digital rights management (DRM) und die Lizenzie-<br />
rung von Dateitypen, die im Internet zum Herunterladen vorgesehen werden die Be-<br />
<strong>für</strong>chtung entstehen, daß auch bei Audiodateien zukünftig die Frage der proprietären<br />
Codierung eine größere Rolle spielen könnte.<br />
16 Schöne Beispiele hier<strong>für</strong> sind die „Counterpoint“-Stücke von Steve Reich oder „Dialogue de l'ombre<br />
double“ von Pierre Boulez, in denen die notwendigen Anweisungen <strong>für</strong> instrumentale Aufnahmen<br />
gegeben werden, die der Interpret dann als Zuspielband, gleichsam im Dialog mit sich selbst, nutzen<br />
kann.<br />
17
Unabhängig von den Fragen des Lesens und der Codierung der Klänge muß <strong>für</strong> eine<br />
eindeutige Reproduktion eine adäquate Beschreibung dessen vorliegen, was sich auf<br />
dem Zuspielband befindet. Hierzu gehören formale Angaben wie Länge, Format, Spu-<br />
ranzahl, Spurbelegung, Zuordnung zu bestimmten Lautsprechern oder weiterer elektro-<br />
nischer Verarbeitung (beispielsweise aufgezeichnete Steuerspannungen oder MIDI-<br />
Befehle), Start-Punkte oder Tracks usw. Diese sollten in einer allgemein lesbaren und<br />
möglichst standardisierten Form aufbereitet werden. Darüber hinaus stellt sich die Frage<br />
der Notation bzw. Verschriftlichung des Zuspielbands in der Partitur, die insbesondere<br />
bei angestrebter Synchronität mit live zu Spielendem unabdingbar ist. Die Art und der<br />
Umfang der Notation ist allerdings sehr vom Kontext des Zuspielbandes im Stück ab-<br />
hängig. 17<br />
Zur Archivierung von Zuspielbändern werde ich nähere Ausführungen im Kapitel 4.4<br />
machen.<br />
Sampler<br />
Eine Besonderheit bei der Arbeit mit Zuspielklängen ist der Einsatz von Samplern. Als<br />
Basismaterial nutzen sie ebenfalls gespeicherte Klänge, auf die alle im vorigen Ab-<br />
schnitt genannten Eigenschaften und Forderungen zutreffen. Sampler waren aber von<br />
Beginn an (das erste Gerät wurde 1979 von der Firma CMI-Fairlight Systems vorge-<br />
stellt) auf digitale Klangverarbeitung und einfache sowie schnelle Bedienbarkeit ausge-<br />
legt und besitzen deshalb einige Funktionen, die über den Einsatz von konventionellen<br />
Zuspielbändern hinausgehen.<br />
Sampler werden üblicherweise über eine Klaviatur bedient. Als Schnittstelle zur Kom-<br />
munikation hat sich bis heute weitestgehend das Anfang der 80er Jahre entwickelte<br />
MIDI erhalten. Daher haben die im MIDI-Protokoll übertragenen Daten 18 auch die in<br />
Samplern zur Steuerung üblicherweise eingesetzten Parameter entscheidend geprägt.<br />
Zwar ist die Möglichkeit, diese Parameter den unterschiedlichen Zuspiel- und Klangbe-<br />
17 vgl. hierzu ausführlich Pfeifer 2002<br />
18 MIDI überträgt außer den gespielten Tonhöhen (in Form von den Tasten eindeutig zugewiesenen<br />
Nummern) weiterhin Daten wie Anschlagstärke, Aftertouch, Steuerdaten wie Kanal- und Programmnummern,<br />
Betriebsmodi, Werte von Pedalen, Modulationsrädern oder „Breath Controllern“ und weitere,<br />
teilweise vom Benutzer frei definierbare Steuerdaten. (vgl. hierzu ausführlich Ruschkowski<br />
1998, insbesondere „Die MIDI-Kommunikation“ S. 371-412)<br />
18
arbeitungsprozessen zuzuordnen durch den Ruf nach einfacher Bedienbarkeit stets eini-<br />
germaßen übersichtlich geblieben, doch müssen zur einwandfreien Reproduktion bereits<br />
diese Zuordnungen genau notiert werden. 19 So kann es beispielsweise vorkommen, daß<br />
über eine einzige Taste bei unterschiedlicher Anschlagsdynamik verschiedene Samples<br />
abgerufen werden, die auch noch in ihrer Tonhöhe und Dauer beeinflußt werden. Gera-<br />
de bei früheren Modellen wurde außerdem viel mit Loops gearbeitet, da der zur Verfü-<br />
gung stehende Speicherplatz extrem begrenzt war. Hierbei müssen dann auch noch<br />
Start- und Endpunkte, Blenden, Abspielvarianten usw. dokumentiert werden.<br />
Im Zuge der sich stets weiter verbreitenden Software-Sampler scheinen die genannten<br />
Zuordnungen von Steuerparametern zu Bearbeitungsprozessen nun aber doch zuneh-<br />
mend komplexere Möglichkeiten zu bieten. Dies liegt vermutlich daran, daß durch die<br />
bereits beschriebene Zusammenfassung von Geräteprinzipien in einer programmierba-<br />
ren Umgebung ihre Interaktionsmöglichkeiten umfangreicher werden. Es findet sich im-<br />
mer mehr Software, die Sampler, Synthesizer, Filter, Raumsteuerung und weitere<br />
Effektgeräte kombiniert. So wird beispielsweise <strong>für</strong> einen der bekanntesten Software-<br />
Sampler folgendermaßen geworben:<br />
„Fünf Sampler-Betriebsarten ermöglichen klassisches Sample-Playback, Echtzeit Time-Stretching und<br />
Pitch-Shifting, Pitch-Kompression sowie das Beat-Slicing zur Tempoanpassung von Loops. Die intuiti-<br />
ven Mapping-, Loop- und Gruppen-Editoren sowie mehr als 30 exzellente Filter und Effekte inklusive ei-<br />
nes Faltungseffekts eröffnen neue Perspektiven <strong>für</strong> das kreative Produzieren. [...] Die ausgereiften<br />
Surround-Sound-Features mit Unterstützung aller Surround-Formate bis hin zu 16 Kanälen ermöglichen<br />
das räumliche Bewegen von Sounds.“ 20<br />
Neben der Dokumentation der Zuordnungen und Klangverarbeitungen 21 ist bei der Be-<br />
trachtung von Samplern zu bemerken, daß es erst in jüngster Zeit bei vielen Modellen<br />
ermöglicht wurde, mit standardisierten Dateiformaten wie z.B. AIFF oder Broadcast<br />
Wave und ebenso standardisierten Datenträgern wie Festplatten zu arbeiten. Lange Zeit<br />
hatte jeder Hersteller sein proprietäres Format <strong>für</strong> Audiodaten und Speichermedien, und<br />
<strong>für</strong> die Speicherung der erwähnten Zuordnungen in sogenannten „Programs“ haben sich<br />
19 siehe hierzu im Kapitel 2.2.5 über Steuerung<br />
20 Native Instruments: Präsentation des Kontakt 2,<br />
http://www.native-instruments.com/index.php?id=kontakt_de [Stand 2006-09-25]<br />
21 Diese können mit den Methoden beschrieben werden, die ich im Kapitel 2.2.3 analysieren werde.<br />
19
nach wie vor herstellerspezifische Formate erhalten. Dies macht eine allgemeingültige<br />
Dokumentation umso nötiger.<br />
Live-Sampling<br />
Neben der beschriebenen Möglichkeit, vorproduzierte Klänge zuzuspielen oder als Aus-<br />
gangsmaterial <strong>für</strong> live vollzogene Klangbearbeitungen zu nutzen, gibt es auch die Mög-<br />
lichkeit, das so genutzte Material erst aus den live stattfindenden Aktionen zu gewinnen.<br />
Dieses Verfahren wird auch als „performed tape“ bezeichnet. 22<br />
Da hierzu als Grundbedingung nur eine adäquate Apparatur <strong>für</strong> Aufnahme und Wieder-<br />
gabe benötigt wird, wurde dieses Verfahren bereits seit den 50er Jahren immer wieder<br />
eingesetzt.<br />
Ein Beispiel hier<strong>für</strong> ist SOLO von Karlheinz Stockhausen, entstanden 1966, wo wäh-<br />
rend der gesamten Aufführung eine Aufnahmeapparatur läuft und von Zeit zu Zeit ein-<br />
zelne Passagen daraus verzögert wiedergegeben werden. Der Aufbau ist wie folgt:<br />
22 Gordon Mumma, zit. nach Supper 1997 S.15<br />
Abb. 1: Aufführungstechnik <strong>für</strong> SOLO<br />
20
Durch die rasche Verbreitung von Samplern und hardwaregestützten Aufnahme- und<br />
Wiedergabesystemen wurden die Möglichkeiten zum Live-Sampling enorm erweitert,<br />
insbesondere da diese digitalen Systeme wesentlich leichter und komfortabler automati-<br />
sierbar sind als analoge und so präzisere und ökonomischere Einsatzmöglichkeiten ent-<br />
stehen. Es wurden beispielsweise <strong>für</strong> SOLO 1966 vier Assistenten zusätzlich zum<br />
Klangregisseur benötigt, inzwischen gab es einige Versionen, in denen nur der Klangre-<br />
gisseur mit einem die Technik überwachenden Assistenten das Stück aufführen konnte,<br />
zudem mit wesentlich größerer Präzision. Heute gibt es Software, die speziell <strong>für</strong> diese<br />
Zwecke konzeptioniert ist, wie bereits ihre Namensgebung erahnen läßt, beispielsweise<br />
das vom amsterdamer STEIM entwickelte LiSa (Live Sampling) oder das von der berli-<br />
ner Firma Ableton entwickelte „Ableton Live“.<br />
Instrumentenspezifische Manipulation bei Zuspielern<br />
Bei Geräten zur Wiedergabe gespeicherter Klänge ist es immer so gewesen, daß jede<br />
Generation von Technik ihre instrumentenspezifischen Methoden zur Manipulation bei<br />
der Wiedergabe entwickelt hat. Diese haben sich häufig aus einem „Mißbrauch“ der<br />
vorgesehenen Wiedergabetechnik entwickelt, die sich dann als ästhetisch interessant<br />
herausgestellt hat.<br />
Insbesondere bei analogen Zuspielern gibt es viele Punkte, an denen man bereits mecha-<br />
nisch in den Wiedergabevorgang eingreifen kann. Das prominenteste Beispiel hier<strong>für</strong> ist<br />
wohl die Entwicklung der vielfältigen DJ-Techniken im Umgang mit Plattenspielern,<br />
aber auch die Techniken zur Tonbandmanipulation durch ungewöhnliche Schnitte und<br />
Wiedergabe von präparierten Bändern fallen darunter. Auch bei digitalen Zuspielern<br />
wird beispielsweise mit instabiler System-Clock experimentiert, um die Wiedergabe zu<br />
manipulieren.<br />
Will man derartige Prozesse zum Eingreifen in die übliche Wiedergabe dokumentieren,<br />
muß nicht nur eine Aktionsschrift <strong>für</strong> die Vorgänge zur Manipulation gefunden werden,<br />
sondern es muß auch beschrieben werden, wie das Wiedergabesystem reagieren soll, da<br />
man bei solcher Grenzüberschreitung nicht automatisch davon ausgehen kann, daß jedes<br />
System identisch reagiert. Je vielfältiger die Variationsmöglichkeiten der eingesetzten<br />
21
Technik dabei sind und je weniger Konsens es im Umgang mit ihr gibt, desto eindeuti-<br />
ger muß die Beschreibung des zu erreichenden Resultats in Kombination mit den auszu-<br />
führenden Aktionen sein.<br />
2.2.3 Klangveränderung<br />
Die ureigenste Qualität von <strong>Musik</strong> mit Live-Elektronik ist wohl die Veränderung<br />
(Transformation) von live erzeugten Klängen im Konzert, um diese dann in Echtzeit<br />
oder zeitversetzt wieder hörbar zu machen. Meiner Ansicht nach lassen sich die Metho-<br />
den zur Transformation der Klänge in vier Ebenen beschreiben:<br />
• Veränderungen in der Zeit<br />
• Veränderungen im Raum<br />
• Veränderungen im Frequenzbereich<br />
• Veränderungen der Lautstärkepegel<br />
Es gibt Transformationsvorgänge, die sich sehr deutlich einer dieser Ebenen zuordnen<br />
lassen, andere, die Einfluß auf mehrere dieser Ebenen zugleich haben und solche, die<br />
derart komplex sind, daß sie sich nur unzulänglich und kaum sinnvoll einordnen lassen<br />
und wohl passender ausschließlich durch ihre elektroakustische Verschaltung oder ma-<br />
thematische Algorithmen zu beschreiben sind.<br />
2.2.3.1 Zeit<br />
<strong>Musik</strong> besteht aus in der Zeit geordneten Klängen. Daher ist ein naheliegender Eingriff,<br />
den man an ihr vornehmen kann, die Veränderung des zeitlichen Ablaufes. Da aller-<br />
dings bei <strong>Musik</strong> mit Live-Elektronik oft eben live gespielte akustische Instrumente zum<br />
Einsatz kommen, muß berücksichtigt werden, daß in diesen Fällen immer der unverän-<br />
derte Klang im Raum hörbar ist und Veränderungen, die in Echtzeit am Klang vorge-<br />
nommen werden und hörbar gemacht werden, zusätzlich zum Original erklingen. Bei<br />
22
den in den folgenden Kapiteln beschriebenen Transformationsformen im Frequenzbe-<br />
reich und im Pegel, sogar im räumlichen Erscheinungsbild, läßt sich der Originalklang<br />
bis zu einem gewissen Grad verdecken, beispielsweise durch hohen Pegel des veränder-<br />
ten Klangs. Aber gerade bei der Manipulation in der zeitlichen Ebene ist dies fast nie<br />
der Fall, es sei denn, daß der Originalklang <strong>für</strong> das Publikum nahezu unhörbar gemacht<br />
wird, beispielsweise durch den Einsatz von Wänden zur akustischen Trennung oder von<br />
starken Dämpfern. Ansonsten wird man immer in der Summe von Originalklang und<br />
transformiertem Klang beide hören, da sie verschiedene Zeitstrukturen besitzen. Zudem<br />
gibt es viele zeitbezogene Transformationsprozesse, die prinzipiell nicht echtzeitfähig<br />
sind, Dehnung der Zeitebene kann beispielsweise nicht synchron zum Eingangssignal<br />
erfolgen.<br />
Folglich bieten sich hier <strong>für</strong> Live-Elektronik weniger nutzbare Transformationsvorgän-<br />
ge als bei der Anwendung auf vorher aufgenommene Klänge, die im Konzert abgespielt<br />
werden.<br />
Delay<br />
Ein beliebter Effekt zur Transformation in der Zeitebene ist die Nutzung eines Delays.<br />
Hierbei wird ein ankommendes Signal gespeichert und zeitverzögert wiedergegeben.<br />
Wird der Ausgang des Delays dem Eingang wieder zugeschaltet, erhält man ein „Feed-<br />
back“: Das Signal ist in Abständen der Zeitverzögerung des Delays immer wieder zu<br />
hören. Um den Vorgang endlich zu machen, führt man üblicherweise das Signal mit<br />
verringertem Pegel zurück, so entsteht eine Abfolge von Wiederholungen, die nur eine<br />
bestimmte Zeit lang wahrnehmbar sind und dann im Rauschen des Raums oder des ver-<br />
arbeitenden Systems untergehen. Diese Konfiguration des Delays mit Feedback wird<br />
auch als Echo bezeichnet.<br />
Bis zur Einführung von digitalen Delays wurden diese Verzögerungen mit Tonbandma-<br />
schinen realisiert, wobei Bandschlaufen zwischen Aufnahme- und Wiedergabekopf ge-<br />
spannt wurden, um aufgrund der Laufzeit des Bandes die benötigte Verzögerung zu<br />
erreichen. In manchen älteren Partituren finden sich immer noch Tonbandlängen <strong>für</strong> die<br />
Delays, die in Abhängigkeit von der Laufgeschwindigkeit des Bandes aber in Verzöge-<br />
23
ungszeiten umgerechnet werden können. 23<br />
Ein Delay wird durch wenige Parameter exakt definiert, das sind die Verzögerungszeit<br />
und, falls vorhanden, der Anteil des Feedbacks. Dieser wird bei digitalen Delays übli-<br />
cherweise in Prozent des Eingangssignals angegeben. Im Delay finden sich häufig noch<br />
zusätzliche Funktionen wie beispielsweise die räumliche Verteilung der unterschiedli-<br />
chen Wiederholungen beim Feedback 24 , diese lassen sich dann mit den Parametern der<br />
Verräumlichung 25 beschreiben.<br />
Timestretching/Umkehrung<br />
Weitere Formen der Transformation in der Zeitebene sind das Timestretching, das Ver-<br />
längern bzw. Verkürzen von aufgenommenen Audio-Sequenzen und die Invertierung,<br />
das Rückwärtsabspielen eben solcher Sequenzen. Beide Techniken haben ihren techni-<br />
schen Ursprung in der unkonventionellen Nutzung von Tonbandmaschinen. Umkehrung<br />
wurde durch rückwärtiges Abspielen des Bandes erreicht, Timestretching mit Tonhö-<br />
henveränderung durch variieren der Abspielgeschwindigkeit. Eine Apparatur <strong>für</strong> Time-<br />
stretching ohne Tonhöhenveränderung erfand Gabor als eine Bandmaschine mit<br />
rotierenden Tonköpfen.<br />
Abb. 2: Analoge Timestretching-Maschine nach Gabor<br />
23 In Abbildung 1 sieht man die Anordnung von Bandschleifen mit mehreren Tonköpfen ebenso wie die<br />
Angabe der Bandlängen und Verzögerungszeiten.<br />
24 Dies geschieht beispielsweise bei den sogenannten Multi-Tap-Delays oder Pingpong-Delays<br />
25 Siehe im Kapitel 2.2.3.2<br />
24
Nach demselben Prinzip entwickelte Springer das Tempophon, das im Studio <strong>für</strong> elek-<br />
tronische <strong>Musik</strong> des WDR Köln bei Herbert Eimert zum Einsatz kam. 26 In der Folgezeit<br />
wurden noch weitere, ähnliche Systeme entwickelt, doch erst nach Entstehung der digi-<br />
talen Sampler wurde es mit vertretbarem Aufwand möglich, das Verfahren auch im<br />
Live-Betrieb einzusetzen.<br />
Wie schon erwähnt ist naturgemäß eine Dehnung oder Stauchung der Zeitebene nicht<br />
mit Echtzeit-Anspruch möglich, auch eine Invertierung nicht. Daher muß immer ein<br />
Schritt zur Zwischenspeicherung erfolgen, es wird ein Gerät zum Live-Sampling ge-<br />
nutzt, das dann die aufgenommenen Signale wie vorproduzierte zur Verfügung stellt,<br />
verarbeitet und wiedergibt 27 . Ähnliches gilt auch <strong>für</strong> Verfahren zur künstlichen Verlän-<br />
gerung von Tönen, die in der Regel auf Loopstrukturen basieren, sogenanntes „Free-<br />
zing“ oder „Unendlich-Hall“.<br />
Timestretching wird in der Regel durch Angabe der prozentualen Dehnung bzw. Stau-<br />
chung definiert, auch möglich ist die Angabe der Veränderung der Laufgeschwindigkeit<br />
einer Tonbandmaschine oder der Wechsel des Tempos in Schlägen pro Minute (BPM 28 ),<br />
alle diese Angaben können einfach ineinander umgerechnet werden. Zusätzlich wird die<br />
Angabe notwendig, ob das Timestretching mit oder ohne Tonhöhenveränderung gesche-<br />
hen soll, wobei tonbandgestützte Systeme letztere Möglichkeit nicht zulassen und digi-<br />
tale Systeme genutzt werden müssen. Zur genaueren Definition von Loops siehe die<br />
Beschreibung der speziellen Klangveränderungen unter den klangergänzenden Zuspie-<br />
lern in Kapitel 2.2.2.<br />
Heutzutage wird sowohl Timestretching als auch Freezing meistens mit Hilfe von Gra-<br />
nularsynthese realisiert. 29<br />
2.2.3.2 Raum<br />
Der reale, architektonische Raum prägt eine Aufführung von <strong>Musik</strong> prinzipiell in zwei-<br />
erlei Hinsicht: Zunächst stellt er die Lokalität dar, in der die <strong>Musik</strong> zur Aufführung ge-<br />
26 vgl. Morawska-Büngeler 1988 S.47<br />
27 siehe hierzu auch „Live-Sampling“ im Kapitel 2.2.2<br />
28 beats per minute<br />
29 siehe hierzu auch „Klangsynthese“ im Kapitel 2.2.1<br />
25
langt und in der sowohl die Schallquellen und die Interpreten als auch das Publikum ih-<br />
ren Platz finden. Diese Lokalität ist also eine notwendige Voraussetzung da<strong>für</strong>, daß die<br />
<strong>Musik</strong> überhaupt entstehen kann. Zweitens verändert der Raum durch seine akustischen<br />
Eigenschaften alle Schallereignisse, die in ihm stattfinden. Diese Veränderung ist dem<br />
Raum immanent und macht ihn wiedererkennbar, wenn die akustischen Eigenschaften<br />
außergewöhnlich sind.<br />
Wird der erste Aspekt der räumlichen Verteilung auf Schallquellen, akustischer oder<br />
elektronischer Art, und Interpreten fokussiert, kann man hier von einer aufführungs-<br />
technischen Dimension des Raums sprechen. Für eine Aufführung ist es nämlich rele-<br />
vant, die Positionen von Instrumenten und Lautsprechern im Raum zu definieren, da sie<br />
einen großen Teil des akustischen Resultats direkt bedingen und so Möglichkeiten zur<br />
Strukturierung der <strong>Musik</strong> geben. Der zweite Aspekt, der als akustische Dimension des<br />
Raums bezeichnet werden kann, verändert die im Raum entstandenen Klänge erst in<br />
zweiter Instanz und kann daher als von der Entstehung der Klänge getrennt betrachtet<br />
werden. Der Einsatz von Elektronik kann die akustischen Eigenschaften eines Raumes<br />
simulieren und damit die akustische Dimension eines Raumes herstellen, der physika-<br />
lisch gar nicht genutzt wird.<br />
Historisch gesehen wurde bereits im 16. Jahrhundert ausgehend von der Zweiten Vene-<br />
zianischen Schule und begünstigt durch die Bauweise der Markuskirche mit zwei Or-<br />
gelemporen die räumliche Aufteilung der Instrumentalisten ein Kompositionskriterium.<br />
Besonders durch Gabrieli hat die Mehrchörigkeit dort eine frühe Blüte erreicht, sie war<br />
durch das Prinzip des Dialogisierens geprägt. Die Aufteilung der musizierenden Prot-<br />
agonisten blieb jedoch zunächst auf die geistliche Vokal- und Orgelmusik beschränkt,<br />
wenig später auch unter Hinzuziehung von Instrumentalchören, beispielsweise bei Mo-<br />
zarts Notturno KV286 <strong>für</strong> vier Orchester. Erst im 19. Jahrhundert finden sich Fernor-<br />
chestern und -chöre auch in der Oper und in sinfonischer <strong>Musik</strong>, häufig mit<br />
programmatischem Hintergrund und Funktion der Dramaturgie.<br />
Es ist zu bedenken, daß die Verteilung im und außerhalb vom Aufführungsraum nur so-<br />
weit möglich war, wie die <strong>Musik</strong>er sich untereinander hören konnten, oder zumindest<br />
der Dirigent als zentraler Koordinator sich mit allen gut verständigen konnte, um ein<br />
sinnvolles Zusammenspiel möglich und kontrollierbar zu machen. Zu große Laufzeiten<br />
26
des Schalls, wie sie beispielsweise bei Fernorchestern oder Orchesterkonzerten mit Kir-<br />
chenorgeln leicht entstehen, konnten ein fast unlösbares Hindernis darstellen.<br />
In der Mitte des 20. Jahrhunderts gab es dann zwei Entwicklungen, die der Betrachtung<br />
des Raums in der <strong>Musik</strong> eine neue Qualität zukommen lassen. Zum einen bildete sich<br />
die serielle Schule heraus, die es ermöglichte und forderte, den Raum und die räumliche<br />
Verteilung von Klangquellen als strukturellen Parameter in Kompositionen mit einbezu-<br />
ziehen. Zum Anderen wurde durch die Entwicklung der elektroakustischen Übertra-<br />
gungstechnik die Grundlage <strong>für</strong> eine solche parametrische Behandlung des Raums mit<br />
elektroakustischen Mitteln überhaupt erst verfügbar: Die Mobilität und Qualität von<br />
Tonbandgeräten, Mikrofonen, Mischpulten, Lautsprechern und Verstärkern erreichte<br />
langsam eine Stufe, die es ermöglichte, sie in einem Konzert zufriedenstellend nutzbar<br />
zu machen und live oder zuvor erzeugte Klänge über Lautsprecher im und außerhalb<br />
des Konzertraums zu verteilen. Auch die Entwicklung und flächendeckende Einführung<br />
des Tonbands als Speichermedium und seine Nutzung zur synchronen Wiedergabe von<br />
mehreren getrennten Spuren war als Grundlage zur präzisen Montage und Fixierung<br />
von Klangereignissen und deren Wiedergabe über mehrere im realen Raum verteilte<br />
oder sogar einen virtuellen Raum schaffende Lautsprecher vonnöten. Ebenso wurde die<br />
Möglichkeit der präziseren Kommunikation über weite Entfernungen unter Zuhilfenah-<br />
me von akustischem oder sogar Video-Monitoring geschaffen, die heute als Basis der<br />
Realisierbarkeit vieler Stücke mit Raumverteilung gelten muß.<br />
Martin Supper nennt <strong>für</strong> die Verwendung des Raumes in der <strong>Musik</strong> mit Live-Elektronik<br />
drei Möglichkeiten: 30<br />
• Den Raum als Instrument<br />
• Virtuellen und simulierten Raum<br />
• Die Bewegung des Klanges im Raum<br />
Hier werde ich diese Kategorien etwas verändern, wie im Folgenden beschrieben. Die<br />
Nutzung der Akustik des Raums als Instrument werde ich im Abschnitt „Arbeit mit der<br />
30 Supper 1997 S. 121ff.<br />
27
ealen Raumakustik“ um einige Überlegungen zur Modifikation dieser hinsichtlich be-<br />
stimmter <strong>Musik</strong> ergänzen. Sie kommt in der Praxis in Kombination mit Live-Elektronik<br />
allerdings nur sehr selten vor.<br />
Im Kapitel “Virtueller und simulierter Raum“ legt Supper viel Gewicht auf die elektro-<br />
akustische Übertragung von Räumen in andere Räume, beispielsweise beim Hören von<br />
Aufnahmen oder bei Soundinstallationen, ich möchte in meinem Kapitel „Hall“ detail-<br />
lierter auf das Erschaffen von virtueller Räumlichkeit durch Hallerzeuger eingehen, da<br />
dies in der Praxis der live-elektronischen <strong>Musik</strong> wesentlich bedeutender und üblicher<br />
ist. Zusätzlich möchte ich noch die Existenz von natürlichen resonierenden Systemen<br />
erwähnen, die keine architektonischen Räume sind, aber trotzdem hallartige Wirkung<br />
entfalten. Die Kategorie der Bewegung des Klangs im Raum möchte ich ergänzen durch<br />
die Betrachtung statischer Disposition von Klängen im Raum, zusammengefasst im Ka-<br />
pitel zur Verräumlichung.<br />
Arbeit mit der realen Raumakustik<br />
Wie bereits gesehen war schon in der Venezianischen Schule der bewußte Einsatz von<br />
im Raum verteilten Klangkörpern in Zusammenwirkung mit dem verschmelzenden Ef-<br />
fekt des Nachhalls ein wesentliches Kompositionsmerkmal, und schon immer hat die<br />
Wechselwirkung von Raumakustik und den Kompositionen, die in diesen Räumen zum<br />
Klingen gebracht wurden, die Beteiligten beschäftigt. Gut dokumentiert sind beispiels-<br />
weise die Einflüsse der Akustik der Konzerträume auf die Kompositionen Beethovens 31<br />
wie auch der Bau des Festspielhauses in Bayreuth nach den speziellen akustischen An-<br />
forderungen Richard Wagners 32 , ganz zu Schweigen von Instrumenten, die nur <strong>für</strong> be-<br />
stimmte Räume gebaut werden, wie beispielsweise Kirchenorgeln 33 .<br />
Die Vorsehung von baulichen Maßnahmen zur flexiblen Anpassung der Raumakustik<br />
auf die aufzuführenden Werke ist naheliegend, sei es in Form von absorbierenden Vor-<br />
hängen, von akustisch koppelbaren „Hallkammern“ 34 oder als gänzlich modulare Be-<br />
31 Weinzierl 2002<br />
32 Meyer 1999 S. 304f.<br />
33 Meyer 2003, insbesondere S. 235ff.<br />
34 Morton H. Meyerson Symphony Center, Dallas 1989; Symphony Hall, Birmingham 1991; KKL,<br />
Luzern 2000<br />
28
stückung der Wände 35 .<br />
Trotzdem wird immer wieder beklagt, daß nur sehr wenige Konzerträume geeignet <strong>für</strong><br />
die Präsentation elektroakustischer <strong>Musik</strong> seien, nicht nur wegen zu wenig flexibler<br />
Akustik, sondern auch wegen mangelnder Bestuhlungsfreiheit, nicht ausreichender An-<br />
schlüsse oder Hängemöglichkeiten <strong>für</strong> die Lautsprecher und sonstige Technik.<br />
Die Nutzung von Aufführungsräumen unter Einbeziehung von deren akustischen Eigen-<br />
schaften als Bestandteil einer Komposition muß demzufolge weitestgehend an bestimm-<br />
te Lokalitäten gebunden bleiben, je unüblicher die Akustik, desto mehr. Eine Ausnahme<br />
aus jüngerer Zeit, allerdings ohne Elektronik, bildet hier beispielsweise das auf den Do-<br />
naueschinger <strong>Musik</strong>tagen 2005 aufgeführte FAMA von Beat Furrer, einem „Hörtheater<br />
<strong>für</strong> großes Ensemble, acht Stimmen, Schauspielerin und Klanggebäude“, bei dem im<br />
Konzertsaal ein speziell entworfenes Klanggebäude aufgebaut wird, in dem sich die<br />
Plätze <strong>für</strong> das Publikum befinden. An allen Seiten dieses Klanggebäudes befinden sich<br />
Klappen, die Einfluß auf die Akustik im Inneren nehmen können, zumal meist die Solis-<br />
ten innen und das Ensemble außen spielen. Der Komponist beschreibt die Eigenschaften<br />
des Raums folgendermaßen:<br />
„[...] das Gebäude ist eigentlich nichts anderes als ein Instrument, und seine Resonanz funktioniert im<br />
Prinzip ganz ähnlich wie das Mundstück eines Blasinstruments oder der Korpus eines Streichinstruments.<br />
Es ist ein einziger großer Transformator des Klanges, ein Resonator, ein Meta-Instrument. Wir haben die<br />
beiden Seiten der Klappen, die sich öffnen und schließen lassen wie beim Schwellwerk einer Orgel, die<br />
man aber auch um 180° drehen kann, unterschiedlich beschichtet, die eine Seite mit einer Metallschicht -<br />
wie das Erz beim "Haus der Fama" -, die den Klang ganz direkt reflektiert, die andere Seite mit einem<br />
speziellen Kunststoff, der den Klang trocken, aber gleichzeitig ganz präsent macht. [...] es sind spezielle<br />
Filterungen und Richtungseffekte möglich. Man kann etwa außen ein Ereignis mit einer langen Nachhall-<br />
zeit haben und innen gleichzeitig ganz trockene und klare Klänge. Wenn die Klappen geschlossen sind,<br />
hört man manchmal nur den Reflexionsklang, bei metallenen Klängen verlieren gewisse Teile des Spek-<br />
trums schnell ihre Energie. Oder es gibt Klänge, die schwer zu orten sind und von überall herzukommen<br />
scheinen: Der Raum spielt immer mit, und das Phänomen der klanglichen Präsenz in diesem Raum wird<br />
zum Thema.“ 36<br />
35 IRCAM, Espace de projection, Paris 1976<br />
36 "Der Raum spielt immer mit", Beat Furrer im Gespräch mit Daniel Ender in Programmheft der Donaueschinger<br />
<strong>Musik</strong>tage 2005<br />
29
Ein solcher Bau kann, allerdings mit entsprechend großem logistischen Aufwand, dann<br />
in jedem ausreichend großen Saal aufgebaut werden und als Instrument genutzt werden.<br />
Es wird deutlich, wie der Raum durch akustische Modifizierbarkeit Möglichkeiten zur<br />
kompositorischen Nutzung bekommt und mit der Akustik des Konzertsaales kommuni-<br />
ziert. Die Schnittstelle zur Live-Elektronik wird an zwei Stellen möglich, zum einen,<br />
wenn die Vorgänge zur akustischen Modifikation automatisierbar sind und die Elektro-<br />
nik diese steuert, zum anderen wenn die so geformte raumakustische Umgebung in den<br />
weiteren elektroakustischen Bearbeitungsprozeß eingebunden wird. Ein prominentes<br />
Beispiel hier<strong>für</strong> ist Alvin Luciers „I am sitting in a room“ (1970) <strong>für</strong> Stimme und Ton-<br />
band. Hier wird ein vorgegebener Text gelesen und auf Tonband aufgenommen, diese<br />
Aufnahme wird dann über einen Lautsprecher in den Raum projiziert und mit Hilfe ei-<br />
nes Mikrofons aufgenommen. Dieser Prozeß von Wiedergabe und Aufnahme wird dann<br />
mit der jeweils resultierenden Aufnahme bei identischer Lautsprecher- und Mikrofonpo-<br />
sition so oft wiederholt, bis ausschließlich Raumresonanzen hörbar bleiben. Lucier<br />
kommentiert dazu:<br />
„[...] the space acts as a filter, it filters out all of the frequencies except the resonant ones. It has to do with<br />
the architecture, the physical dimensions and acoustic characteristics of the space.“ 37<br />
Der Raum mit seiner spezifischen Akustik ist als ein Glied in der elektroakustischen<br />
Übertragungskette zu begreifen, das der eingesetzten Technik und ihren jeweiligen<br />
klanglichen Eigenschaften als auch ihrer Positionierung und Ausrichtung im Raum als<br />
gleichwertig zur Seite gestellt wird. Der Raum als Instrument 38 wird in diesem Falle in<br />
seiner Einzigartigkeit charakterisiert und <strong>für</strong> eine Realisierung in einem anderen Raum<br />
wird gerade nicht die Übertragung der raumakustischen Eigenschaften gefordert, son-<br />
dern des Prinzips des Umgangs mit der Technik. Sollte in anderen Fällen die exakte<br />
Übertragung der akustischen Eigenschaften des Raumes nötig sein, gibt es nur die Mög-<br />
lichkeit einer exakten Kopie desselben (wie es beispielsweise mit der transportablen<br />
Raum-in-Raum-Konstruktion bei Furrer realisierbar ist) unter spezieller Beachtung der<br />
akustischen Eigenschaften des Materials der Wände.<br />
37 Lucier 2005, S.88<br />
38 siehe Supper 1997 S. 122f.<br />
30
Hall<br />
Obwohl das Phänomen des Halls sich bei detaillierter Analyse aus Veränderungen im<br />
Frequenzgang, in der Zeit, im Raum und im Pegel zusammensetzt, soll in dieser Arbeit<br />
die Einordnung unter der Kategorie der räumlichen Veränderung geschehen. Unser Ge-<br />
hör bildet nämlich bei der Wahrnehmung von natürlichem Nachhall und auch bei künst-<br />
lichem Hall, der an natürliche Phänomene angelehnt ist, in erster Linie Assoziationen zu<br />
räumlichen Strukturen. Der wahrnehmungsorientierte Ansatz soll hier, wie bereits dar-<br />
gelegt, im Vordergrund stehen. Selbst bei intensiver Auseinandersetzung und viel Trai-<br />
ning erreicht die diskrete auditive Erfassung der Strukturen des Pegels, des<br />
Frequenzgangs und des Zeitverlaufs im Hall nie eine annähernde Qualität und Präzision<br />
wie die intuitive Erfassung der räumlichen Strukturen eines Halls.<br />
Die Entwicklung der Tontechnik war eine notwendige Voraussetzung, um den Nachhall<br />
auch ohne Berücksichtigung der realen Raumakustik gestaltbar und kompositorisch<br />
nutzbar zu machen, um ihn flexibel auch innerhalb von Werken und kleinerer Zeitein-<br />
heiten zum Einsatz zu bringen, und um sogar nicht real existierende Räume simulieren<br />
zu können.<br />
Zunächst wurde mit der elektroakustischen Übertragung durch Mikrofon, Verstärker<br />
und Lautsprecher die Möglichkeit gewonnen, auch lokal entkoppelte Räume mit beson-<br />
derer Akustik als Übertragungssystem zu nutzen und so, beispielsweise durch die Nut-<br />
zung von eigens gebauten Hallräumen, mit in die <strong>Musik</strong> einzubeziehen. 39<br />
Die Erfindung von Hallplatten, Hallfedern und Hallfolien als ebenfalls analogen Über-<br />
tragungssystemen erlaubten die vollständige Loslösung von real existierenden Räumen<br />
und stellten somit die ersten simulierten Räume dar. Allerdings mußten zumindest Hall-<br />
platten weiterhin in akustisch isolierten Räumen platziert werden, um Störungen zu ver-<br />
meiden.<br />
Erst die Einführung von digitalen Hallgeräten in den siebziger Jahren führte zur Mög-<br />
lichkeit einer umfangreicheren Nutzung des Halls als Parameter der Komposition. Erst<br />
nun wurde es sinnvoll, einzelne Parameter von Nachhall in numerische Werte zu fassen,<br />
die dann unabhängig voneinander zur Generierung künstlichen Halls genutzt werden<br />
39 vgl. Arbeit mit der realen Raumakustik<br />
31
konnten. Bei analoger Hallerzeugung mußten nicht nur die akustischen Eigenschaften<br />
der hallerzeugenden Systeme gemessen und dokumentiert werden, sondern zudem bei<br />
jeder Reproduktion wieder ein adäquat gebauter Hallerzeuger gefunden werden. Digita-<br />
le Hallerzeugung ermöglicht heutzutage zudem eine wesentlich größere Variationsbreite<br />
innerhalb eines Gerätes und den Einsatz von künstlichem Hall, der in realen Räumen<br />
nicht zu erzeugen ist.<br />
Für die Charakterisierung von künstlichem Nachhall haben sich die Parameter der<br />
Raumakustik, wie sie zur Beschreibung natürlicher Räume üblicherweise zu finden<br />
sind, weitestgehend etabliert, vor allem in standardisierten digitalen Hallgeräten. Nur<br />
stellt sich aufgrund der Fülle dieser Parameter die Frage nach ihrer jeweiligen Relevanz<br />
<strong>für</strong> eine Übertragbarkeit zur Realisierung in verschiedenen realen Räumen.<br />
Zunächst ist es einleuchtend, daß die Wahrnehmbarkeit von künstlichem Hall in einem<br />
Saal entscheidend davon abhängig ist, inwieweit dieser sich vom natürlicherweise im<br />
Raum entstehenden Hall unterscheidet. Wenn der Aufführungsraum selbst bereits eine<br />
üppige Akustik bietet, werden nuancierte Veränderungen im Kunsthall wesentlich un-<br />
auffälliger und schwerer zu differenzieren, häufig nur noch, indem dieser unverhältnis-<br />
mäßig laut und überzeichnet abgemischt werden muß. Daher empfiehlt es sich allein aus<br />
Gründen der Gestaltbarkeit sowie der Übertragbarkeit der akustischen Parameter <strong>für</strong> die<br />
Aufführung von Werken mit expliziten klanglichen und zeitstrukturellen Anforderun-<br />
gen an den Nachhall recht trockene und klanglich neutrale Aufführungsräume zu nut-<br />
zen. Auch die Dämpfung der gegebenen realen Raumakustik ist hier<strong>für</strong> häufig in<br />
Betracht zu ziehen.<br />
Da in der Realität häufig Aufführungen unter ungünstigen akustischen Bedingungen<br />
stattfinden müssen, bleiben nur wenige akustische Parameter übrig, die sich in Addition<br />
mit der realen Raumakustik <strong>für</strong> eine Wiedererkennbarkeit von künstlichem Hall eignen.<br />
Dazu gehört erstens die Länge des Halls, die als Nachhallzeit angegeben wird. Da diese<br />
gemittelt in der Realität von Konzerträumen außer in Kirchen nur selten über 3 s liegt,<br />
in Konzertsälen in der Regel bei ca. 1,5-2,5 s 40 und in Theatern und Opern noch sogar<br />
40 Meyer 1999, S.161ff.<br />
32
deutlich darunter 41 , ist es naheliegend, bei längeren Dauern des künstlichen, zugefügten<br />
Halls diesen in nahezu jedem Aufführungsraum adäquat zur Geltung bringen zu können.<br />
Zu beachten ist allerdings, daß bei großer Nachhallzeit das Risiko von Rückkopplungen<br />
deutlich zunimmt, da der Pegel des Halls ansteigt und so der Abstand von Stör- und<br />
Nutzpegel auch am Ort des Mikrofons geringer wird.<br />
Zweitens kann die Klangfarbe des Halls in Form von Pegelunterschieden und Abkling-<br />
dauern von einzelnen Frequenzgruppen gegenüber deren Summe als Parameter gelten.<br />
Auch hier muß diese natürlich in Addition zur Klangfarbe des Aufführungsraums gese-<br />
hen werden und eventuell daraufhin modifiziert werden. In der Praxis kann man sich die<br />
Angabe einer Filterkurve des Halls vorstellen, um beispielsweise einige künstliche<br />
Raummoden zu betonen oder zu unterdrücken, oder aber um Luftabsorption bei hohen<br />
Frequenzen zu simulieren. Beachtenswert ist, daß der Frequenzverlauf der „Early-<br />
Decay-Time“, die den Pegelabfall über die ersten 10 dB als Grundlage nimmt und auf<br />
60dB Pegelabfall umrechnet, im Bereich von 125 bis 2000 Hz besonders charakteris-<br />
tisch <strong>für</strong> die Klangfärbung durch den Hall ist. 42<br />
Die Betrachtung von künstlichen frühen Reflexionen erscheint mir in Hinsicht auf die<br />
Realisierbarkeit in verschiedenen Räumen problematisch, da selbst bei wenig halligen<br />
Räumen meist einige ausgeprägte frühe Reflexionen wahrzunehmen sind, die bereits auf<br />
die realen Raumdimensionen und architektonischen Gegebenheiten schließen lassen.<br />
Zudem sind diese an verschiedenen Punkten im Raum extrem unterschiedlich, da bereits<br />
recht große Laufzeiten sowohl der realen Reflexionen als auch der Signale von den<br />
Lautsprechern entstehen. Durch ein Zumischen künstlich erzeugter früher Reflexionen<br />
ergibt sich ein Reflexionsmuster, daß sowohl den realen als auch den künstlichen Raum<br />
in seinen Dimensionen darstellt, und man wird das irritierende Gefühl von zwei Räu-<br />
men bekommen, die gleichzeitig vorhanden sind.<br />
Der Einsatz eines präzise bestimmten Predelays dürfte ebenfalls aus Gründen der vor-<br />
handenen Laufzeiten nicht so ausschlaggebend sein, wie beispielsweise bei Aufnahmen,<br />
bei denen nur ein Hörplatz geschaffen wird (wenn er auch in der Realität des Raums<br />
nicht vorhanden ist). Vielmehr ist hier die Anpassung auf den realen Aufführungsraum<br />
vonnöten, um die Verzögerung des künstlichen Nachhalls mit den frühen Reflexionen<br />
41 Meyer 1999, S. 183ff.<br />
42 Lehmann, zit. nach Meyer 1999 S. 150<br />
33
des realen Raumes in sinnvoller Weise zusammenzufügen.<br />
Die Angabe der Raumgröße als Parameter nimmt meist direkten Einfluß auf die Nach-<br />
hallzeit, verändert aber auch die Reflexionsstruktur des künstlichen Halls. Sie mag zur<br />
Dokumentation als grobe Angabe sinnvoll sein, aber zur präzisen Nachbildung ist sie<br />
aufgrund ihrer ungenauen Definition meist nicht ausreichend.<br />
In den letzten Jahren hat sich zunehmend die Faltung als weitere Form der digitalen<br />
Hallerzeugung etabliert, die erst neuerdings durch die enorm gestiegene Rechenkapazi-<br />
tät auch im Live-Einsatz möglich wird. Da hier sämtliche Informationen zur Erzeugung<br />
des immer identischen Halls in Form einer Impulsantwort des zu erzeugenden künstli-<br />
chen Raumes vorliegen, wird sich in diesem Zusammenhang die Übertragung von<br />
Räumlichkeiten als wesentlich praktikabler darstellen, als es mit sämtlichen vorherigen<br />
Methoden möglich war. Gespeichert werden muß nur die Impulsantwort, die in Form<br />
eines Soundfiles vorliegt, denn das gesamte Verfahren zur Errechnung des Halls ist klar<br />
und einfach mathematisch definiert und jederzeit wieder nachzuvollziehen. Zu beachten<br />
bleibt, wie bei aller künstlicher Hallerzeugung, die Anpassung der künstlich erzeugten<br />
Räumlichkeit auf die real vorhandene, aber auch hier findet sich inzwischen die Mög-<br />
lichkeit, in Programmen <strong>für</strong> Faltungsoperationen die Impulsantwort derart zu verändern,<br />
daß einzelne klangliche oder zeitliche Parameter modifiziert werden können.<br />
Durch die gestiegene Leistung von Computern ist in den letzten Jahren auch die von<br />
Akustikern gerne genutzte Auralisation von Räumen in rechnergestützten Systemen<br />
echzeitfähig geworden. Dieses Verfahren, das eine modellbasierte Berechnung des<br />
akustischen Verhalten eines Raumes anhand der Angabe von geometrischen und akusti-<br />
schen Eigenschaften ermöglicht, kann ebenfalls zur Erzeugung von künstlichem Hall<br />
genutzt werden und bietet gegenüber allen bisher vorgestellten Methoden den Vorteil,<br />
daß die Abstrahlcharakteristik der Schallquelle mit in die Berechnung des Halls einflie-<br />
ßen kann. Der Einsatz dieses Verfahrens zur Hallerzeugung bietet sich unter dem<br />
Aspekt der Reproduzierbarkeit von Hall deswegen an, weil seine Berechnung unter Zu-<br />
hilfenahme der eingegebenen Raumabmessungen sowie der akustischen Eigenschaften<br />
von Raum und Schallquelle erfolgt. Diese Daten liegen in Textform vor und können so-<br />
mit leicht archiviert werden. Allerdings ist zu erwähnen, daß zur Anwendung der Aura-<br />
34
lisation stets die entsprechenden Modelle programmiert werden müssen, was zumindest<br />
derzeit noch einigen Aufwand bedeutet. Vielleicht werden hier<strong>für</strong> in den kommenden<br />
Jahren ja weitere Anwendungshilfen entstehen, die den Umgang mit der Auralisation<br />
beschleunigen können, um sie auch in der Live-Elektronik besser einsetzen zu können.<br />
Weitere resonierende Systeme<br />
In zeitgenössischer <strong>Musik</strong> finden sich neben realen und virtuellen Räumen außerdem<br />
vielfältige weitere Resonanzsysteme, die zur Übertragung und Transformation von<br />
Klängen genutzt werden und hallähnliche Eigenschaften besitzen. Auf rein akustischer<br />
Basis tritt beispielsweise der Flügel mit einer vorgegebenen Struktur freischwingender<br />
Saiten auf, in den ein Instrument, das wegen ausreichenden Schalldrucks vorwiegend<br />
Bläser ist, hineinspielt. Dieses Prinzip wird auch im Zusammenhang mit elektroakusti-<br />
scher Übertragung eingesetzt, z.B. bei Boulez „Dialogue de l'ombre double“ <strong>für</strong> Klari-<br />
nette und Elektronik. In einem akustisch vom Spielort getrennten Raum wird ein Flügel<br />
mit niedergedrücktem Pedal aufgestellt, ein Lautsprecher unter dem Flügel regt dieses<br />
schwingende System mit Signal von live gespielten Passagen der Klarinette an, und ein<br />
Mikrofon über dem Flügel überträgt die Resonanzen <strong>für</strong> eine Wiedergabe in den Kon-<br />
zertsaal zurück.<br />
Abb. 3: Flügel als Resonanzraum bei Boulez<br />
35
Des weiteren gibt es den Fall, daß Lautsprecher auf resonierende Instrumente, vorzugs-<br />
weise des Schlagzeugs, gelegt oder geklebt werden, um diese zur Übertragung zu nut-<br />
zen. Dies geschieht beispielsweise bei „Music for Solo Performer“ von Alvin Lucier,<br />
wobei vom Solisten erzeugte Alpha-Gehirnwellen verstärkt werden, über auf diverse<br />
Idiophone und Membranophone geklebte Lautsprecher wiedergegeben werden und so<br />
überhaupt erst hörbar werden.<br />
Prinzipiell lassen sich alle konstant resonierenden Systeme auch durch die oben genann-<br />
te Faltung simulieren, wenn es gelingt, eine Impulsantwort des Systems aufzuzeichnen.<br />
Dies ist im Falle des genannten Stückes von Boulez auch bereits zur Anwendung ge-<br />
kommen, dadurch ließ sich sogar unerwünschtes Übersprechen zwischen Lautsprecher<br />
und Mikrofon vermeiden, welches das Resonanzsystem Flügel umging. Es ist beim Er-<br />
satz von resonierenden Systemen durch Faltung nur zu bedenken, daß dadurch dann ein<br />
wesentlicher Teil der szenischen Wirkung verändert wird, wenn das entsprechende reso-<br />
nierende System sich auf der Bühne befindet und Teil der Inszenierung der Interpretati-<br />
on ist.<br />
Verräumlichung<br />
Unter dem Begriff der Verräumlichung oder Spatialisierung lassen sich alle Vorgänge<br />
zusammenfassen, die die traditionelle frontale Ordnung von Instrumenten und anderen<br />
Klangquellen gegenüber dem Zuhörer aufheben und die Erscheinungsweise von Schall-<br />
quellen im Raum hinsichtlich deren Lokalisierung um das Publikum herum anordnen.<br />
Zwar gab es bereits in der Tradition der europäischen Kunstmusik immer wieder Ten-<br />
denzen zur räumlichen Verteilung von Instrumenten, jedoch werden durch die Einbezie-<br />
hung von elektronischen Geräten einerseits und der seriellen Kompositionstechnik<br />
andererseits wesentliche Möglichkeiten zur kompositorischen Nutzung der Verräumli-<br />
chung als einer den anderen Toneigenschaften gleichberechtigten musikalischen Quali-<br />
tät überhaupt erst geschaffen. Daß dies wenig mit der Verräumlichung früherer <strong>Musik</strong><br />
gemeinsam hat, hat Karlheinz Stockhausen 1959 in seinem Artikel „<strong>Musik</strong> im Raum“<br />
beschrieben:<br />
36
„In der Komposition „Gesang der Jünglinge“ habe ich versucht, die Schallrichtung und die Bewegung der<br />
Klänge im Raum zu gestalten und als eine neue Dimension <strong>für</strong> das musikalische Erlebnis zu erschließen.<br />
[...] Von welcher Seite, mit wievielen Lautsprechern zugleich, ob mit Links- oder Rechtsdrehung, teilwei-<br />
se starr und teilweise beweglich die Klänge und Klanggruppen in den Raum gestrahlt werden: das alles ist<br />
<strong>für</strong> das Verständnis dieses Werkes maßgeblich. [...] Die Raumposition der Töne spielte ja bis dahin in der<br />
<strong>Musik</strong> überhaupt keine aktive Rolle; man empfand sie deshalb als eine „ganz andere“ klangliche Eigen-<br />
schaft, die wohl kaum je dazu in der Lage wäre, über die zeitlichen Toneigenschaften zu dominieren.<br />
(Das hat sich mittlerweile grundlegend geändert, und wir bemerken mehr und mehr, wie sich alle musika-<br />
lischen Vorstellungen in zunehmendem Maße verräumlichen)“ 43<br />
Unter Einbeziehung von elektroakustischer Übertragungstechnik lassen sich prinzipiell<br />
zwei Arten der Verräumlichung unterscheiden, statische und dynamische (also<br />
bewegte).<br />
Statische Verräumlichung wird durch jede Wiedergabe oder Verstärkung von akusti-<br />
schen Signalen im Aufführungsraum verursacht, die eine feste Lokalisation der jeweili-<br />
gen Klangquellen um den Hörer herum ermöglicht, sei es durch Lautsprecher am Ort<br />
der Klangquelle oder durch Phantomschallquellen im Raum.<br />
Dynamische Verräumlichung verlangt zudem, daß die elektronisch zu übertragenden Si-<br />
gnale entweder manuell oder automatisch in ihrer Zuordnung zu unterschiedlichen Laut-<br />
sprechern (Routing) während der Übertragung verändert werden. Dies kann sowohl in<br />
Schritten als auch sukzessive geschehen. Automatisiertes Routing wurde überhaupt erst<br />
durch die Einführung von spannungsgesteuerten Verstärkern und entsprechender Syste-<br />
me zur Aufzeichnung und Wiedergabe der Steuerspannungen möglich.<br />
Anbei sei bemerkt, daß bereits der Einsatz von traditioneller Stereo-Panorama-Regelung<br />
bei Anwendung auf im Raum verteilte Lautsprecher zur dynamischen Verräumlichung<br />
genutzt werden kann.<br />
Die Vorgänge zur Verräumlichung lassen sich sehr klar definieren und ebenso auch in<br />
die Überlegungen zur Reproduktion integrieren. Zunächst muß festgelegt werden, wel-<br />
ches Signal zu verräumlichen ist. Das können Informationen von einem Zuspielband<br />
sein, live erklingende Instrumente oder jede weitere Audio-Information, die am Ort der<br />
Elektronik zur Verfügung steht. Weiterhin muß verdeutlicht werden, wo dieses Signal<br />
43 Stockhausen 1959 S. 60f.<br />
37
im Raum erklingen soll, am besten auch, in welcher Art der Lokalisation, d.h. ob als<br />
Phantomschallquelle oder als reale Schallquelle durch einen dort positionierten Laut-<br />
sprecher. Der Einfluß der Richtcharakteristik der Lautsprecher und der Notwendigkeit<br />
der Beschallung eines größeren Areals im Raum läßt sich nicht immer zufriedenstellend<br />
lösen, weil häufig einzelne Lautsprecher zu nah am Publikum plaziert werden müssen,<br />
vor allem Phantomschallquellen werden in ihrer Lokalisation durch die entstehenden<br />
Laufzeit- und Pegelunterschiede im Publikum verzerrt, und auch die Überlagerung von<br />
natürlichem Schallfeld und der elektronisch zugefügten Signale ist an verschiedenen<br />
Hörplätzen oft ungleichmäßig verteilt.<br />
Bei dynamischer Verräumlichung ist es zusätzlich notwendig, Zeitpunkt und Geschwin-<br />
digkeit der zu vollführenden Bewegung festzuhalten. Bei simplen Bewegungen werden<br />
Lautsprecher sukzessive angesteuert, deshalb sollte bei diesen Klangbewegungen auch<br />
die Art der Überblendung von einem zum nächsten Status festgehalten werden.<br />
Abb. 4: Prinzipschaltbild des HaLaPHONs mit steuernden Pegelkurven<br />
38
Dies kann zunächst durch die Angabe von Pegelkurven der einzelnen Lautsprecher als<br />
zeitabhängigen Funktionen geschehen, wie es Hans Peter Haller und Peter Lawo in ihr<br />
seit 1971 entwickeltes Halaphon (HAllerLAwoPHON) als grundlegendes Prinzip inte-<br />
grierten. Die Speicherung von Pegelkurven in der beschriebenen Weise stellt dann aller-<br />
dings die Bedingung, daß die Lautsprecher exakt im vorgeschriebenen Setup installiert<br />
werden müssen, um die zuvor programmierten Abläufe ebenso wieder abzubilden.<br />
Als wesentlich universeller und auf variierte Lautsprechersetups anwendbar stellt sich in<br />
diesem Zusammenhang der Einsatz von vektorbasierter Darstellung der Klangbewegun-<br />
gen dar, die bei Systemen auf Grundlage von Ambisonics zur Anwendung kommt. Dies<br />
ist eine mathematische Methode zur punktbezogenen Darstellung eines dreidimensiona-<br />
len Schallfelds, die Anfang der 1970er Jahre von einer Gruppe um Michael A. Gerzon<br />
und Peter Fellgett entwickelt wurde und auf vektorieller Basis arbeitet. In seiner ein-<br />
fachsten Form, Ambisonics erster Ordnung, wird das Schallfeld im sogenannten B-For-<br />
mat mit vier Werten dargestellt, einem richtungsunabhängigen Schallpegelwert sowie<br />
den Schallschnellewerten in den drei Raumdimensionen, ein dynamisches System natür-<br />
lich als zeitabhängige Funktion. Bei diesem Prinzip wird jedes Lautsprechersignal <strong>für</strong><br />
das Schallfeld aus den vektoriellen Angaben zur Bewegung des Klangs berechnet, folg-<br />
lich kann auch eine geänderte Lautsprecherposition in kurzer Zeit neu berechnet wer-<br />
den, inzwischen sogar dank schneller rechnergestützter Systeme in Echtzeit.<br />
Die Darstellung der Klangbewegung wird also unabhängig von den räumlichen Bege-<br />
benheiten eines konkreten oder idealen Raums dokumentierbar.<br />
Zu einem realistischen Eindruck der Bewegung von Klang im Raum mit Hilfe eines fes-<br />
ten Lautsprechersetups tragen weiterhin die Berücksichtigung von entfernungsabhängi-<br />
gen Phänomenen bei, die auch bei realen Bewegungen zu beobachten sind,<br />
insbesondere Doppler-Effekt, Absorption durch die Luft und das Verhältnis von Direkt-<br />
schall, Diffusschall und frühen Reflexionen. Sowohl bei späteren Generationen des<br />
Halaphons 44 als auch beim „Spat“ des IRCAM als Beispiel <strong>für</strong> eine vektorbasierte Rea-<br />
lisation sind diese Phänomene vorgesehen. Dabei ist der Doppler-Effekt als Tonhöhen-<br />
44 Haller 1995 Bd. 1, S. 79ff.<br />
39
funktion, die Luftabsorption als spektrale Filterkurve und die Zusammensetzung des<br />
Schallfelds als Parameter künstlichen Nachhalls zu betrachten und auch als solche<br />
dokumentierbar. 45<br />
Ein nicht zu vernachlässigender praktischer Aspekt der Steuerung bei vektorbasierten<br />
Raumsteuerungssystemen ist die einfache Umsetzbarkeit in graphische Benutzeroberflä-<br />
chen oder vektorbasierte Controller, die sehr veranschaulichend und intuitiv genutzt<br />
werden können.<br />
Ein schönes Beispiel <strong>für</strong> auskomponierte dynamische Verräumlichung mit präzisen An-<br />
gaben zur Realisierung dieser Verräumlichung ist in Pierre Boulez „Dialogue de l'ombre<br />
double“ <strong>für</strong> Klarinette und Live-Elektronik zu finden. Die Einsätze werden in der Parti-<br />
tur numeriert und das Routing wird durch die direkte Angabe der zu nutzenden Laut-<br />
sprecher ebenfalls als Nummern notiert.<br />
Abb. 5 a+b: Lautsprecherdisposition und dynamische Verräumlichung bei Boulez<br />
45 siehe jeweils dort<br />
40
2.2.3.3 Frequenzbereich<br />
Bei der Klangveränderung in der Frequenzdomäne gibt es zwei Bereiche, die sich in ih-<br />
rer Konsequenz <strong>für</strong> die Wahrnehmung der Klänge unterscheiden. Erstens gibt es Prozes-<br />
se, die Veränderungen der wahrgenommenen Tonhöhe zur Folge haben, bei Geräuschen<br />
entsprechend Veränderungen der Lage im Frequenzspektrum, zweitens gibt es Prozesse,<br />
die Veränderung auf dem Gebiet der Klangfarbe, also der spektralen Zusammensetzung<br />
von Klängen, hervorrufen. Diese Unterteilung ist nicht <strong>für</strong> alle Veränderungsprozesse<br />
möglich, bei komplexeren Operationen sind oft auch beide Bereiche betroffen, jedoch<br />
ist bei einigen grundlegenden Prozessen eine Einordnung möglich und auch sinnvoll.<br />
Harmonizer / Pitch shifter<br />
Zur Veränderung der Tonhöhenwahrnehmung ist die naheliegendste Methode die har-<br />
monische (also logarithmische) Versetzung des gesamten Spektrums. Wie bereits im<br />
Zusammenhang mit Timestretching erwähnt, führt bei der einfachen Wiedergabe von<br />
gespeicherten Klängen die Änderung der Abspielgeschwindigkeit bei Tonbandmaschi-<br />
nen oder die Änderung der Auslesegeschwindigkeit (Samplingfrequenz) bei digitalen<br />
Systemen zu einer gekoppelten Änderung von Tonhöhe und Dauer: Geschieht die Wie-<br />
dergabe schneller, steigt die Tonhöhe, umgekehrt ebenso. Für eine wenig aufwendige<br />
Änderung der Tonhöhe muß man also die entsprechende Änderung der Zeitstruktur in<br />
Kauf nehmen, wie es beispielsweise bei Samplern der Fall ist. 46<br />
Um eine Änderung der Tonhöhe ohne Dehnung bzw. Stauchung der Zeitebene zu errei-<br />
chen, und somit ein System zu erlangen, daß <strong>für</strong> den Einsatz in Echtzeit geeignet ist,<br />
kommt auch hier digitale Signalverarbeitung zum Einsatz. Allerdings war dies mit den<br />
bereits erwähnten Springer-Tonbandmaschinen prinzipiell auch schon möglich. Heutzu-<br />
tage benutzt man hier in der Regel ebenfalls Granularsynthese. Zwar muß systembe-<br />
dingt auch bei diesen Prozessen eine Zwischenspeicherung stattfinden, doch kann in der<br />
Digitaltechnologie die Verarbeitung in so kurzer Zeit geschehen, daß sich die Latenz<br />
zwischen eingehendem Signal und Ausgabe des transponierten Signals auf die Dauer<br />
46 Dies ist auch der Grund da<strong>für</strong>, warum man bei der Erstellung von Samples über den gesamten Spielbereich<br />
von akustischen Instrumenten eine wesentlich bessere Qualität erhält, wenn man die Intervalle<br />
zwischen den gesampleten Tönen verringert.<br />
41
weniger Wellenlängen reduzieren läßt und somit im Bereich der ohnehin im Raum vor-<br />
handenen Laufzeiten zwischen Instrument, Lautsprechern und Reflexionen quasi in<br />
Echtzeit wahrgenommen wird.<br />
Die Tonhöhenveränderung wird meist entweder in traditionellen Intervallen und Cent<br />
oder prozentual angegeben.<br />
Ringmodulator<br />
Die Technik des Ringmodulators entstammt der analogen Nachrichtentechnik, wo sie<br />
insbesondere zur Signalübertragung genutzt wird. Zur Nutzung als Prozeß der Tonhö-<br />
henänderung besitzt sie das Charakteristikum, daß Spektren nicht logarithmisch, son-<br />
dern linear versetzt werden und somit das Resultat verglichen mit den Eingangssignalen<br />
inharmonische Versetzungen enthält.<br />
Es werden stets zwei Eingangssignale benötigt, die miteinander multipliziert werden,<br />
deren Spektren also addiert und subtrahiert werden. Häufig wird als eines der Eingangs-<br />
signale ein Sinuston benutzt, um das Resultat besser kalkulierbar zu machen, da das<br />
eine Spektrum dann konstant ist und nur aus einer Frequenz besteht. Um in diesem Fall<br />
nicht zwei resultierende Signale zu erhalten (durch Addition und Subtraktion) kann man<br />
durch Anwendung der Einseitenbandmodulation die Versetzung nur in eine Richtung<br />
erreichen. So kann die Ringmodulation als Prozeß zur Tonhöhenveränderung mit inhar-<br />
monischer Veränderung der spektralen Zusammensetzung funktionieren.<br />
Der Prozeß der Ringmodulation mit zwei komplexeren Eingangssignalen führt nur dann<br />
zu Ergebnissen, die als Tonhöhenversetzung wahrgenommen werden, wenn beide Si-<br />
gnale ein hinreichend grundtonlastiges Spektrum besitzen, ansonsten muß er eher dem<br />
Bereich der Klangfarbenänderung zugeordnet werden.<br />
Ergänzend zu erwähnen ist, daß es bei der Modulation mit einem Sinuston noch zwei<br />
Sonderfälle der Wahrnehmung gibt: Zum einen nimmt man durch einen Sinus mit ge-<br />
ringer Frequenz (kleiner als 15Hz) nur noch Amplitudenmodulation wahr, zum anderen<br />
sind bei Modulation von zwei Signalen mit sehr nah beieinanderliegenden Tonhöhen<br />
die Resultierenden in sehr extremen Frequenzbereichen und es entsteht die Wahrneh-<br />
42
mung von Schwebung um eine Tonhöhe zwischen den Eingangssignalen. 47<br />
Zur Dokumentation ist die Ringmodulation als mathematischer Prozeß eindeutig defi-<br />
niert, es muß nur angegeben werden, ob spezielle Effekte wie die genannte Einseiten-<br />
bandmodulation eintreten sollen.<br />
Filter<br />
Abb. 6: Ringmodulation bei „Drama“ von Vinko Globokar<br />
Der Einsatz von Filtern ist wohl die universellste Methode, die spektrale Zusammenset-<br />
zung von Signalen zu bearbeiten. Ursprünglich der Meßtechnik entstammend, wurden<br />
sie bereits seit den 50er Jahren in den Studios <strong>für</strong> elektronische <strong>Musik</strong> eingesetzt.<br />
Grundlegend betrachtet gibt es nur wenige Typen von Filtern, die auf einfachen analo-<br />
gen Schaltungen basieren.<br />
Hoch- und Tiefpaßfilter senken alle Signale unterhalb bzw. oberhalb einer definierten<br />
Grenzfrequenz mit einer Flankensteilheit ab, die in dB pro Oktave angegeben wird.<br />
Bandpaßfilter ermöglichen eine Anhebung oder Absenkung des Spektrums um eine<br />
Mittenfrequenz herum bzw. innerhalb von zwei Grenzfrequenzen, die Änderung des Pe-<br />
47 vgl. Ringmodulation ausführlich bei Haller 1995, Bd. 1, S. 26 ff.<br />
43
gels wird in dB angegeben, die Bandbreite als Güte Q.<br />
Bei diesen parametrischen Filtern reichen <strong>für</strong> die Definition eines Filters diese zwei<br />
bzw. drei Parameter aus, Grenzfrequenz und Flankensteilheit beim Hoch-/Tiefpaß sowie<br />
Mittenfrequenz, Anhebung/Absenkung und Güte beim Bandpaß.<br />
Es ist zu erwähnen, daß beim Einsatz dieser Filter in ihrer einfachen Form stets Phasen-<br />
verschiebungen einzelner Frequenzgruppen entstehen, die in der Regel nicht beabsich-<br />
tigt sind. Ihre Stärke ist von der Flankensteilheit der Filter abhängig. 48<br />
Durch die Erfindung digitaler Filter wurde es möglich, auch ungewöhnliche und kom-<br />
plexe Frequenzkurven zu realisieren, insbesondere durch Anwendung von FFT-Filtern,<br />
die auf FFT-Analyse und Resynthese basieren. Ebenso wurde es möglich, phasenlineare<br />
Filter zu bauen, die einheitliche Laufzeiten <strong>für</strong> alle Frequenzen besitzen.<br />
Im Allgemeinen läßt sich aber <strong>für</strong> alle diese Filter, wie auch sämtliche weiteren speziel-<br />
len Anwendungen von Filtern, die Angabe einer Übertragungskurve des Frequenzgangs<br />
zur Dokumentation eines Filters angeben. Sie kann dann je nach aktueller und verfügba-<br />
rer Technik neu realisiert werden. Wenn sie besonders zur Anwendung beitragen soll,<br />
kann auch die Kurve des Phasenganges über der Frequenz angegeben werden.<br />
Übertragung der Hüllkurve des Spektrums<br />
Ein weiterer beliebter Eingriff in die Zusammensetzung von Frequenzspektren ist die<br />
Übertragung von spektralen Hüllkurven von einem Klang auf einen anderen, auch als<br />
„Morphen“ von Klängen bezeichnet. Im Prinzip eine spezielle Form des Filterns, wird<br />
hier zunächst das Spektrum des modulierenden Signals analysiert, in einer Übertra-<br />
gungskurve über der Frequenz festgehalten und dann als Filter auf das zu modulierende<br />
Signal angewandt. Bei ausreichender Geschwindigkeit des Analyseteils ist die fortlau-<br />
fende Aktualisierung des Frequenzgangs gegeben und die Hüllkurvenübertragung wird<br />
in Echtzeit möglich.<br />
Das Prinzip der spektralen Hüllkurvenübertragung kam in analoger Form bereits früher<br />
48 Diese Phasenverschiebungen entstehen durch den Einsatz von kapazitiven und induktiven Bauteilen in<br />
Kombination, wie sie in den analogen Bandpaßfiltern eingesetzt werden.<br />
44
im Vocoder zur Anwendung. Hier wird das modulierende Signal zur Analyse durch eine<br />
Filterbank geschickt, der Pegel der einzelnen Bänder gemessen und mit Hilfe von<br />
Gleichrichtern und spannungsgesteuerten Verstärkern über eine identisch aufgebaute<br />
Filterbank auf ein Ersatzsignal aufmoduliert, das in der Regel künstlich erzeugt war<br />
(beispielsweise Rauschen).<br />
Abb. 7: Prinzip des Vocoders nach Dickreiter<br />
Zur exakten Definition der Übertragung der spektralen Hüllkurve ist eine Beschreibung<br />
des Analyseverfahrens notwendig, das zur Erlangung der Hüllkurve eingesetzt werden<br />
soll, ebenso das Verfahren, mit dem die Hüllkurve auf das Zielsignal übertragen wer-<br />
den soll. Heutzutage wird in beiden Fällen üblicherweise die FFT eingesetzt, da diese<br />
inzwischen auch in Echtzeit möglich ist.<br />
Verzerrung<br />
Analoge Verzerrung als ein Verfahren, das die Nichtlinearitäten von Tonbändern oder<br />
von Verstärkerkennlinien bei Übersteuerung ausnutzt, um damit die spektrale Zusam-<br />
mensetzung von Klängen zu verfremden, ist nur schwer in Parametern zu fassen, da die<br />
45
klanglichen Eigenschaften der analogen Bauteile, die verwendet werden, eben an diesen<br />
Grenzbereichen des ursprünglich vorgesehenen Übertragungsbereichs kaum zu bestim-<br />
men sind. So wäre es zwar denkbar, die Kennlinie eines Verstärkers oder eines Ton-<br />
bands anzugeben, um dann den exakten Wert der durch Übersteuerung erreichten<br />
Verzerrung zu errechnen, diese Methode ist aber weder praktikabel noch anschaulich.<br />
Die Verzerrung ist nun tatsächlich ein Prozeß zur Klangverformung, bei dem die Defi-<br />
nition kaum anhand von abstrakten Parametern geschehen kann, sondern exemplarisch<br />
erfolgen muß. Einzig die Angabe von dynamischen (also dynamikabhängigen) Filtern in<br />
Kombination mit einem dynamikabhängigen Obertongenerator wäre denkbar, doch we-<br />
der in ihrer Abstraktion aus einem bestehenden Kompressor noch in der Reproduktion<br />
sinnvoll.<br />
Gleiches gilt auch <strong>für</strong> digitale Verzerrung. Zwar ist hier durch den Zustand der eindeuti-<br />
gen Vollaussteuerung die theoretische Wellenform eines verzerrten Signals gut bere-<br />
chenbar, doch gilt hier wiederum, daß in diesem Grenzbereich die praktische Umset-<br />
zung ins Analoge zur Wiedergabe sehr abhängig von den D/A-Wandlern ist, da es sich<br />
um einen Bereich handelt, <strong>für</strong> den diese nicht entwickelt und optimiert wurden.<br />
2.2.3.4 Pegel<br />
Die Veränderung der Lautstärkepegel ist die vierte grundlegende Kategorie, in der qua-<br />
litative Änderungen in der <strong>Musik</strong> mit Elektronik vorkommen. So ist es auch kein Zufall,<br />
daß beim Mischpult als wohl unumstrittene Schalt- und Regelzentrale von Klangregie<br />
die meistgenutzte und augenfälligste Regelmöglichkeit der Einsatz der Fader zur Pegel-<br />
beeinflussung ist. Gerade durch die Möglichkeit der fernsteuerbaren und automatisier-<br />
baren Pegel hat sich ein großes Feld aufgetan, Manipulationen an Klängen<br />
vorzunehmen.<br />
Verstärkung<br />
Nicht nur elektronische <strong>Musik</strong>instrumente und elektronisch generierte oder modifizierte<br />
Signale bedürfen der Verstärkung, um überhaupt hörbar gemacht zu werden, sondern es<br />
46
hat sich herausgestellt, daß in vielen Fällen auch akustische Instrumente verstärkt wer-<br />
den müssen, um ihre akustischen Eigenschaften besser auf die Umgebung abstimmen zu<br />
können, insbesondere in Kombination mit Elektronik. Auf den künstlerisch-technischen<br />
Einsatz von Verstärkung und seine verschiedenen musikalischen und wahrnehmungsre-<br />
levanten Aspekte werde ich im Kapitel 3.1 detailliert eingehen. Daß aber durch den Ein-<br />
satz von regelbaren Widerständen und spannungsgesteuerten Verstärkern (VCAs) die<br />
Möglichkeit entstanden ist, live entstehende Klänge ferngesteuert in ihrer Lautstärke zu<br />
beeinflussen, ist ein zentraler technischer Aspekt der Verstärkung und soll deshalb hier<br />
erwähnt werden. Vor der Erfindung von Verstärkern gab es nur die Möglichkeit, durch<br />
akustische Tricks, wie beispielsweise Trichter, die Lautstärke von live erzeugten Klän-<br />
gen zu vergrößern. VCAs bieten nun die Möglichkeit, beliebige steuernde Komponen-<br />
ten zu nutzen, um die Pegel von Signalen zu regeln, die in elektronischer Form<br />
vorliegen.<br />
Kompressor/Limiter/Expander<br />
Die häufig unter „dynamics“ zusammengefassten Prozesse zur Veränderung der Dyna-<br />
mik von Signalen finden sich auch bei <strong>Musik</strong> mit Live-Elektronik in den technischen<br />
Setups wieder. Neben dem beliebten Einsatz von Kompressoren bei einfacher Verstär-<br />
kung von akustischen Signalen 49 können die genannten Prozesse auch vielfältig an ande-<br />
rer Stelle des Signalflusses eingesetzt werden, wo eine automatisierte Regelung der<br />
Pegel erwünscht ist.<br />
Kompressor und Limiter (Begrenzer) engen die Dynamik oberhalb eines bestimmten<br />
Schwellenwertes (Threshold) ein, Kompressoren dabei in einem definierten Verhältnis<br />
der Eingangs- zur Ausgangsdymanik (Ratio), Limiter hingegen gänzlich oberhalb des<br />
definierten Grenzpegels. Beide Prinzipien greifen also erst ein, wenn der absolute Pegel<br />
des Eingangssignals über dem definierten Threshold liegt, darunter wird die Dynamik<br />
des Signals nicht verändert.<br />
Da so die Spitzenpegel abgesenkt werden und das gesamte Signal leiser wird, ist übli-<br />
cherweise noch eine Regelmöglichkeit zur Anhebung des Pegels vorgesehen (Gain,<br />
49 siehe Kapitel 3.1 „Der künstlerische Umgang mit Verstärkung“<br />
47
auch automatisierbar als „Auto Gain“), die aber die spezifische Klangveränderung<br />
durch den Kompressor nicht weiter beeinflusst.<br />
Expander hingegen vergrößern die Dynamik, indem sie unterhalb eines Schwellenwer-<br />
tes den Pegel in einem definierten Verhältnis absenken. Diese werden ebenfalls als<br />
Threshold und Ratio bezeichnet.<br />
Es ist wichtig zu erwähnen, daß das bearbeitete Signal nicht notwendigerweise das steu-<br />
ernde Signal sein muß, sondern daß man ein zweites Signal zur dynamischen Steuerung<br />
zuführen kann.<br />
Weiterhin gibt es wesentliche Angaben zum zeitlichen Reaktionsverhalten oberhalb<br />
bzw. unterhalb des Threshold, da es sich herausgestellt hat, daß man die Veränderungen<br />
der Dynamik nur sinnvoll einsetzen kann, wenn man eine gewisse Zeit <strong>für</strong> den Regel-<br />
vorgang vorsieht. Die Parameter dieses Reaktionsverhaltens werden als Attack- und<br />
Release-Zeit angegeben. Manchmal finden sich auch zwei weiterere Parameter, einer,<br />
der ein Zeitpuffer zwischen Attack und Release einfügt und als Hold-Zeit bezeichnet<br />
wird, ein weiterer, der eine Glättung der Kompressions- bzw. Expansionskurve am<br />
Threshold, am sogenannten Knie, einstellen kann.<br />
Die wesentlichen Parameter <strong>für</strong> Kompressor, Expander und Limiter sind aber zusam-<br />
mengefasst: Threshold, Ratio (nicht beim Limiter), Attack- und Release-Zeit.<br />
Gate<br />
Eigentlich eine spezielle Form des Expanders, ist ein Gate, auch als „Noise Gate“ be-<br />
zeichnet, ein Prozeß, der unterhalb einer eingestellten Schwelle (Threshold) den Signal-<br />
fluß komplett unterbricht. Auch hier werden weiterhin Attack- und Release-Zeit<br />
angegeben, doch gibt es eine weitere Eigenschaft, durch die das Gate sich von den ande-<br />
ren „dynamics“ unterscheidet: Durch die Invertierung eines Gates erhält man einen Pro-<br />
zeß, der ein Signal nur unterhalb des Schwellwertes durchläßt, so kann in Kombination<br />
von einem invertierten und einem nichtinvertierten Gate bei gleichem Threshold ein Si-<br />
gnal ohne weitere Analyse auf dynamischer Ebene geteilt werden und so beispielsweise<br />
als Steuersignal eingesetzt werden. 50<br />
50 vergleiche Haller 1995 Bd. 1, S.68ff.<br />
48
2.2.4 Schallwandlung<br />
Abb. 8: Klangbewegung mit zwei Gates<br />
Eine der zentralen Aufgaben der Klangregie ist die Übertragung von akustischen Signa-<br />
len in die Apparaturen der Elektronik hinein und ebenso das rückwärtige Übertragen<br />
von Signalen, die aus der Elektronik herauskommen. In dieser Arbeit werde ich nur den<br />
Bereich der Schallwandler betrachten, speziell Mikrofone und Lautsprecher. Der Be-<br />
reich der Wandler, die beispielsweise Bewegungen erfassen und graphische Elemente<br />
projizieren können, wie sie bereits im Kapitel über Steuerung ansatzweise zur Sprache<br />
kamen, soll hier nicht untersucht werden, da sie nicht dem Bereich der Audiotechnik<br />
entstammen. Ebenso halte ich die Betrachtung von speziellen Schallwandlern, wie bei-<br />
spielsweise MIDI-Flügeln oder jegliche Art von selbstgebauten Schallwandlern, <strong>für</strong><br />
eine allgemein angelegte Untersuchung wie diese nicht <strong>für</strong> angemessen. Sie sind derart<br />
eigen, daß man sie nicht als allgemein verfügbar voraussetzen kann und im jeweiligen<br />
Fall des Einsatzes eine präzise Beschreibung <strong>für</strong> eventuellen Nachbau oder sogar das je-<br />
weilige Gerät mitliefern muß.<br />
Generell wird die Beschreibung des Einsatzes von Mikrofonen und Lautsprechern bei<br />
der konkreten Realisierung eines Werkes mit Live-Elektronik weniger präzise ausfallen<br />
und mehr Freiheiten bieten müssen als die Beschreibung der Geräte und Prozesse, die<br />
innerhalb der elektronischen Ebene genutzt werden. Das liegt zunächst daran, daß jedes<br />
eingesetzte akustische Instrument, wie auch jeder Aufführungsraum, unterschiedliche<br />
klangliche und bauliche Eigenschaften besitzt, wie auch jeder Interpret mit seinem In-<br />
49
strument anders umgeht und das akustische Resultat verschieden ist. Darüber hinaus ist<br />
durch die Vielfalt der auf dem Markt verfügbaren und sich auch ständig weiterentwi-<br />
ckelnden Mikrofone und Lautsprecher wesentlich weniger Kontinuität gegeben, als es<br />
bei Prozessen innerhalb des elektronischen Setups sein kann, die sich funktional abstra-<br />
hieren lassen. 51 Auch ist es naheliegend, daß bei der Wandlung von Schall in elektroni-<br />
sche Informationen und zurück wesentlich weniger präzise Vorgaben gemacht werden<br />
können, als es bei Verarbeitungsprozessen innerhalb der Elektronik der Fall sein kann.<br />
Die Prozesse zur A/D- bzw. D/A-Wandlung sind inzwischen derart präzise, daß in vie-<br />
len Fällen Unterschiede zwischen analoger und digitaler Signalverarbeitung nicht mehr<br />
über die Wahrnehmung differenziert werden können. Allerdings wird man nie ein idea-<br />
les Mikrofon bauen können, und eine Lautsprechermembran wird immer eine gewisse<br />
Trägheit besitzen, die sich auf das Impulsverhalten auswirkt. Bedingt durch die ver-<br />
schiedenen Konstruktionsprinzipien wie unterschiedliche Membrangröße oder Richt-<br />
charakteristik wird es immer klangliche Unterschiede zwischen Modellen geben, die<br />
sich aber typisieren lassen, beispielsweise durch diese Konstruktionsprinzipien. 52<br />
Es muß also <strong>für</strong> eine Dokumentation umso mehr angestrebt werden, die Funktion, die<br />
Mikrofone oder Lautsprecher übernehmen sollen, unabhängig von technischen Daten zu<br />
formulieren und, soweit es möglich ist, das klangliche Ergebnis der Schallwandlung zu<br />
beschreiben. Eine Angabe wie „Die Streicher sollen Live etwas lauter und gewagter<br />
klingen als auf der Einspielung“ 53 kann eine wesentlich präzisere Dokumentation sein<br />
als die exakte Vorschrift von Meßdaten der gesamten Signalkette.<br />
Demgegenüber lassen sich präzise Anforderungen an Mikrofone und Lautsprecher häu-<br />
fig erst nach der Erfahrung von vielen Proben und Konzerten, möglichst auch in unter-<br />
schiedlichen Sälen, derart formulieren, daß sie Rückschlüsse auf ihren generellen<br />
Einsatz <strong>für</strong> dieses Stück möglich machen. Dann kann auch die exemplarische Auflis-<br />
tung der eingesetzten Technik sehr hilfreich sein.<br />
51 Natürlich klingt auch jeder Hall-Algorithmus oder jedes Filter unterschiedlich, doch lassen sich innerhalb<br />
der Elektronik viele Prozesse finden, die sich über ihre Funktion zumindest theoretisch eindeutig<br />
beschreiben lassen, wie z.B. Delays, Harmonizer, Syntheseverfahren, usw.<br />
52 Siehe Kapitel 2.2.4.1 <strong>für</strong> Mikrofone und 2.2.4.2 <strong>für</strong> Lautsprecher<br />
53 Auszug der Aufführungsanweisungen in der Partitur zu Steve Reichs „Different Trains“ <strong>für</strong> Streichquartett<br />
und vorproduziertes Zuspielband<br />
50
2.2.4.1 Mikrofone<br />
Die Umsetzung von akustischen Signalen in elektrische Signale tritt in der <strong>Musik</strong> mit<br />
Live-Elektronik besonders häufig bei der Abnahme von akustischen Instrumenten auf,<br />
wesentlich seltener nur sollen Umgebungsgeräusche, Nebengeräusche oder ähnliches<br />
mikrofoniert werden. Als vorteilhaft erweist sich, daß man im allgemeinen eine um-<br />
fangreiche Hörerfahrung mit traditionellen Instrumenten voraussetzen kann, sei es im<br />
Rahmen von Aufnahmekritiken, Konzertbesuchen oder auch aus eigener Musizierpra-<br />
xis, bei der sich sowohl ein spezifisches Vokabular im Umgang mit den Instrumenten<br />
als auch gewisse Konventionen finden lassen, wie die Instrumente klingen sollen und<br />
welche Anweisungen da<strong>für</strong> zur Kommunikation geeignet sind. Auf Basis dieser Erfah-<br />
rungen, die außerdem durch die langjährige Tradition der Ausbildungen an <strong>Musik</strong>hoch-<br />
schulen stets weitervermittelt werden, läßt sich <strong>für</strong> viele Angaben zur Abnahme von<br />
akustischen Instrumenten bereits auf eine etablierte Sprache zurückgreifen, die aller-<br />
dings durchaus sehr instrumentenspezifisch oder auch spieltechnisch geprägt sein kann.<br />
Es sei nebenbei bemerkt, daß eine solche Tradition der instrumentenspezifischen Klang-<br />
konventionen und der entsprechenden Spieltechniken bei den elektronischen und elek-<br />
troakustischen Instrumenten wie Synthesizer und Sampler sich zumindest in der<br />
klassischen <strong>Musik</strong>tradition kaum finden läßt, eher noch in der Popmusik, bei der sich al-<br />
lerdings auch erst in jüngster Zeit gewisse Schulen ausbilden.<br />
Neben der Beschreibung der zu erreichenden Klanglichkeit gibt es aber weitere Anga-<br />
ben zur Mikrofonierung von Instrumenten, die sich recht gut dokumentieren und repro-<br />
duzieren lassen, wie beispielsweise die Positionierung der Mikrofone. Gut untersucht ist<br />
die Abstrahlcharakteristik bei den traditionellen akustischen Instrumenten 54 , so daß sich<br />
daraus auch Rückschlüsse auf die zu erreichende Klanglichkeit ziehen lassen. Gerade in<br />
der zeitgenössischen <strong>Musik</strong> werden zusätzlich viele Spieltechniken gefordert, die unge-<br />
wöhnlicher Mikrofonpositionen bedürfen. Deren Dokumentation kann in solchen Fällen<br />
sehr aufschlußreich <strong>für</strong> die zu erreichenden klanglichen Ergebnisse sein.<br />
Ebenso festgehalten werden sollte der Einsatz von bestimmten Mikrofonprinzipien, die<br />
auf Übertragungseigenschaften des Mikrofons schließen lassen. Nicht nur der Nahbe-<br />
sprechungseffekt bei Nierencharakteristik, die verschiedene Richtwirkung von Mikrofo-<br />
54 vgl. z.B. Meyer 1999 S. 107-142<br />
51
nen oder der Unterschied von großen und kleinen Membranen, sondern gerade die Nut-<br />
zung von Kontaktmikrofonen sind gute Beispiele <strong>für</strong> Techniken der Mikrofonierung,<br />
die in jedem Fall zu dokumentieren sind, wenn sie aus Gründen des klanglichen Ergeb-<br />
nisses explizit ausgewählt wurden.<br />
2.2.4.2 Lautsprecher<br />
Viele klangliche Anforderungen, die im Umgang mit Mikrofonen als <strong>für</strong> die Dokumen-<br />
tation nötig herausgearbeitet wurden, treffen in gleichem Maße auf die Auswahl der<br />
Lautsprecher zu, da insbesondere beim Einsatz von live bearbeiteten oder nur verstärk-<br />
ten Instrumenten die gesamte Signalkette <strong>für</strong> das klangliche Ergebnis verantwortlich ist.<br />
Darüber hinaus gilt es aber <strong>für</strong> den Einsatz von Lautsprechern immer, den Raum mit zu<br />
berücksichtigen. Zunächst hat die Positionierung und Auswahl der Lautsprecher einen<br />
wesentlich höheren Einfluß auf den beim Zuhörer erzeugten Eindruck von Räumlichkeit<br />
als die entsprechenden Parameter bei Mikrofonen. Der Grund hier<strong>für</strong> ist die unter Um-<br />
ständen recht große Entfernung der Zuhörer von den Lautsprechern, während die<br />
Mikrofonposition bei der Weiterverarbeitung <strong>für</strong> Live-Elektronik fast immer sehr nah<br />
beim Instrument liegt. So beeinflußt die Positionierung und Richtwirkung der Lautspre-<br />
cher recht stark den Eindruck der Räumlichkeit, während die Richtwirkung und Positio-<br />
nierung bei Mikrofonen eher <strong>für</strong> die Signaltrennung und <strong>für</strong> die abgenommene<br />
Klanglichkeit verantwortlich ist. Für die Höhe der Rückkopplungsgrenze bei Verstär-<br />
kung sind beide Richtwirkungen und Positionierungen gleichermaßen wichtig.<br />
Hinsichtlich der Lautsprecher läßt sich weiterhin anfügen, daß die Abstrahlcharakteris-<br />
tik und die Positionierung ebenfalls von der Disposition des Publikums im Raum, also<br />
von der Verteilung der zu beschallenden Bereiche, abhängen muß. 55 Diese Frage kann<br />
bei der Planung eines Stückes natürlich nur begrenzt berücksichtigt werden, es sei denn,<br />
man schreibt einen ganz bestimmten Raum oder exakte Sitzpositionen vor, die bei jeder<br />
Realisierung eingehalten werden müssen, unabhängig vom jeweiligen Aufführungs-<br />
raum. Sollen die Lautsprecher allerdings nach Kriterien einer bestimmten Klanglichkeit<br />
oder definierter Lokalisation im Raum ausgewählt werden, so sollte man dies dokumen-<br />
55 siehe hierzu auch im Kapitel 3.2 „Aufführungsräume“<br />
52
tieren. Für jeden Aufführungsraum muß dann in Vorbereitung eines Konzertes ohnehin<br />
ein adäquates Beschallungskonzept erstellt oder modifiziert werden. Angaben dazu,<br />
welche Bereiche des Publikums aus welcher Richtung und Höhe welche Signale idea-<br />
lerweise wahrnehmen sollten, sind dabei in der Regel hilfreicher, als definitive Vorga-<br />
ben zu Typen oder Positionierung von Lautsprechern.<br />
Eine prinzipielle Ausnahme bildet hierbei der Einsatz von Lautsprechern zum Zweck<br />
des Monitoring, da es in diesem Falle alleine um die gute Verständigung und Hörbarkeit<br />
von Signalen auf der Bühne geht. Monitoring soll so wenig wie möglich Einfluß auf das<br />
akustische Geschehen im Zuschauerraum haben und wird auch stets daraufhin einge-<br />
richtet. Sowohl das Konzept als auch der Einsatz von Monitoring sind immer abhängig<br />
vom Aufführungsraum, aber auch vom Geschmack der Instrumentalisten, die das Moni-<br />
toring benötigen. Daher kann man beim Monitoring ausschließlich auf individuelle Si-<br />
tuationen bezogen arbeiten, stets ist ein Kompromiß zu finden zwischen einer guten<br />
Arbeitsumgebung auf der Bühne und so wenig wie möglich störenden Einflüssen im<br />
Zuschauerraum. So ist es wenig sinnvoll, allgemeine Vorschriften zum Monitoring zu<br />
machen, allenfalls der Hinweis auf häufig entstehende Kommunikationsprobleme und<br />
ihre Beschreibung aus der Erfahrung im Umgang mit dem Stück sind sehr hilfreich <strong>für</strong><br />
eine Dokumentation.<br />
Zusammenfassend läßt sich also sagen, daß mit Ausnahme von Monitoring <strong>für</strong> die Laut-<br />
sprecher eher die Funktion im Raum hinsichtlich des Resultats <strong>für</strong> das Publikums zu be-<br />
schreiben ist, <strong>für</strong> die Mikrofone eher die Funktion am Instrument hinsichtlich des in die<br />
Elektronik eingehenden Signals.<br />
2.2.5 Steuerung<br />
Die Betrachtung der Elemente von Technik, die zur Steuerung der bisher besprochenen<br />
Prozesse angewandt werden, ist so umfangreich, daß hier nur die unterschiedlichen<br />
Prinzipien besprochen werden sollen, unter denen sich Steuerelemente zusammenfassen<br />
lassen. Es gibt Forschungsgruppen, Teile der Audioindustrie und spezialisierte <strong>Institut</strong>e,<br />
die sich sehr umfangreich mit dem Erstellen von „Controllern“, wie die Hardware-<br />
53
Apparaturen zur Steuerung genannt werden, mit dem Entwickeln von Methoden zur ge-<br />
stischen Steuerung und der Forschung an den zugehörigen Schnittstellen (Interfaces)<br />
zur Datenübertragung beschäftigen. 56<br />
Da jeder Controller unterschiedliche Konfigurationen von Steuerelementen enthält, de-<br />
nen jeweils verschiedenste Parameter entnommen werden können, gibt es zwei zentrale<br />
Fragen beim Einsatz zur Steuerung von den bereits besprochenen Prozessen. Erstens<br />
muß definiert werden, wie aus dem Controller die entsprechenden Parameter entnom-<br />
men werden sollen. Dies ist allerdings nur bei konkreter Realisierung von Controllern<br />
wichtig, oder hinsichtlich der von uns betrachteten Reproduzierbarkeit ebenso bei Nach-<br />
bauten von Controllern. Auch bei Parametergewinnung aus analysierten Audio- oder<br />
Videodaten ist dieser Prozeß zu definieren. Zweitens muß die Zuordnung der Parame-<br />
ter der Steuereinheit zu den Parametern des gesteuerten Prozesses festgelegt werden.<br />
Dieses Zuordnen bezeichnet man auch als Mapping von Parametern.<br />
Unmittelbare Steuerung<br />
Wird ein Prozeß der Audiobearbeitung, -generierung oder -zuspielung direkt über einen<br />
Controller gesteuert, ist also <strong>für</strong> den Interpreten die direkte Verbindung von Daten aus<br />
seiner Steuereinheit und von gesteuerten Parametern gegeben, dann kann man von di-<br />
rekter oder unmittelbarer Steuerung sprechen. Beispielsweise kann die Tonhöhenangabe<br />
über eine Klaviatur oder die Einordnung im Panorama über einen Drehregler in dieser<br />
Form vorliegen. Zur unmittelbaren Steuerung versucht man, wie in den genannten Bei-<br />
spielen, häufig Steuerelemente zu konstruieren, die an analogen Vorbildern orientiert<br />
sind, da der Interpret in diesem Falle auf Erfahrungen und Training mit entsprechenden<br />
analogen Instrumenten zurückgreifen kann.<br />
Zur Definition benötigt man die aus der Steuereinheit entstehenden Daten, die Daten<br />
des zu steuernden Gerätes oder Prozesses und das zugehörige Mapping.<br />
56 vgl. z.B. die „Discussion Group on Gesture Research in Music“ am Pariser IRCAM:<br />
http://recherche.ircam.fr/equipes/analyse-synthese/wanderle/Gestes/Externe/ [Stand 2006-09-25], und<br />
auf ihrer CD-Rom „Trends in Gestural Control of Music“, Ircam - Centre Pompidou, Paris 2000 oder<br />
verschiedene Projekte am Amsterdamer STEIM: http://www.steim.org/steim/ [Stand 2006-09-25]<br />
54
Mittelbare Steuerung<br />
Generiert die Steuereinheit die Kontrolldaten nicht direkt, sondern werden sie erst durch<br />
eine Analyse erstellten Materials gewonnen, dann kann man von mittelbarer Steuerung<br />
sprechen. Es ist kein Controller zur direkten Eingabe vorhanden, sondern man muß<br />
Algorithmen zur Analyse von vorliegendem oder live erstelltem Material liefern. Man<br />
kann beispielsweise Audiosamples, gefilmte Bewegungen, Lichtspektren usw. untersu-<br />
chen und daraus die Daten zur Steuerung von den oben genannten Prozessen generieren.<br />
In diesem Fall benötigt man zusätzlich zu den bei der unmittelbaren Steuerung nötigen<br />
Angaben den Analysealgorithmus, der eingesetzt werden soll.<br />
Steuerung aus unkalkulierbaren Prozessen<br />
Eine abgewandelte Form von mittelbarer Steuerung entsteht, wenn die Analyse nicht<br />
auf manuell erzeugtes Material angewandt wird, sondern auf Prozesse, in deren Ablauf<br />
kein Interpret mehr eingreift. Zufällige, chaotische oder unbewußt erzeugte Informatio-<br />
nen werden ausgewertet und die gewonnenen Daten zur Steuerung eingesetzt. Man kann<br />
zum Beispiel chaotische Algorithmen einsetzen, die sich selbst anregen und so unvor-<br />
hersehbare Daten produzieren, oder auch Rauschen, Signalstörungen oder Umweltge-<br />
räusche zur Steuerung analysieren. Im Prinzip gehört auch Radioempfang zu dieser<br />
Gruppe von steuerndem Material.<br />
In diesem Fall benötigt man Informationen über die Art, das Material zu gewinnen, es<br />
zu analysieren, die Ergebnisse der Analyse auf Parameter der zu steuernden Prozesse<br />
anzuwenden und darüber, wo man doch manuell eingreifen soll, und sei es nur zum Ein-<br />
oder Ausschalten.<br />
Automatisierte Steuerung<br />
Schließlich gibt es weiterhin den Fall, daß Daten zur Steuerung überhaupt nicht wäh-<br />
rend des Ablaufs eines Stückes erstellt werden, sondern sämtlich vorprogrammiert wer-<br />
den können. Ein sehr gutes Beispiel hier<strong>für</strong> ist die Automatisierung einer Mischung am<br />
Mischpult, die dann jederzeit abgerufen werden kann.<br />
55
Zur Dokumentation einer solchen automatisierten Steuerung ist es unerheblich, auf wel-<br />
chem System die Daten zur Automation gespeichert werden, solange das System die<br />
Anforderungen der Steuerung erfüllen kann. Es müssen nur die zu steuernden Vorgänge<br />
und ihre Zuordnungen zur Zeitachse festgehalten werden. Bei teilweise automatisierter<br />
Steuerung kann dies beispielsweise durch die Angabe von Synchronisationspunkten 57 in<br />
der Partitur oder anhand einer Zeitleiste geschehen, an denen dann manuell Steuerungs-<br />
mechanismen ausgelöst werden. Bei vollautomatisierter Steuerung werden diese<br />
Mechanismen automatisch ausgelöst, was ebenfalls durch eine am Timecode orientierte<br />
Liste geschehen kann, oder aber durch ein computergestütztes „score-follower“-<br />
Programm, das sich direkt an der Partitur orientiert und nach Eingabe der Tonhöhen,<br />
-dauern und Pausen diese mit dem live Gespielten synchronisiert.<br />
Die übrigen Parameter, die man bei nicht automatisierter Steuerung detailliert notieren<br />
muß, brauchen nicht angegeben zu werden, sondern müssen erst bei der Vorbereitung<br />
auf den Einsatz je nach vorhandenem Automatisierungssystem erzeugt werden. Die An-<br />
gabe von Daten des steuernden Systems sowie der Zuordnungen der Parameter kann<br />
völlig entfallen und ist nur als exemplarische Realisierung relevant.<br />
2.3 Signalfluß<br />
Betrachtet man nun Konstellationen, in denen die bisher vorgestellten Komponenten<br />
von Elektronik zusammengeschaltet werden, muß nicht nur die Frage nach der Definiti-<br />
on von Ein- und Ausgang der elektroakustischen Übertragungskette gestellt werden,<br />
sondern auch die Übergänge des Audio zwischen den einzelnen Geräten oder Prozessen<br />
betrachtet werden.<br />
Man kann feststellen, daß einige der genannten Apparaturen oder Verarbeitungsprinzi-<br />
pien je nach Verhalten des eingehenden Signals extrem unterschiedliche Ergebnisse lie-<br />
fern, was auch später nicht durch reversible Operationen wieder ausgeglichen werden<br />
kann. Dies betrifft nicht nur Aspekte der Audioqualität, wie den Abstand des Signals<br />
zum Grundrauschen, sondern eben auch die Parameter, die von den Apparaturen verän-<br />
57 Man spricht in diesem Zusammenhang oft von „Cue“-Punkten, kurz „Cues“<br />
56
dert werden sollen.<br />
Beispielsweise regelt ein Kompressor weniger, je niedriger der Eingangspegel ist, wenn<br />
der Spitzenpegel unterhalb des Threshold liegt, ist er sogar völlig außer Funktion. Dies<br />
kann später auch nicht durch Anhebung des Pegels kompensiert werden. Ebenso verhält<br />
sich ein Hall, in den man ein sehr baßlastiges Signal hereingibt: Man kann durch Absen-<br />
kung der Bässe im gleichen Maße später auch nicht das Ergebnis „retten“.<br />
Dies bedeutet, daß man bei genauer Angabe der zu verändernden Parameter nicht nur<br />
die Reihenfolge dokumentieren muß, in der die klanglichen Transformationsprozesse<br />
aufeinander folgen sollen, sondern auch notieren muß, wie ein Gerät oder ein Prozeß<br />
hinsichtlich des Pegels und des Frequenzganges angesteuert werden muß, um so zu ar-<br />
beiten, wie es beabsichtigt ist.<br />
Sehr oft zu kontrollieren sind diesbezüglich die Systeme direkt nach der ersten Schall-<br />
wandlung, da das einem Mikrofon entstammende Signal nie exakt vorherzubestimmen<br />
ist und zudem fast ausschließlich davon abhängig ist, was vor dem Mikrofon passiert,<br />
und das ist eben nie identisch. Dennoch müssen auch die Übergänge zwischen den ver-<br />
schiedenen Transformationsprozessen überprüft und gegebenenfalls korrigiert werden,<br />
was bei extrem komplex programmierter Automatisierung oder vielseitigem Routing<br />
schnell unmöglich werden kann, entweder aus Gründen der Übersichtlichkeit oder weil<br />
die entsprechenden Kontroll- und Regelfunktionen nicht vorgesehen wurden.<br />
2.4 Computeranalphabetismus und<br />
Bedienerfreundlichkeit<br />
Seit in den fünfziger Jahren die elektronischen Studios als eine Ansammlung von tech-<br />
nischen Geräten entstanden, die über ihre elektroakustische Funktion klassifiziert wer-<br />
den konnten, wurde es zunehmend praktikabel, das Instrument Elektronik 58 als ein<br />
modulares System zu behandeln, in dem baukastenartig aus einigen grundlegenden Ele-<br />
58 Hier und im Folgenden werde ich den Begriff des <strong>Musik</strong>instruments auf die Elektronik insofern ausdehnen,<br />
daß ich eine vollständige, aus vielen elektronischen Komponenten zusammengesetzte Apparatur,<br />
die als solche bestimmte musikalische Funktionen einnehmen kann, jeweils als EIN Instrument<br />
betrachten werde.<br />
57
menten immer neue Kombinationen gebildet werden können. Insbesondere seit der Nut-<br />
zung von Softwareplattformen <strong>für</strong> Programmierung von <strong>Musik</strong>elektronik ist diese Kom-<br />
binierbarkeit von grundlegenden Elementen in ihrer Komplexität enorm gewachsen, da<br />
man ohne großen logistischen Aufwand das Ergebnis jederzeit speichern, laden oder än-<br />
dern kann 59 . Somit wird durch den Einsatz von elektronischen Apparaturen Komponis-<br />
ten in einem viel größeren Maße als jemals zuvor ermöglicht, ein individuelles<br />
Instrument zu erstellen.<br />
Allerdings ist auch zu erwähnen, daß die umfangreiche Beschäftigung mit den techni-<br />
schen Grundlagen <strong>für</strong> <strong>Musik</strong>elektronik sehr viel Zeit in Anspruch nimmt, und man sich<br />
viele Kenntnisse aneignen muß, die früher aus dem Gebiet der Nachrichtentechnik,<br />
heute aus dem Gebiet der Informatik stammen und mit <strong>Musik</strong> zunächst nicht viel zu tun<br />
haben.<br />
Daher findet man seitens der Komponisten immer zwei Standpunkte im Umgang mit<br />
Elektronik:<br />
Die einen sind primär daran interessiert, die Elektronik in der <strong>Musik</strong> als ein weiteres, al-<br />
lerdings sehr umfangreiches Instrument zu nutzen, möchten aber die technischen<br />
Grundlagen nur insofern kennenlernen, um damit das Resultat <strong>für</strong> die Komposition ab-<br />
schätzen zu können.<br />
Die anderen begeistern sich daran, auf der Basis von Elektronik immer neue Instrumen-<br />
te zu entwickeln, erstellen diese häufig von Grund auf selber und beschäftigen sich da-<br />
her aus eigenem Interesse viel mit den technischen Grundlagen, um diese auch in ihrer<br />
direkten elektronischen Wirkung besser verstehen zu können.<br />
Den Ersteren kommt es zugute, daß in den großen elektronischen Studios stets Inge-<br />
nieure und Programmierer arbeiten, die ihnen dort unterstützend zur Seite stehen, weil<br />
sie alleine ihre Ideen in der Elektronik nicht umsetzen könnten. So beschreibt beispiels-<br />
weise Hans Peter Haller, der Gründer des Experimentalstudios des SWR in Freiburg,<br />
59 Es sei darauf hingewiesen, daß es natürlich weiterhin Programme <strong>für</strong> Elektronik gibt, die Textzeilen-<br />
Programmierung nutzen, aber die beiden meistverbreiteten Programme <strong>für</strong> Live-Elektronik, Max/Msp<br />
von Cycling '74 und Miller Puckettes PD als open-source-Alternative, arbeiten beide auf der Basis<br />
von objektorientierter graphischer Programmierung mit einzelnen Bausteinen (Objekten) und Verbindungslinien<br />
in einer Art Schaltplan.<br />
58
seinen Eindruck von Luigi Nono folgendermaßen:<br />
„Nono hat sich nie <strong>für</strong> die Innereien eines Gerätes näher interessiert, sein Bestreben lag im Kennenlernen,<br />
im Studieren, im Experimentieren mit dem klingenden Ergebnis (Output).“ 60<br />
Ebenso berichtete Pierre Boulez, auf dessen Initiative das Pariser IRCAM gegründet<br />
wurde, noch vor nicht einmal zwei Jahren in einem Interview:<br />
„Viele [Komponisten] haben keinen Sinn <strong>für</strong> Technologie. Ihnen ist es zu kompliziert, sich das vorzustel-<br />
len. Eigentlich ist es im Umgang mit der Elektronik gar nicht so viel anders, als wenn man <strong>für</strong> ein Orches-<br />
ter komponiert. Da müssen sie auch nicht selbst Oboe oder Pauke spielen können, sondern nur wissen,<br />
wie das Instrument funktioniert. So ist es bei den technischen Dingen auch. Ich selbst bin auch kein Pro-<br />
grammierer. Aber ich weiß, wie man die Elektronik einsetzen kann.“ 61<br />
Da allerdings die traditionellen Strukturen der großen elektronischen Studios stark ero-<br />
dieren, diese teilweise sogar geschlossen werden, wie das Studio <strong>für</strong> Elektronische Mu-<br />
sik des WDR im Jahre 2002, zeichnet sich ein Umbruch in der Szene der elektronischen<br />
Studios ab. Es ist seit einigen Jahren mit überschaubarem finanziellem Aufwand mög-<br />
lich, sich zu Hause ein Studio einzurichten, das aus nicht mehr als einem Computer, ent-<br />
sprechender Software und einigen wenigen Zusatzgeräten besteht und in vielen<br />
Bereichen <strong>für</strong> die Belange der Komponisten ausreichend ist. Sollen dann aufwendigere<br />
Live-Elektronik oder Raumsteuerungen angewendet werden müssen, kann man immer<br />
noch einen größeren Raum und Material mieten, da das eigene Setup mit der vorbereite-<br />
ten Elektronik extrem mobil ist.<br />
Für diejenigen Komponisten, die, wie die beiden oben zitierten, eher angewandt arbei-<br />
ten wollen, und sich von der Programmierung weitgehend fernhalten möchten, begann<br />
die Industrie zunehmend Oberflächen und Interfaces zu entwickeln, die bedienerfreund-<br />
licher sein sollen als die direkte Programmierung. Laut Friedrich Kittler wird dadurch<br />
aber eine Trennung von den Benutzern und den Programmierern forciert:<br />
„[Es gibt] nämlich [unter] den Computerkünstlern manchen, der Computercodes zwar lesen und deshalb<br />
60 Haller 1997, Bd. 2, S. 118<br />
61 Siemes/Spahn 2004, S.44<br />
59
auch einsetzen kann, aber ihr Anschreiben sogenannten Programmierknechten überlassen muß. [...] Den<br />
Computeranalphabeten, die Codes weder lesen noch schreiben können, soll dadurch geholfen werden,<br />
daß sie mit binären Zahlen und unverständlichen Buchstabenfolgen überhaupt nicht mehr in Berührung<br />
kommen. Die Innereien der Maschine bleiben selbstredend weiter digital, weil sie sonst gar nicht laufen<br />
würden, aber ihre Benutzerschnittstelle nimmt mehr und mehr die Züge analoger Unterhaltungsmedien<br />
an, wie sie seit gut hundert Jahren vertraut sind. [...] So wird die Trennlinie zwischen einer neuen Elite<br />
und dem Rest der Welt zum integralen Teil von Hardware und Software gleichermaßen, also<br />
zementiert.“ 62<br />
Wenn es nun Komponisten gibt, die unter Zuhilfenahme solcher vermeintlich bediener-<br />
freundlicher Oberflächen arbeiten und Klänge oder Klangverarbeitungsprozesse <strong>für</strong> ihre<br />
Kompositionen benutzen, deren Ursprung man zumindest anhand des Interfaces allein<br />
nicht erklären kann, wenn man nicht die genauen Algorithmen kennt, entsteht hinsicht-<br />
lich der Reproduzierbarkeit ein enormes Problem. Man ist in der Folge darauf angewie-<br />
sen, exakt diese Oberfläche zu nutzen, um das gewünschte Resultat zu erhalten,<br />
zumindest solange der Programmcode unter Verschluß gehalten wird. Eine Abstraktion<br />
zum Zwecke der allgemeingültigen Dokumentation ist nicht möglich.<br />
Kittler beschreibt im weiteren Verlauf sehr kritisch, daß dort, wo den Nutzern durch den<br />
Einsatz von geschützter Software jede Möglichkeit des tieferen Eingreifens in die Soft-<br />
ware verwehrt bleibt, nur die finanziellen Interessen der Industrie bedient werden. Für<br />
ihn ist die Förderung und Nutzung von Software, die nachvollziehbar bis zur System-<br />
ebene in den Computer eingreift, das Mittel der Wahl:<br />
„Wo immer eine Anwendung die Kluft gegenüber der Systemprogrammierung einebnet, weil sie wie die<br />
sogenannte Anwendung namens Programmierung schlicht und einfach das tut, wo<strong>für</strong> Computer schließ-<br />
lich konstruiert worden sind, fällt mit den graphischen Benutzeroberflächen auch die künstliche Mauer<br />
zwischen Herstellern und Benutzern wieder dahin. Eine Maschine, die nach Turings Definition alle ande-<br />
ren Maschinen soll imitieren können, kann eben keine unveränderbaren Zustände einnehmen. Sie stellt<br />
den Begriff des geistigen Eigentums, an dem die Computerindustrie inständiger festhält als alle Schrift-<br />
steller, die diesen Begriff seit Fichte und Goethe erfunden haben, grundsätzlich in Frage.<br />
Sicher, ein technisch gezüchteter und zementierter Computeranalphabetismus wirft Geld ab: Leute, die<br />
Codes weder lesen noch schreiben können, werden unmöglich zu Hackern. Aber ob dieser elektronische<br />
Protektionismus [...] sein Geld wert ist, steht in den Sternen“ 63<br />
62 Kittler 2002, S. 122ff.<br />
63 Kittler 2002, S. 127f.<br />
60
Darüber hinaus steht allerdings auch in den Sternen, wie in dem von uns betrachteten<br />
Fall der Anwendung auf Live-Elektronik der Code zur Dechiffrierung der entsprechen-<br />
den Informationen auch in Zukunft verfügbar sein wird, wenn dessen Aufrechterhaltung<br />
und Pflege von finanziellen Interessen abhängt, die aufgrund der fehlenden Masse der<br />
Benutzer in diesem speziellen Bereich nicht zu leisten sind. Wie bereits im Zusammen-<br />
hang mit Zuspielbändern angesprochen, ist es in jedem Fall sicherer und einfacher,<br />
wenn der Code offen zur Verfügung steht, wie Miller Puckette erwähnt:<br />
„An artist who thinks carefully about preserving his or her work will naturally prefer the open source<br />
solution, because it's much easier to keep running than a proprietary one can ever be.“ 64<br />
64 Scheib 2006, S.168<br />
61
3. Überlegungen zur Interpretation<br />
Während im letzten Kapitel Aspekte der Funktionalität der Technik analysiert wurden,<br />
stellt sich bei der Aufführung eines Werkes mit Live-Elektronik darüber hinaus die Fra-<br />
ge nach dem interpretatorischen Umgang mit der Technik. Es reicht nicht aus, daß man<br />
die Technik funktionsfähig macht, man muß auch die Fragen beantworten, wie man sie<br />
akustisch umsetzen kann, und welche ihrer Komponenten wie zu behandeln sind.<br />
3.1 Der künstlerische Umgang mit Verstärkung<br />
Beim erwünschten oder zumindest explizit tolerierten Einsatz von Verstärkung 65 von<br />
akustisch vorhandenen Informationen gibt es einige Parameter, die in Angaben zum in-<br />
terpretatorischen Umgang mit einem Stück gesondert betrachtet werden sollten. Wie<br />
schon beim Einsatz von Lautsprechern erwähnt, gilt auch <strong>für</strong> die Verstärkung, daß sie<br />
extrem situations- und raumbezogen eingesetzt werden muß. Jedes individuelle Instru-<br />
ment hat spezielle Eigenheiten im Abstrahl- und Frequenzverhalten, jeder Raum rea-<br />
giert anders auf Verstärkung, daher sollte auch hier sinnvollerweise die Beschreibung<br />
des erwünschten Resultats einer technischen Beschreibung des Vorgangs der Verstär-<br />
kung vorgezogen werden. Im Folgenden sollen einige akustische Auswirkungen von<br />
Verstärkung analysiert werden, um diese in einer Dokumentation zu ihrem Einsatz in ei-<br />
nem Werk adäquat differenzieren zu können.<br />
3.1.1 Änderung der Dynamik<br />
Daß Verstärkung Auswirkungen auf die in den Raum projizierte Dynamik eines Instru-<br />
65 Wenn hier und im Folgenden von „Verstärkung“ die Rede ist, soll immer die Verstärkung von akustischem,<br />
meist instrumentalem Klangmaterial in Echtzeit gemeint sein, <strong>für</strong> die Umsetzung von sämtlichem<br />
sonstigen Audiomaterial werde ich den allgemeineren Begriff „Beschallung“ verwenden.<br />
62
ments hat, ist evident, jedoch gibt es einige Aspekte der Veränderung der Dynamik, die<br />
darüber hinaus stets zu beachten sind. Da das zu verstärkende Signal üblicherweise<br />
recht nah mikrofoniert wird und dort mit einer großen dynamischen Bandbreite abge-<br />
nommen wird, kommt es vor, daß bei entsprechender Verstärkung die beim Zuhörer an-<br />
kommende Dynamik sehr groß ist, zu groß sogar, um noch einer instrumental erzeugten<br />
Dynamik nahezukommen. Dies ist insbesondere bei sehr leisen Signalen oft der Fall,<br />
die in Relation zu lauten Signalen deutlich mehr verstärkt werden müssen. Ist dann das<br />
Ziel der Verstärkung, die natürlich klingenden Instrumente unauffällig zu unterstützen,<br />
wird es oft notwendig, die Signale der sehr nah mikrofonierten Instrumente vor der Pro-<br />
jektion etwas zu komprimieren oder sie ständig mitzuregeln. Andererseits kann diese<br />
vergrößerte Dynamik von akustischen Signalen auch gerade dazu genutzt werden, die<br />
dynamische Verhaltensweise von akustischen Instrumenten derer elektronischer Instru-<br />
mente anzupassen, wenn sie zusammen in einem Stück vorkommen. Da bei rein elektro-<br />
nischen Instrumenten oder vorgemischten Zuspielbändern der Dynamik nur die<br />
physikalischen Grenzen der Lautsprecher und Verstärker gesetzt sind, anders als bei<br />
akustischen Instrumenten, wo Physis des Spielers und das Material weitgehend die<br />
dynamischen Grenzen bestimmen, passiert es häufig, daß diese beiden Ebenen sehr ver-<br />
schieden sind.<br />
3.1.2 Änderung der Klangfarbe<br />
Für die Auswirkungen der Verstärkung auf die Klangfarbe gelten recht ähnliche Kriteri-<br />
en wie die der Dynamik der verstärkten Instrumente. Durch die nahe Mikrofonierung<br />
kann <strong>für</strong> die Verstärkung ein Klangspektrum abgenommen werden, das fast nicht von<br />
der Akustik des Raums nivelliert ist und wesentlich differenziertere Frequenzen enthält<br />
als diejenigen, welche beim Zuhörer ohne Verstärkung ankommen. Vor allem hochfre-<br />
quente Anteile sind noch nicht durch lange Wege von der Luft absorbiert worden. Hinzu<br />
kommt die Positionierung der Mikrofone in Relation zum Instrument als wesentliches<br />
Kriterium <strong>für</strong> die zu erhaltenden Frequenzanteile, wie bereits im Absatz über Mikrofone<br />
erwähnt. So werden immer einige Teile des Spektrums des zu verstärkenden Signals<br />
mehr und einige andere weniger stark hervorgehoben. Gerade die genannten hochfre-<br />
63
quenten Anteile des Klangspektrums von Instrumenten sind häufig bedeutend, um so<br />
eine Angleichung an das Spektrum von elektronischen Instrumenten zu ermöglichen.<br />
3.1.3 Subjektive Nähe<br />
Sowohl die Vergrößerung der Dynamik als auch die Projektion von Klangfarben, die<br />
normalerweise nur in geringer Entfernung vom Instrument vorhanden sind, haben bei<br />
starkem Einsatz von Verstärkung zur Folge, daß sich <strong>für</strong> den Zuhörer ein Gefühl der<br />
akustischen Nähe zum Instrument einstellt, welches dem visuellen Eindruck wider-<br />
spricht. Zudem ist es möglich, daß durch die Positionierung der Lautsprecher, die sich<br />
in der Regel näher am Zuhörer befinden als die zu verstärkenden Schallquellen, dieser<br />
Effekt noch verstärkt wird.<br />
Um diesem Phänomen entgegenzuwirken gibt es die Möglichkeit, die Lautsprecher-<br />
signale derart mit Delay zu versehen, daß sie <strong>für</strong> den Zuhörer zusammen mit oder sogar<br />
nach dem Direktschall vom Instrument eintreffen. Nach dem Gesetz der ersten Wellen-<br />
front wird das Instrument dann wieder aus der Richtung des Direktschalls geortet 66 und<br />
die Verstärkung weniger wahrgenommen, da die Kopplung an den visuellen Eindruck<br />
wieder stimmig ist.<br />
Auch die Dynamik der verstärkten Signale kann, wie bereits erwähnt, mit Kompres-<br />
soren an die Dynamik der Originalsignale angeglichen werden, ebenso die Klangfarbe<br />
über Filter. Allerdings funktionieren alle diese Schritte zur Verschmelzung des verstärk-<br />
ten Klanges mit dem Originalklang nur dann, wenn die Verstärkung nicht zu groß ist,<br />
ansonsten verdecken die Lautsprechersignale nahezu völlig die Originalsignale und<br />
diese sind nicht mehr differenziert wahrzunehmen.<br />
Es gibt allerdings auch den Fall, daß sich die Diskrepanz zwischen Originalklang und<br />
verstärktem Klang als künstlerisch interessant herausstellt und sogar besonders geför-<br />
dert wird. So bemerkt der Komponist Heiner Goebbels hierzu beispielsweise:<br />
„Generell versuche ich mit den Lautsprechern nicht, die Distanz, die sich zwischen Bild und Ton ergibt,<br />
zu überspielen, sondern zu vergrößern. [...] Mich interessiert es, den Körper vom Klang zu trennen und<br />
66 Siehe auch Kapitel 3.1.4<br />
64
dann als Zuschauer die Verbindung wiederherzustellen. [...] Ich schaffe damit eine akustische Bühne, die<br />
ich von der optischen Bühne trenne, eine zweite Bühne also. In dem Zwischenraum werde ich als<br />
Zuschauer aktiv.“ 67<br />
3.1.4 Lokalisation<br />
Befindet sich beim Einsatz von Verstärkung der Lautsprecher nicht am gleichen Ort wie<br />
das zu verstärkende Signal, wie es meist der Fall ist, gibt es zwei reale Schallquellen <strong>für</strong><br />
das gleiche Signal (oder zumindest <strong>für</strong> sehr ähnliche), beim Einsatz von allen Formen<br />
von Phantomschallquellen sogar noch mehr Quellen. Der exakte psychoakustische Pro-<br />
zeß, nach dem sich die subjektive Lokalisation dann vollzieht, ist recht komplex. Es läßt<br />
sich aber generell feststellen, daß je nach Disposition, Pegel, Frequenzanteilen und auch<br />
je nach Hörplatz die Lokalisation von verstärkten Signalen im Raum enorm beeinflußt<br />
werden kann: Entweder bleibt sie bei der originalen Schallquelle, oder sie wird teilweise<br />
oder auch gänzlich von den Lautsprechern bestimmt. Auch wenn jeder Raum sowie je-<br />
des Lautsprecherkonzept individuell reagiert, kann zumindest dokumentiert werden, in-<br />
wieweit die Lokalisation der Schallquellen sich von ihrer realen Position lösen dürfen<br />
oder sollen und wie sie sich dann verhalten sollen. Es muß allerdings beachtet werden,<br />
daß es in der Realität der heute vorhandenen Konzertsäle oft nur an den wenigsten Hör-<br />
plätzen tatsächlich möglich ist, einigermaßen optimale akustische Bedingungen <strong>für</strong> eine<br />
Lokalisation von allen Seiten zu schaffen. 68<br />
3.1.5 Absolute und relative Lautstärke<br />
Ein weiterer Aspekt von Verstärkung ist neben dem Hörbarmachen von sehr leisen<br />
akustischen Signalen die generelle Möglichkeit, die Gesamtlautstärke in einem Maße zu<br />
heben, wie es mit den Signalen bei rein akustischer Übertragung nie möglich wäre. Ins-<br />
besondere bei klangästhetischen Ansätzen, die popmusikalisch geprägt sind, wird häufig<br />
die Forderung nach einer erhöhten Durchschnittslautstärke gestellt, um gewisse physi-<br />
67 Persönliches Gespräch mit dem Autor am 30.05.2006<br />
68 Mehr dazu in Kapitel 3.2 Aufführungsräume<br />
65
sche Aspekte des Klangs nutzen zu können und einem Publikum zu vermitteln, das sel-<br />
ber in seinen Hörgewohnheiten von den physischen Aspekten der Popmusik geprägt ist.<br />
Die Frage der Lautstärke ist also stark genreabhängig und zudem mit der Hörgewohn-<br />
heit des Publikums verknüpft. Während letzteres oft situationsgebunden im Konzert am<br />
Mischpult entschieden werden muß, ist die Frage nach der absoluten Lautstärke einer<br />
Verstärkung immer sehr schwer allgemein zu vermitteln.<br />
Wenn eine Orientierung an der Lautstärke der unverstärkten Instrumente stattfinden<br />
soll, kann man diese als Referenz setzen und relativ dazu Abweichungen dokumentie-<br />
ren. Man hat dann allerdings das Problem, daß die Referenzlautstärke nicht über Pegel<br />
innerhalb des Verstärkungssystems zu fassen ist, daß man also auch die Abweichungen<br />
von ihr außerhalb des elektroakustischen Systems fassen muß, beispielsweise über ver-<br />
bale Formulierungen. Dies wird deutlich, wenn bei einer neuerlichen Aufführung des-<br />
selben Werks in einem anderen Raum die Werte der Pegel im Mischpult korrigiert<br />
werden müssen.<br />
Soll die Verstärkung sich nicht an der Lautstärke der unverstärkten Instrumente orien-<br />
tieren, sondern deutlich darüber liegen, ist eine Referenz noch schwieriger zu definie-<br />
ren, nur ein Schallpegelmesser ist <strong>für</strong> die subjektiv empfundene Lautstärke, an der man<br />
sich orientieren soll, nicht ausreichend. Hier kann nur die Erfahrung und der Geschmack<br />
entscheiden. Jedoch ist in diesem Fall die Frage der Relation von abweichenden Pegeln<br />
besser zu vermitteln, da sämtliche akustisch relevanten Signale durch die Beschallungs-<br />
anlage erzeugt werden und so innerhalb des Mischpults Pegelverhältnisse definiert wer-<br />
den können.<br />
3.1.6 Rückkopplungen<br />
Nicht zu vergessen ist der Aspekt der Rückkopplungen, die bei Verstärkung entstehen<br />
können. Da sie in der Regel nicht erwünscht sind, müssen sie bereits bei der Planung ei-<br />
nes Lautsprechersetups und der zugehörigen Mikrofonkonfiguration bedacht werden<br />
und Vorkehrungen zu ihrer Unterdrückung getroffen werden. In der Regel benutzt man<br />
heutzutage stark gerichtete Mikrofone und Lautsprechersysteme, mit denen man relativ<br />
klar die Bereiche, <strong>für</strong> die die Verstärkung greifen soll, von den Bereichen trennen kann,<br />
66
in die die Verstärkung nicht gelangen soll. Darüber hinaus ist das Rückkopplungsver-<br />
halten stark von der Halligkeit des Aufführungsraumes abhängig, auch hier können ab-<br />
sorbierende Maßnahmen zur besseren akustischen Trennung des zu beschallenden<br />
Raumes von den Bereichen, aus denen beschallt werden soll, getroffen werden. Schließ-<br />
lich werden zur Vermeidung von Rückkopplungen außerdem möglichst schmalbandige<br />
Filter eingesetzt, die die resonierenden Frequenzen im Pegel absenken können, manch-<br />
mal kommen da<strong>für</strong> auch Laufzeitglieder zum Einsatz, die die Phasenlage des verstärk-<br />
ten Signals im Raum, also auch am Ort des Mikrofons, ändern.<br />
3.2 Aufführungsräume<br />
Im Gegensatz zu einer Aufnahme steht man bei der Beschallung eines Konzertes immer<br />
vor der Problematik, daß die erstellte Mischung nicht nur <strong>für</strong> einen Hörplatz optimiert<br />
werden kann, sondern daß die Vielfalt der Hörplätze im Aufführungsraum mit ihren<br />
akustischen Eigenschaften berücksichtigt werden müssen. Unabhängig davon, daß ein<br />
Klangregisseur während der Beschallung immer nur von einem Ort aus zeitgleich hören<br />
kann, und daher der Vergleich verschiedener Hörpositionen ohnehin schon schwer fällt,<br />
ist es naheliegenderweise überhaupt nicht möglich, ein einheitliches Klangbild an jedem<br />
Hörplatz zu erzeugen, alleine wegen der realen Akustik des Aufführungsraums. Es gibt<br />
zwar neuere technische Entwicklungen wie die Wellenfeldsynthese, die es theoretisch<br />
erlauben, identische Ortung an vielen Plätzen im Hörraum zu erreichen, dieses funktio-<br />
niert aber nur in extrem schallarmen Räumen (wie es bei Konzertsälen nie der Fall ist)<br />
und bei reiner Wiedergabe von Tonträgern. Zudem sind diese Systeme zumindest der-<br />
zeit noch viel zu leistungsschwach <strong>für</strong> große Beschallungsanlagen. Folglich ist es also<br />
notwendig, <strong>für</strong> jeden Aufführungsraum in Abhängigkeit vom jeweiligen Werk und sei-<br />
nen speziellen Anforderungen ein neues Beschallungskonzept zu erstellen, das es <strong>für</strong><br />
den individuellen Raum und die entsprechenden Hörplätze ermöglicht, eine bestmögli-<br />
che akustische Qualität <strong>für</strong> den Großteil der Hörer zu gewährleisten. Daß die meisten<br />
heute verfügbaren Konzerträume in ihrer Bauweise <strong>für</strong> solche Aufgaben denkbar unge-<br />
eignet sind, sieht man schnell, wenn man sich vor Augen hält, daß es bereits rein logis-<br />
67
tisch oft unmöglich ist, Lautsprecher hinter oder seitlich des Publikums mit adäquatem<br />
Abstand zu installieren, von Systemen zur Installation an der Decke ganz abgesehen.<br />
Schon 1972 hat Stockhausen in einem Vortrag auf der Tonmeistertagung gefordert, es<br />
sollen in Aufführungsräumen <strong>für</strong> zeitgenössische <strong>Musik</strong> „keine Balkone mehr gebaut<br />
werden und Lautsprecher rings um die Hörer in genügender Tiefe [...] und in genügen-<br />
der Höhe [...] angebracht werden“ 69 , jedoch werden auch heute noch viele Konzertsäle<br />
mit fester Bestuhlung und frontaler Sitzordnung, mit Balkonen und unzureichenden<br />
Hängevorrichtungen gebaut. Dieser sehr zu bedauernde Umstand trägt aber umso mehr<br />
dazu bei, daß keine generellen Beschallungskonzepte <strong>für</strong> einzelne Werke entwickelt<br />
werden können, sondern daß man immer nach Kompromissen in den jeweiligen Räu-<br />
men suchen muß. Zudem bleibt ebenso die eigene Akustik des Aufführungsraums, die<br />
zusätzlich zur rein baulichen Problematik die Projektion von <strong>Musik</strong> über Lautsprecher<br />
negativ beeinflussen kann. Wie bereits erwähnt sind hier in einigen Konzerträume Vor-<br />
kehrungen zur Veränderung der Akustik durch Vorhänge, Reflektoren oder Schallkam-<br />
mern vorhanden, selbst diese sind aber in der Regel auf die Anpassung der Akustik im<br />
Rahmen unverstärkter <strong>Musik</strong> ausgelegt. Sobald Lautsprechersysteme installiert werden,<br />
müssen oft weitere Maßnahmen zur Dämpfung der Akustik getroffen werden.<br />
Ist die Beschreibung des Lautsprechersetups in der Weise vorhanden, wie ich sie weiter<br />
oben gefordert haben, nämlich als Beschreibung der Funktion, die die Lautsprecher <strong>für</strong><br />
den jeweiligen Hörer im Raum einnehmen sollen, dann ist die Adaption auf einen Auf-<br />
führungsraum in jedem Fall besser zu realisieren, als wenn zunächst aus einem festge-<br />
schriebenen Setup erahnt werden muß, welche diese Funktion ist. Weiß man, welche<br />
Signale aus welcher Richtung zu orten sein sollen, dann kann man auch <strong>für</strong> die „benach-<br />
teiligten“ Hörzonen im Saal versuchen, durch Stützlautsprecher die verlorengehenden<br />
Informationen aufrechtzuerhalten und so eine Angleichung der akustischen Qualität auf<br />
den verschiedenen Sitzpositionen zu erreichen.<br />
Schließlich bleibt ein weiterer Punkt, der sich zwar eher auf die Realisierbarkeit als auf<br />
die Dokumentation auswirkt, aber ebenfalls schon in dem erwähnten Vortrag von<br />
Stockhausen angesprochen wurde, und immer wieder zu Konflikten führt: dies ist die<br />
69 Stockhausen 1974 S. 436<br />
68
Möglichkeit, die Position des Mischpultes und der am FOH-Platz 70 darüber hinaus be-<br />
nötigten Technik an einer geeigneten Position im Publikum zu installieren, so daß dem<br />
Klangregisseur überhaupt eine sinnvolle Beurteilung des klanglichen Resultats während<br />
der Aufführung möglich ist.<br />
3.3 Klangideale und Mischreferenzen<br />
Durch das Auftreten einer enormen Stilvielfalt in der zeitgenössischen <strong>Musik</strong> hat sich in<br />
den letzten Jahrzehnten herausgestellt, daß es sowohl seitens der Komposition als auch<br />
der Interpretation immer mehr Bestrebungen zu einer extremen Individualisierung gibt.<br />
Dies hat zur Folge, daß sich wesentlich weniger als früher Schulen von Stilen mit einer<br />
eigenen Tradition bilden können, sondern daß häufig <strong>für</strong> jeden Komponisten oder sogar<br />
<strong>für</strong> jedes Werk individuelle Kriterien der Interpretation zu finden sind, die sich nur aus<br />
dem Umgang mit Materialien erschließen lassen, die dem persönlichen oder zumindest<br />
sehr nahem Umfeld des Komponisten entstammen. Der persönliche Kontakt zum Kom-<br />
ponisten oder auch zu Personen, die unmittelbar mit ihm und <strong>für</strong> ihn gearbeitet haben,<br />
ist natürlich eine sehr zuverlässige und authentische Quelle. Auf diesem Wege kann<br />
sich eine mündliche Tradition bilden, wie sie auch derzeit im Umgang mit der musikali-<br />
schen Literatur der Werke der zeitgenössischen <strong>Musik</strong> nahezu ausschließlich zu finden<br />
ist. Es ergibt sich dann auch, daß an einigen Punkten, in der Regel an entsprechenden<br />
<strong>Institut</strong>en oder bei recht aktiven und prominenten Interpreten, viele solcher mündlichen<br />
Traditionen von unterschiedlichsten Komponisten zusammenlaufen und sich diese Per-<br />
sonen oder <strong>Institut</strong>e dann auch als Vermittler der zugehörigen Informationen anbieten.<br />
Bei der Dokumentation eines Werkes mit Live-Elektronik stellt sich aber nun die Frage,<br />
wie es gelingen kann, <strong>für</strong> zukünftige Interpreten diejenigen ästhetischen Aspekte, die<br />
über eine rein funktionale Beschreibung der Technik hinausgehen, auch unabhängig von<br />
solcher direkter mündlicher Tradition so weit wie möglich faßbar zu machen und wel-<br />
che Formen der Präsentation sich da<strong>für</strong> anbieten.<br />
70 „Front Of House“ bezeichnet den Platz im Saal, an dem die Klangregie, inklusive der dort benötigten<br />
Apparaturen, plaziert ist. Idealerweise ist dies mitten im Publikum, quasi am durchschnittlichen Hörplatz.<br />
69
Im Folgenden werde ich einige Medien analysieren, die häufig im Zusammenhang mit<br />
einem existierenden Werk oder Komponisten erhältlich sind und deren Tauglichkeit <strong>für</strong><br />
zusätzliche Informationen zu einem Werk mit Live-Elektronik prüfen.<br />
Wie Informationen innerhalb der Partitur möglichst universell verständlich umgesetzt<br />
werden können, soll im Kapitel 4.3 thematisiert werden.<br />
3.3.1 Aufnahmen<br />
Sehr oft lassen sich von Werken, die im Rahmen von Konzertreihen und Festivals zeit-<br />
genössischer <strong>Musik</strong> (ur)aufgeführt wurden, Mitschnitte verschiedenster Art finden, bis-<br />
weilen auch Studioproduktionen, insbesondere bei prominenten Komponisten. Es stellt<br />
sich die Frage, inwieweit eine solche Aufnahme dem Zugang zu einem Werk dienlich<br />
sein kann, oder unter welchen Aspekten es auch problematisch sein kann, adäquate In-<br />
formationen von ihr zu erhoffen.<br />
Zunächst ist zu klären, ob der Komponist die Aufnahme kennt und beurteilt hat, ob er<br />
vielleicht sogar anwesend war, um spezielle Adaptionen während der Aufnahme vorzu-<br />
nehmen oder beratend tätig zu sein.<br />
Weiterhin ist es gut zu wissen, unter welchen Umständen die Aufnahme stattfand, ob es<br />
eine Studioproduktion war, bei der zumindest davon auszugehen ist, daß technisch alles<br />
funktioniert hat und daß auch der interpretatorische Teil eine Auswahl aus vielen Versu-<br />
chen überstanden hat, oder ob es sich eventuell um einen echten Konzertmitschnitt han-<br />
delt, bei dem sich im Ablauf Fehler eingeschlichen haben können. Bei Konzerten<br />
hingegen ist es häufig so, daß die Interpreten besonders viel Wert auf die Wirkung im<br />
Großen legen, auch die innere Spannung ist höher und besonders bei improvisierter Mu-<br />
sik kann die direkte Rückmeldung aus dem Publikum <strong>für</strong> zusätzliche Inspiration sorgen.<br />
Zudem kann man sich aufgrund des hohen Zeitaufwands <strong>für</strong> Studioproduktionen<br />
manchmal gute Räume oder Instrumente nur <strong>für</strong> Konzerte leisten.<br />
Aspekte der Räumlichkeit von mehrkanaliger Beschallung lassen sich insbesondere bei<br />
den meist zu findenden Stereo-Aufnahmen nur unzulänglich beurteilen, jedoch ist dies<br />
sehr abhängig davon, wie mit dem im Raum verteilten Material bei der Mischung umge-<br />
gangen wurde. So können beispielsweise kopfbezogene Mischungen oder sogar Kunst-<br />
70
kopfaufnahmen bei der Wiedergabe über Kopfhörer wesentlich bessere Eindrücke ver-<br />
mitteln, als sogar manche Surround-Aufnahmen über mehr als zwei Lautsprecher. Die<br />
Darstellung der Verteilung und Wirkung von vertikal im Raum verteilten Klangereig-<br />
nissen dürfte selbst so problematisch bleiben.<br />
Durch den Einsatz von Stützmikrofonie oder direkter Abnahme von Elektronik bei der<br />
Aufnahme kommt es darüber hinaus meistens zu Verzerrungen des Klangbilds gegen-<br />
über dem Klangeindruck im Zuschauerraum. Betroffen sind die meisten Parameter, die<br />
im Zusammenhang mit interpretatorischen Aspekten der Verstärkung im letzten Kapitel<br />
besprochen wurden, nur daß in diesem Fall der aufnehmende bzw. mischende Toninge-<br />
nieur oder Tonmeister die Instanz zur Bewertung dieser Verzerrungen war. So können<br />
auch bei Aufnahmen über die Veränderung der Dynamik, der Klangfarben der Instru-<br />
mente, der Lokalisation und der subjektiven Nähe Klänge aneinander angeglichen oder<br />
voneinander unterschieden werden. Dies trifft in besonderem Maße auf elektronische<br />
oder elektroakustisch veränderte Klänge und ihr Verhältnis zu den akustischen Klängen<br />
zu, wenn sie nicht im Raum über Mikrofone aufgenommen werden, sondern vor der<br />
Projektion über die Beschallung <strong>für</strong> die Aufnahme bereitgestellt werden.<br />
Gerade dann ist ein Kommentar des Komponisten oder des Klangregisseurs zu der Auf-<br />
nahme vonnöten, um diese Unterschiede qualitativ erfassen zu können und wieder<br />
Rückschlüsse auf die beabsichtigte Wirkung im Raum zu ermöglichen.<br />
Eine Videoaufnahme der Interpreten ist im Übrigen hilfreich <strong>für</strong> die Dokumentation der<br />
Inszenierung und der Aktionen der Interpreten, kann aber nur selten als Orientierung <strong>für</strong><br />
die akustische Projektion genutzt werden.<br />
3.3.2 Schriften / Programmtexte<br />
Bei Schriften über Komponisten oder einzelne ihrer Werke, die ästhetische Vorstellun-<br />
gen über die Gestalt der jeweiligen <strong>Musik</strong> und ihrer adäquaten Interpretation vermitteln<br />
können, muß zunächst getrennt werden, ob der Komponist selbst der Autor dieser<br />
Schriften ist oder nicht. Sollte dies nicht der Fall sein, ist es wichtig herauszufinden, wie<br />
sehr der Autor in Arbeitsprozesse von Proben und Aufführungen von Werken des Kom-<br />
ponisten involviert war, wie sehr seine ästhetische Vorstellung also durch Arbeitspro-<br />
71
zesse mit dem Komponisten geprägt ist.<br />
Wenn es so gelingt, an verläßliche Informationen über die mehr oder wenige individuel-<br />
le Ästhetik zu gelangen, dann können Texte über Komponisten oder einzelne ihrer Wer-<br />
ke gute Hinweise auf entscheidende Aspekte der Interpretation geben, den Fokus der<br />
Arbeit an einem Werk auf <strong>für</strong> den Komponisten sehr Wichtiges lenken und beispiels-<br />
weise so das Verhältnis des Komponisten zur Technik und zu den mit ihr beschäftigten<br />
Personen verdeutlichen, um die Rolle zwischen Interpret und Techniker zu definieren,<br />
die einem Klangregisseur in der Aufführung zukommen soll. Auch historische Hinter-<br />
gründe und Umstände der Entstehung oder Aufführung eines Werkes, die <strong>für</strong> die Inter-<br />
pretation Bedeutung erlangen, können über Schriften jeglicher Art recht gut<br />
kommuniziert werden.<br />
3.3.3 Interviews / Porträts<br />
Jegliche Form von Interviews oder auch Porträts eines Komponisten können ähnliche<br />
Informationen beinhalten, wie die gerade besprochenen Schriften, jedoch ist es hierbei<br />
offensichtlich, daß die Darstellung der Person und ihrer Ansichten sehr von der Art der<br />
Interviewführung oder Regie des Porträts beeinflußt ist. Gerade durch gezieltes Fragen<br />
im Interview kann ein Gespräch inhaltlich stark gelenkt werden, ebenso kann bei der<br />
Zusammenstellung eines Porträts durch subjektive Auswahl beim Schnitt der Schwer-<br />
punkt einer Darstellung innerhalb gewisser Grenzen verschoben werden.<br />
3.4 Alte oder neue Technik?<br />
Vor dem Hintergrund der schnellen Alterung der technischen Komponenten der Live-<br />
Elektronik ist es fraglich, inwieweit und nach welchen Kriterien man bei der Auffüh-<br />
rung älterer Werke die „originale“, also die bei der Uraufführung eingesetzte Technik<br />
benutzen sollte, wenn dies möglich ist, oder ob man versuchen sollte, wo immer es sinn-<br />
voll und machbar ist, neuere Technik zu verwenden.<br />
72
Außerdem muß bei der Erstellung von Werken mit Live-Elektronik die Frage gestellt<br />
werden, wie weit man die Konfiguration <strong>für</strong> zukünftige Entwicklungen in der Technik<br />
öffnet.<br />
Bei der Aufführung solcher Werke mit Live-Elektronik, deren Technik heute als histo-<br />
risch gelten muß, ist es naheliegend, daß man durch den Einsatz der technischen Auf-<br />
bauten, die bei der Entstehung der Werke genutzt wurden, die größtmögliche<br />
Annäherung an Aufführungen der Entstehungszeit erreichen kann. Dies ist natürlich nur<br />
dann möglich, wenn die „originale“ Technik zur Verfügung steht und voll funktionsfä-<br />
hig ist und wenn man ebenso ihre Bedienung in einer adäquaten Weise garantieren<br />
kann. Im selben Zuge wird man dann allerdings auch mit den eventuellen technischen<br />
Problemen konfrontiert werden, vor denen die Ausführenden bereits früher gestanden<br />
haben, obwohl es da<strong>für</strong> unter Umständen in der aktuellen Situation einfache Lösungen<br />
gäbe.<br />
Die mögliche Annäherung an eine Aufführung der Entstehungszeit muß jedenfalls nicht<br />
notwendigerweise der Idee des Komponisten hinsichtlich des Einsatzes der Technik<br />
nahekommen. Sich dieser Idee zu nähern ist nur möglich, wenn es gelingt zu ergründen,<br />
warum bestimmte Apparaturen zur Zeit der Uraufführung oder auch bei einzelnen Kon-<br />
zerten genutzt wurden, falls deren Einsatz überhaupt dokumentiert wurde. Die entschei-<br />
dende Frage ist hierbei, ob bestimmte technische Komponenten oder Verfahrensweisen,<br />
die Eigenheiten beispielsweise klanglicher Art besitzen, eben wegen dieser Eigenheiten<br />
ausgewählt wurden, oder ob der Komponist eher auf den prinzipiellen Prozeß der Bear-<br />
beitung oder Steuerung Wert gelegt hat, unabhängig von der konkreten Art der Realisie-<br />
rung. Gelingt es, darüber Informationen zu erlangen, kann man daraus ableiten, ob die<br />
Übertragung des betrachteten Teils der Live-Elektronik auf andere Technik dem inten-<br />
dierten Einsatz der Elektronik widerspricht oder ob es sich nur um eine alternative Rea-<br />
lisierung desselben Konzeptes der Elektronik handeln würde.<br />
Ist es nur möglich, Informationen über die ursprünglich eingesetzte Technik ohne eine<br />
Wertung dieser seitens des Komponisten oder anderer ursprünglich Beteiligter zu erhal-<br />
ten, ist nicht immer ersichtlich, ob bestimmte technische Komponenten, die vom heuti-<br />
gen Standpunkt aus als verbesserungswürdig erscheinen, nur aus Mangel an Zeit, Geld<br />
oder Verfügbarkeit eingesetzt wurden, oder ob nur sie Eigenschaften besitzen, die <strong>für</strong><br />
73
das Werk von besonderer Bedeutung sind.<br />
Erstellt man heute ein neues Werk mit einem zugehörigen Konzept <strong>für</strong> ein Live-<br />
Elektronik-Setup, kann man konstatieren, daß die Hardware, die, wie bereits erwähnt,<br />
wesentlich standardisierter ist als früher (mit Ausnahme der Mikrofone und Lautspre-<br />
cher), durch präzisere Fertigungs- und Meßmethoden immer weniger individuellen und<br />
unbeabsichtigten Einfluß auf das Signal nimmt. Demzufolge muß heutzutage die Frage<br />
nach dem expliziten Einsatz bestimmter Prozesse im Bereich der Software gestellt wer-<br />
den, auch Programmierstrategien gehören beispielsweise dazu. Durch die Möglichkei-<br />
ten, die aktuelle, sehr frei anwendbare Software ihm bietet, kann ein Programmierer mit<br />
großer Präzision die Prozesse der Elektronik in ihrem Erscheinungsbild festlegen und so<br />
exakt definieren, welche elektronischen Eingriffe in den elektroakustischen Signalfluß<br />
explizit erwünscht sind und welche nur eine mögliche Realisation einer prinzipiellen<br />
Verarbeitung sind.<br />
Genau diese Frage ist nämlich die zu klärende bei der Übermittlung jeder exemplari-<br />
schen Realisierung eines Konzeptes <strong>für</strong> Live-Elektronik.<br />
3.5 Identität von Werken und die Freiheit der<br />
Interpretation<br />
„Interpretation heißt: die Komposition so komponieren, wie sie von sich aus komponiert sein möchte.“ 71<br />
Diese Aussage Adornos umreißt die Problemstellung der Interpretation so scharf, wie<br />
sie zu ihrer Lösung in keinster Weise beiträgt. Eine Komposition beinhaltet demnach<br />
Intentionen, die sich aus ihr selbst ergeben und zu ihrer Interpretation erkannt werden<br />
sollen, denn<br />
„Die wahre Interpretation ist die vollkommene Nachahmung der musikalischen Schrift.“ 72<br />
Wie diese Erkennung aber nun funktionieren soll, das ist die eigentliche Frage, die un-<br />
71 Adorno 2005, S. 169<br />
72 Adorno 2005, S. 83<br />
74
eantwortet bleibt. Meiner Meinung nach krankt die Position Adornos zumindest hin-<br />
sichtlich der zeitgenössischen <strong>Musik</strong> daran, daß es inzwischen ein allgemeines Bestre-<br />
ben von Komponisten geworden ist, eine grundlegend individuelle Sprache ihrer <strong>Musik</strong><br />
und ihrer Ästhetik zu finden, die sich allerdings im Gegensatz zu älterer <strong>Musik</strong> oft nicht<br />
mehr aus einem historischen Kontext erschließen läßt. Diese Sprache, die sich also nicht<br />
unbedingt nur aus dem Werk allein mitteilt, muß dem Interpreten <strong>für</strong> eine adäquate In-<br />
terpretation deutlich werden, vor allem wenn über sie wichtige Inhalte der Komposition<br />
vermittelt werden.<br />
Eine sehr extreme Position stellt die Nutzung offener Formen dar, wie sie seit den fünf-<br />
ziger Jahren in der zeitgenössischen <strong>Musik</strong> Einzug erhielt. Dieses Phänomen beschreibt<br />
Umberto Eco folgendermaßen:<br />
„Der Künstler, so kann man sagen, bietet dem Interpretierenden ein zu vollendendes Werk: er weiß nicht<br />
genau, auf welche Weise das Werk zu Ende geführt werden kann, aber er weiß, daß das zu Ende geführte<br />
Werk immer noch sein Werk, nicht ein anderes sein wird, und daß am Ende des interpretativen Dialogs<br />
eine Form sich konkretisiert haben wird, die seine Form ist, auch wenn sie von einem anderen in einer<br />
Weise organisiert worden ist, die er nicht völlig vorhersehen konnte: denn die Möglichkeiten, die er dar-<br />
geboten hatte, waren schon rational organisiert, orientiert und mit organischen Entwicklungsdrängen be-<br />
gabt.“ 73<br />
Um die Vielfalt dieser Möglichkeiten <strong>für</strong> die Interpretation nutzbar zu machen, ist es<br />
nötig, daß der Komponist dem Interpreten den genauen Rahmen hinterläßt, innerhalb<br />
dessen er agieren kann. Diese Forderung trifft aber nicht nur auf die von Eco explizit<br />
angesprochenen Werke der fünfziger und sechziger Jahre zu, sondern prinzipiell auf<br />
jedes Werk, daß zu seiner Ausführung eines Interpreten bedarf und diesen auch voraus-<br />
setzt. Also ist im Besonderen auch die Interpretation von Live-Elektronik betroffen, ge-<br />
rade weil sich hier<strong>für</strong> bisher nur individuelle Notationsweisen gebildet haben, die<br />
genutzte Sprache häufig sehr technisch geprägt ist und folglich, zusammen mit den mit<br />
ihr verbundenen technischen Apparaturen, einer schnellen Alterung unterliegt.<br />
Wenn man nun die Frage nach der Definition dieses Rahmens <strong>für</strong> die elektronischen<br />
Komponenten einer Komposition stellt, kann man sowohl auf Basis der Funktionalität<br />
73 Eco 1977, S. 55, Hervorhebungen im Original<br />
75
der Technik Grenzen ziehen, als auch im interpretatorischen Umgang mit ihr. Kriterien<br />
da<strong>für</strong> habe ich bisher umfangreich herausgearbeitet. Dabei kann man entweder Wert auf<br />
die Beschreibung des akustisch zu erzielenden Resultats legen, oder es wird eher dort<br />
ein Rahmen gesetzt, wo das konkrete akustische Ergebnis nachrangig ist und hauptsäch-<br />
lich Fragen der Form, der Gestik oder des Prinzips der Steuerung gestellt werden.<br />
Es gibt noch einen weiteren Aspekt im Umfeld von Steuerung, der bisher nicht erwähnt<br />
wurde, <strong>für</strong> die Rezeption einer Aufführung von <strong>Musik</strong> mit Live-Elektronik aber eben-<br />
falls sehr entscheidend sein kann: die physische Aktion der Interpreten und ihre optische<br />
Wirkung.<br />
Wenn bestimmte physische Aktionen visuell an verschiedene Elemente der Live-<br />
Elektronik direkt gekoppelt sind, dann muß auch hierbei der Rahmen festgelegt werden,<br />
innerhalb dessen sich diese Bewegungsabläufe vollziehen müssen. Soll beispielsweise<br />
ein Interpret in einem <strong>Musik</strong>theater einen Lautsprecher über die Bühne schieben, ist der<br />
Effekt sicherlich ein anderer, als wenn der Lautsprecher ohne sichtbare Einwirkung aus<br />
dem Off gezogen wird. Auch die Größe des Lautsprechers könnte in diesem Fall übri-<br />
gens entscheidenden Einfluß haben, sogar ohne Beisein eines Interpreten. Ein anderes<br />
Beispiel wäre das Abrufen von Samples während eines Stückes. Ein Interpret, der an ei-<br />
nem Keyboard agiert, weckt völlig andere, zudem durch die Ähnlichkeit zur traditionel-<br />
len Spielweise des Klaviers geprägte Assoziationen beim Zuschauer als derselbe<br />
Interpret an einer Computertastatur oder an einem Controller mit Tastern, obwohl sich<br />
<strong>für</strong> den Zuhörer dasselbe akustische Ergebnis einstellen kann.<br />
Bei aller Bestrebung, der Vorstellung des Komponisten nahezukommen, darf aber auch<br />
eines nicht vergessen werden:<br />
„Die Werke verändern sich: das heißt auch: gegen den Willen des Autors“ 74<br />
Dabei muß ja nicht einmal dem Komponisten aktiv widersprochen werden, denn bereits<br />
die von Eco so treffend beschriebene Situation der Interpretation, die „er [der Kompo-<br />
74 Adorno 2005, S. 122<br />
76
nist] nicht völlig vorhersehen konnte“ 75 reicht bisweilen aus, um ein Ergebnis zu erzie-<br />
len, dem der Komponist in dieser Form vielleicht nicht seine Zustimmung geben würde,<br />
obwohl es sich immer noch um sein Werk handelt. Wenn ein Komponist solche Situa-<br />
tionen ausschließen möchte, muß er seine <strong>Musik</strong> von der Kultur der Interpretation lösen<br />
und dazu übergehen, auf Tonträgern festgeschiebene <strong>Musik</strong> zu produzieren, die dann al-<br />
lerdings nicht einmal mehr im Konzert präsentiert werden dürfte, denn das wäre ja<br />
ebenfalls wieder eine Interpretation bezüglich Auswahl und Positionierung der Laut-<br />
sprecher, gewählter Lautstärke usw.<br />
Um bei der Interpretation Bezüge zur Gegenwart der Interpreten und des Publikums<br />
herstellen zu können, ist es hingegen immer wieder nötig, die Rezeptionssituation neu<br />
zu überdenken. So kann man mit Sicherheit sagen, daß sich die Rezeption von mehrka-<br />
naliger Beschallung in zeitgenössischer <strong>Musik</strong> stark gewandelt hat, seit die mehrkanali-<br />
ge Wiedergabe von Filmen in den Kinos zur Normalität geworden ist, die inzwischen<br />
sogar in immer größerer Anzahl auch beim Publikum zu Hause Einzug erhält. Zudem<br />
sind seit einigen Jahren immer mehr Tonträger und sogar Radiosendungen in Surround<br />
verfügbar.<br />
75 Eco 1977, S. 55<br />
77
4. Entwurf einer Methodik zur strukturellen<br />
Vorgehensweise<br />
Im Folgenden soll eine Methodik erstellt werden, anhand derer eine Komposition mit<br />
Live-Elektronik auf einer allgemeinen Ebene mit denjenigen Fragestellungen konfron-<br />
tiert werden kann, die <strong>für</strong> eine möglichst universelle Dokumentation hinsichtlich der in<br />
den letzten Kapiteln untersuchten Aspekte dringend benötigt werden. Dieser allgemeine<br />
Ansatz kann dann unter Zuhilfenahme der untersuchten Parameter und Entscheidungs-<br />
kriterien weiter differenziert werden.<br />
4.1 Technik<br />
Um die funktionalen Zusammenhänge der technischen Komponenten der Elektronik zu<br />
erfassen, bietet es sich an, diese zu visualisieren, um sie lesbar und übersichtlich zu ge-<br />
stalten. Je nach Bedarf bieten sich da<strong>für</strong> verschiedene Schemata an, die auch kombiniert<br />
genutzt werden sollten:<br />
• Schaltpläne der elektronischen Bauteile 76 (mit Symbolen nach DIN EN 60617)<br />
• Plan des Routings z.B. in Form einer Matrix<br />
• Flußdiagramme der programmierten Software (mit Symbolen nach DIN<br />
66001 77 )<br />
• Zuweisung und spezielle Anwendung (z.B. Loops) von Samples, die ansonsten<br />
wie herkömmliche Tonträger archiviert werden können 78<br />
• Aufbaupläne <strong>für</strong> alle Instrumente, Spielerpositionen, Lautsprecher- und Mikro-<br />
fonpositionen sowie spezielle Setups von Controllern zur Steuerung der Elektro-<br />
nik<br />
76 Ein Beispiel ist in Abbildung 9 zu finden<br />
77 Siehe Abbildung 10<br />
78 Siehe zur Archivierung Kapitel 4.4<br />
78
• Beschreibungen des Setups der Elektronik in Form von Texten 79<br />
• Exemplarische Equipmentliste (Technical Rider) mit Angabe der bei einer Rea-<br />
lisierung bereits eingesetzten Komponenten, insbesondere der leicht austausch-<br />
baren Komponenten wie Mikrofone, Lautsprecher, gängige Effekte und<br />
Mischpult<br />
• Exemplarische Realisierung von automatisierten Steuerungen oder program-<br />
mierter Elektronik, beispielsweise Max/MSP-Patches oder Sampler-Program-<br />
men<br />
Abb. 9: Schaltplan mit genormten Symbolen bei Stockhausen<br />
Gerade im Falle von programmierter Software, aber auch bei Schaltplänen, hängt die<br />
Dokumentierbarkeit enorm davon ab, wie sehr sich die vorliegende Technik abstrahie-<br />
ren läßt und ihre Funktionalität sich in eine allgemein lesbare Sprache, beispielsweise<br />
mit den vorgeschlagenen graphischen Symbolen, übertragen läßt. Bei geschützter Soft-<br />
ware wie gewissen Plugins oder auch bei herstellergebundener Hardware wie z.B.<br />
Synthesizern kommt es oft vor, daß es Parameter gibt, deren Skalierung oder klangliche<br />
Auswirkung auf das akustische Endergebnis nicht dokumentiert und offiziell zugänglich<br />
sind. In diesem Fall kann man nur das konkrete Produkt dokumentieren und darauf hof-<br />
fen, daß es auch in Zukunft in dieser oder alternativer Form zugänglich sein wird. Wie<br />
bereits erwähnt, entsteht dieses Problem bei Open-Source-Software nicht.<br />
79 Als gutes Beispiel kann man die Verbalpartituren von Alvin Lucier betrachten. (Lucier 2005)<br />
79
Abb. 10: Sinnbilder nach DIN 66001<br />
An dieser Stelle sei ausdrücklich darauf hingewiesen, daß die alleinige Erfassung und<br />
Weitergabe von exemplarischen Auflistungen und Realisierungen meistens nur einge-<br />
schränkte Rückschlüsse auf die Anforderungen an die Elektronik zuläßt. Zudem besteht<br />
die enorme Gefahr, daß <strong>für</strong> Software Kompatibilitätsprobleme durch Alterung der Hard-<br />
ware entstehen, oder daß auch akustische Eigenschaften von alter Hardware nicht mehr<br />
zu recherchieren sind und damit die gesamte Information verlorengeht.<br />
80
4.2 Aktion<br />
Um eine Grundlage <strong>für</strong> eine sinnvolle Notation 80 <strong>für</strong> Interpreten entwickeln zu können,<br />
bedarf es einer Analyse der von den Interpreten auszuführenden Aktionen. Bei Aktionen<br />
auf dem akustischen Instrumentarium ist durch die Tradition der jahrhundertelangen<br />
Musizier- und Unterrichtspraxis eine Basis vorhanden, die auch neuartige Spieltechni-<br />
ken zunehmend integriert und standardisiert. Für den Bereich des elektroakustischen<br />
Instrumentariums gibt es diesen Konsens jedoch kaum. Das liegt darin begründet, daß<br />
es dieses Instrumentarium erst seit einigen Jahrzehnten überhaupt gibt, daß es sich in<br />
dieser Zeit aber auch ständig in seinem Erscheinungsbild geändert hat. Zudem ist der<br />
Aufbau der Elektronik als Instrument <strong>für</strong> nahezu jedes Stück unterschiedlich und bietet<br />
sich auch daher nicht gerade <strong>für</strong> eine Standardisierung an. Wenn auch die konkrete<br />
Erscheinung in jedem Werk unterschiedlich ist, so kann dennoch eine standardisierte<br />
Vorgehensweise <strong>für</strong> deutliche und universelle Resultate Sorge tragen.<br />
Die Aktionen, die bei der Ausführung von Live-Elektronik anfallen, lassen sich zu-<br />
nächst linear anhand einer Zeitleiste einordnen. Damit bietet es sich auch an, sie in einer<br />
(wenn auch speziell präparierten) Partitur in der Art einer traditionellen Instrumental-<br />
stimme einzufügen.<br />
Weiterhin kann man bei genauerer Betrachtung der Aktionen feststellen, daß fast alle<br />
Aktionen im Umgang mit der Elektronik sich auf Schalter oder Regler beziehen. Dabei<br />
kann man immer <strong>für</strong> die Schalter eine bestimmte Anzahl an festen Einstellungen defi-<br />
nieren, <strong>für</strong> die Regler hingegen einen Regelbereich, der anhand einer gewissen Skalie-<br />
rung oder einer Regelkurve innerhalb von zwei Grenzwerten definiert werden kann.<br />
Kennt der Interpret diese Parameter und ihre Auswirkungen, kann er die daran auszu-<br />
führenden Aktionen vorbereiten, bei schwierigen Passagen auch üben. In jedem Fall<br />
müssen ihm die Auswirkungen seiner Aktionen vorhersehbar sein, damit er eine zuver-<br />
lässige Interpretation gewährleisten kann.<br />
Bei der Nutzung von speziellen Controllern wie Datenhandschuhen, Bewegungs-<br />
sensoren oder jeglichen Analog-to-MIDI-Convertern läßt sich ebenfalls die Einteilung<br />
in Schalter und Regler vornehmen, nur werden diese nicht direkt bedient, sondern über<br />
80 Genaueres hierzu im Kapitel 4.3<br />
81
Mapping der jeweiligen controller-eigenen Parameter gesteuert.<br />
Schließlich gibt es noch eine weitere Kategorie von Aktionen, die entstehen, wenn bei<br />
der Kontrolle von zuvor automatisierten Aktionen ein manuelles Eingreifen nötig wird.<br />
Automatisierte Parameter verhalten sich prinzipiell nicht anders, als wenn ein Beteilig-<br />
ter diese live steuern würde, nur sind sie exakter, zuverlässiger und identisch reprodu-<br />
zierbar. Da der kontrollierende Interpret die Aktionen allerdings nicht direkt reflektieren<br />
und gegebenenfalls korrigieren kann, wie bei der manuellen Ausführung, muß ihm ge-<br />
nau ersichtlich sein<br />
• was automatisiert wurde,<br />
• wie die Automatisierung synchronisiert wird (z.B. Timecode oder Cue-Punkte)<br />
• ob die Automation über Anzeigen oder motorisierte Controller ersichtlich ist<br />
oder nur anhand des (akustischen) Resultats überprüft werden kann und<br />
• wie er im gegeben Falle eingreifen kann.<br />
4.3 Notation<br />
Die oben beschriebene Dokumentation des technischen Setups sollte der Partitur beige-<br />
fügt sein oder zumindest von Personen oder <strong>Institut</strong>ionen zu erhalten sein, deren Kon-<br />
taktdaten aus der Partitur ersichtlich sein sollten.<br />
Darüber hinaus gibt es aber Informationen zur Interpretation eines Werks mit Elektro-<br />
nik, die nur in der Partitur notiert sein können. Dies sind einerseits alle oben beschrie-<br />
benen Aktionen, die im Zusammenhang mit der Elektronik auszuführen sind, darüber<br />
hinaus aber andererseits alle Angaben zu den in den vorigen Kapiteln herausgearbeite-<br />
ten Parametern der akustischen Funktion der Elektronik, wie beispielsweise Klanglich-<br />
keit, Lokalisation, Balance, Räumlichkeit oder Dynamik, die nicht schon vollständig<br />
über die Dokumentation des technischen Setups zu erschließen sind. Insbesondere bei<br />
Parametern, die sich im Verlauf des Stückes ändern sollen, müssen diese innerhalb der<br />
Partitur vermerkt sein.<br />
82
Möchte man Aktionen notieren, gibt es zunächst die Möglichkeit, in der Partitur an den<br />
entsprechenden Stellen verbale Anmerkungen einzufügen. Dies bietet sich besonders an<br />
bei schaltbaren Vorgängen, da man diese genau definiert hat und in der Regel die Ein-<br />
stellungen bereits numeriert oder binär (ein/aus) vorliegen. Auch sämtliche Angaben,<br />
die sich nicht über Schalter oder Regler fassen lassen, sondern auf Bewegung im Raum<br />
oder Bedienung spezieller Controller beruhen, lassen sich gut verbalisieren, wenn man<br />
nicht eine individuelle Notation erfinden möchte.<br />
Für kontinuierliche Regelvorgänge hingegen bietet sich vielmehr eine Notation an, die<br />
graphisch über der Zeitachse als Amplitude aufgetragen wird. So kann man innerhalb<br />
von zwei Linien als Grenzwerten und mit einer zu definierenden Skala eine kontinuierli-<br />
che Kurve auftragen, die als Visualisierung des dynamischen Verlaufs gelten kann.<br />
Nicht zufällig wird diese Form der graphischen Darstellung auch in Sequenzern <strong>für</strong> die<br />
Darstellung von automatisierten Parametern genutzt. So kann man pro variablem Para-<br />
meter eine Kurve über der Zeit auftragen und eine exakte Notation gewährleisten.<br />
Während die Beschreibung der Aktionen prädestiniert ist <strong>für</strong> die direkte Beschreibung<br />
steuernder Vorgänge, wird man <strong>für</strong> die Beschreibung des akustisch zu erzielenden Re-<br />
sultats in der Partitur die von mir in den vorherigen Kapiteln herausgearbeiteten Para-<br />
meter nutzen oder sich der herkömmlichen musikalischen Symbole und Anweisungen<br />
bedienen. So sind beispielsweise die klassischen Angaben zur Dynamik universell ver-<br />
ständlich und leicht lesbar. 81 Wenn <strong>für</strong> die genannten Parameter keine Symbolsprache<br />
erfunden werden soll, wird man sich hier<strong>für</strong> meistens kurzer Anmerkungen als ausfor-<br />
muliertem Text bedienen. Nur wenige unter den Parametern eignen sich <strong>für</strong> eine graphi-<br />
sche Notation, wie beispielsweise die Angaben zur Lokalisation.<br />
Für die Übersichtlichkeit in der Partitur und <strong>für</strong> die Praxis der Interpretation ist es im<br />
allgemeinen wünschenswert, wenn der Komponist eine Hierarchie der Parameter und<br />
Aktionen aufstellt, um sie in ihrer Wichtigkeit <strong>für</strong> das vorliegende Werk einordnen zu<br />
können. So kann man sich auch vorstellen, bei einer großen Anzahl von Parametern und<br />
81 Auf die Problematik der absoluten Lautstärke habe ich bereits in Kapitel 3.1.5 hingewiesen, daher<br />
können diese Angaben nur relativ eingesetzt werden. Allerdings kann man Vergleiche <strong>für</strong> die Angaben<br />
absoluter Lautstärke suchen, beispielsweise im Bezug zu Instrumenten oder akustischen Ereignissen,<br />
die man als bekannt voraussetzen kann, und diese in einer Legende oder an der entsprechenden<br />
Stelle der Partitur definieren.<br />
83
Aktionen die weniger wichtigen nur in einer „Dokumentationspartitur“ zu notieren und<br />
dann in einer zweiten, übersichtlicheren „Arbeitspartitur“ die wichtigsten <strong>für</strong> die prakti-<br />
sche Anwendung zusammenzufassen.<br />
4.4 Archivierung<br />
Bei sämtlichen bisherigen Überlegungen in dieser Arbeit stand das Bestreben an erster<br />
Stelle, so viele reproduktionsrelevante Aspekte der Live-Elektronik wie nur möglich zu<br />
abstrahieren, um diese von konkreten Systemen unabhängig verbalisieren und notieren<br />
zu können.<br />
Meiner Meinung nach ist dieses Abstrahieren schließlich in nur wenigen Fällen prinzi-<br />
piell nicht möglich:<br />
• Künstlerische Nutzung von „Fehlern“ in der Technik, die nicht reproduzierbar<br />
und somit nicht messbar sind<br />
• Nutzung von physikalischen Phänomenen oder akustischen Eigenschaften vor-<br />
handener Räume oder Instrumente, die zu komplex sind, um sie messen oder si-<br />
mulieren zu können<br />
• Nutzung von Geräten aus anderen als akustischen Eigenschaften, z.B. wegen der<br />
Optik<br />
• Aufgenommene Klänge, die nicht reproduziert werden können<br />
Bei den ersten drei Fällen ist <strong>für</strong> eine Archivierung nur eine Konservierung der vorhan-<br />
denen Gegenstände denkbar oder tatsächlich die Erstellung einer exakten Kopie, falls<br />
alle da<strong>für</strong> nötigen Informationen und technischen Grundlagen zur Verfügung stehen.<br />
Der <strong>für</strong> uns hier interessanteste Fall ist die Archivierung von aufgenommenen Klängen.<br />
Da Aufnahmen immer zu einem bestimmten Zeitpunkt unter Einsatz von dann verfüg-<br />
barer Technik durchgeführt werden und wurden, befinden sie sich stets auf Speicherme-<br />
dien, die ebenfalls einer speziellen Epoche entstammen. Dabei ist es prinzipiell völlig<br />
84
egal, ob es sich um Bänder, Spulen oder Festplatten handelt, sie werden in ihrer Funk-<br />
tion als Tonträger eingesetzt. Diese Tonträger sind <strong>für</strong> die Wiedergabe der Klänge nur<br />
wertvoll in Verbindung mit der entsprechenden Lesevorrichtung, die aus dem Tonträger<br />
die akustischen Informationen wieder herauslösen kann. Daß diese derselben Epoche<br />
entstammen muß wie der Tonträger, ist dabei evident. Ergänzend müssen noch alle In-<br />
formationen <strong>für</strong> die Anpassung des Tonträgers auf seine Lesevorrichtung festgehalten<br />
werden, die dieser nicht selber liefern kann. Diese können mit anderen „Metadaten“ üb-<br />
licherweise in Text- oder Tabellenform notiert werden, was die Archivierbarkeit enorm<br />
erleichtert.<br />
Wichtig <strong>für</strong> die Archivierung von Audio ist der prinzipielle Unterschied zwischen der<br />
Speicherung codierter und nicht codierter Daten: Während es bei letzterer alleine darum<br />
geht, den Datenträger lesbar zu halten, weil die gelesenen Informationen sich dann ana-<br />
log zum Spannungsverlauf der aufgenommenen Klänge verhalten, müssen bei codierter<br />
Speicherung die gelesenen Daten zunächst decodiert werden, bevor sie weiter genutzt<br />
werden können. Diese Codierung besteht sowohl bei analogen als auch digitalen Medi-<br />
en, mit dem Unterschied, daß bei digitaler Datenspeicherung die Werte diskret vorlie-<br />
gen und somit codiert werden müssen. Bei analoger Speicherung kann ein Code<br />
vorliegen, wie beispielsweise die Entzerrung <strong>für</strong> Schallplatten durch die genormte<br />
RIAA 82 -Kennlinie oder die Frequenzmodulation bei Radioübertragung, er ist aber nicht<br />
zwingend nötig.<br />
Der jeweilige Code ist immer essentieller Bestandteil der Lesevorrichtung und muß ihr<br />
beigefügt sein. Dem ist besonders dann Beachtung zu schenken, wenn der Code von der<br />
Hardware der Lesevorrichtung getrennt werden kann, wie es beispielsweise bei Compu-<br />
tern oft der Fall ist, wo der Code als zusätzliches Programm vorliegt.<br />
Es gibt drei Forderungen, die an die genannten drei Komponenten (Tonträger, Lesevor-<br />
richtung, Metadaten) gestellt werden sollten, um eine Reproduzierbarkeit zu gewährleis-<br />
ten:<br />
82 „Recording Industry Association of America“, wurde 1952 gegründet, um einen Standard <strong>für</strong> die<br />
Schallplatte zu schaffen<br />
85
• Haltbarkeit (damit eine Generation von ihnen lange Zeit nutzbar ist)<br />
• Fähigkeit zu Sicherungskopien (um weitere Generationen anfertigen zu können,<br />
gilt vor allem <strong>für</strong> Tonträger und Metadaten)<br />
• Übertragbarkeit auf ein anderes System (falls es unmöglich wird, das System<br />
aufrechtzuerhalten; gilt <strong>für</strong> alle drei Komponenten im Verbund)<br />
Zu erwähnen ist, daß durch den Einsatz digitaler Speicherung die Möglichkeit gegeben<br />
wird, Sicherungskopien und Übertragungen auf andere Systeme verlustfrei zu machen,<br />
jedoch nur, solange die Codierungen der Systeme gegenüber dem nicht codierten Origi-<br />
nal verlustfrei sind. Handelt es sich hingegen um Datenreduktion, gehen bei jedem Vor-<br />
gang einer Codierung Daten verloren, was sich bei Kopien zwischen datenreduzieren-<br />
den Systemen summieren kann. Dabei ist nicht zu vergessen, daß ein digitales Signal<br />
prinzipiell bereits einen Verlust von Informationen gegenüber dem jeweiligen analogen<br />
Signal bedeutet, da es nur diskrete Werte abtasten und speichern kann.<br />
Glücklicherweise gibt es im Bereich der Archivierung von Audio ein wesentlich größe-<br />
res kommerzielles Interesse als bei der Archivierung von Live-Elektronik, da auch<br />
sämtliche Tonträgerarchive vom Rundfunk oder von privaten Plattenfirmen mit der<br />
Problematik der Archivierung von ihren Beständen konfrontiert sind. Dies läßt darauf<br />
hoffen, daß es immer ausreichend Nachfrage und finanzielle Mittel <strong>für</strong> Forschung und<br />
Entwicklung im Bereich der Tonträger geben wird, die insbesondere Lösungen <strong>für</strong> die<br />
Übertragung von alten auf neue Speichersysteme bieten kann.<br />
Die Frage der Metadaten, die zur Archivierung in Datenbanken erfasst werden sollen,<br />
muß im Kontext der <strong>Musik</strong> mit Live-Elektronik völlig neu gestellt werden. Schon bei<br />
der herkömmlichen Tonträgerarchivierung ist der nötige Umfang der Metadaten um-<br />
stritten, üblicherweise werden aber mindestens folgende Angaben erfasst:<br />
• Komponist<br />
• Werk<br />
• Interpret<br />
• Tonträger (Format und Quelle)<br />
86
Derzeit wird von der ARD, dem ZDF und dem Deutschen Rundfunkarchiv ein neues<br />
„Regelwerk Mediendokumentation“ ausgearbeitet, das dann als Rahmenrichtlinie <strong>für</strong><br />
die Dokumentation sowohl bei der Produktion als auch bei der Archivierung von jegli-<br />
chen Medien gelten soll. 83 Hier eine graphische Darstellung der ausgearbeiteten Struktur<br />
aus einer Präsentation, die im Internet zum Download bereitsteht:<br />
Abb. 11: Metadaten nach dem neuen „Regelwerk Mediendokumentation“<br />
Man erkennt die deutlich deskriptive Ausrichtung des Archivs hinsichtlich der zu archi-<br />
vierenden Medieninhalte, die größte Gruppe von Metadaten beschreibt das dokumen-<br />
tierte Ereignis, daneben gibt es Metadaten zur Produktion, also den Auftraggebern, und<br />
zu den Personen und <strong>Institut</strong>ionen, die bei der Realisierung des dokumentierten Ereig-<br />
nisses mitgewirkt haben. Recht klein ist der Bereich der formalen Daten des Mediums<br />
ausgefallen, und der Verweis auf die Partitur sieht nur einen Standort und Seitenzahl<br />
vor. Dieses Beispiel ist ein klassischer Fall der Optimierung eines Archivs <strong>für</strong> Tonträ-<br />
ger in standardisiertem Format, in dem man viele Informationen über ihren Inhalt ein-<br />
bringen kann. Die Reproduzierbarkeit wird als gegeben vorausgesetzt und daher werden<br />
83 ARD/DRA: Regelwerk Mediendokumentation: http://rmd.dra.de/arc/php/main.php<br />
[Stand 2006-09-22]; die Seite befindet sich derzeit noch im Aufbau<br />
87
hierzu keine umfangreichen Daten gesammelt.<br />
Für die Dokumentation von <strong>Musik</strong> mit Live-Elektronik müssen im Vergleich zur Doku-<br />
mentation von Tonträgern Angaben in den Metadaten ergänzt werden, die bei einer Re-<br />
produktion von dem dokumentierten Werk <strong>für</strong> die Beteiligten nötig sind. Hierzu gehört<br />
insbesondere Folgendes:<br />
• Daten mit technischen Angaben zur Live-Elektronik, die nicht in der Partitur<br />
vermerkt sind 84<br />
• Kontaktpersonen oder <strong>Institut</strong>e, die den elektronischen Part des Stücks bereits<br />
realisiert haben<br />
• detaillierte Angaben zu bisherigen Aufführungen und früheren Versionen der<br />
Elektronik<br />
Einen Entwurf <strong>für</strong> die Archivierung elektronischer <strong>Musik</strong> legte im Jahre 2004 das Insti-<br />
tut <strong>für</strong> elektronische <strong>Musik</strong> und Akustik (IEM) der Universität <strong>für</strong> <strong>Musik</strong> und darstel-<br />
lende Kunst Graz in Form des „Internet Archivs <strong>für</strong> Elektronische <strong>Musik</strong>“ (iaem) 85 vor.<br />
Es ist offensichtlich, daß bei diesem Archiv die technischen Kriterien des Mediums und<br />
auch seiner Inhalte wesentlich detaillierter ausgearbeitet worden sind, als bei der zuvor<br />
besprochenen Archivstruktur. Es wird nicht von standardisierten Datenformaten ausge-<br />
gangen, und die notwendigen Informationen zur Wiedergabe von den entsprechenden<br />
Tonträgermedien sind vielfältig. Dennoch wird auch hier auf die speziellen Belange der<br />
Live-Elektronik eher nicht eingegangen, die Informationen zur Technik der Entstehung<br />
der Archivinhalte, die <strong>für</strong> eine Reproduktion der technischen Apparaturen nötig wären,<br />
sind kaum vorgesehen. Ebenso werden die Daten nicht <strong>für</strong> eine Weitergabe hinsichtlich<br />
erneuter Aufführungen vorbereitet.<br />
Interessant ist aber, daß bei dem Grazer Archiv zumindest eine Koppelung an eine Nut-<br />
zung von Raumsimulation mit Binaural-Transformation durch Ambisonic angestrebt<br />
wird, um die Projektion von mehrkanaligen Werken in virtuellen Räumen umzusetzen.<br />
84 Siehe hierzu die Auflistung unter 4.1<br />
85 IEM: Internet Archiv <strong>für</strong> Elektronische <strong>Musik</strong>: http://iem.iaem.at/ [Stand 2006-09-22], Seite veraltet<br />
88
Hier eine Darstellung der angestrebten Metadaten-Struktur des Grazer Archivs:<br />
Abb. 12: Metadaten-Struktur des iaem<br />
Zusammenfassend möchte ich hier diejenigen Daten darstellen, die ich <strong>für</strong> die Struktur<br />
eines Archivs <strong>für</strong> <strong>Musik</strong> mit Live-Elektronik als notwendig erachte. Die Aufbereitung<br />
<strong>für</strong> eine Reproduktion des archivierten Werkes steht hierbei als primäres Ziel im Vor-<br />
dergrund. Neben den Daten bezüglich Werk, Komponist und Interpreten gibt es das<br />
große Feld der technischen Dokumentation, das danach aufgeteilt ist, ob man die Tech-<br />
nik abstrahieren kann oder nicht. Dies wirkt sich nämlich in der Art der Archivierung<br />
aus, da man die nicht abstrahierbaren und die exemplarisch realisierten Komponenten<br />
aufwendig lagern und konservieren muß 86 , während die Abstraktionen als Texte oder<br />
Grafiken einfach zu archivieren sind. Darüber hinaus werden Informationen zur Ästhe-<br />
tik des Werkes oder des Komponisten gesammelt, die Aufschluß über die Anforderun-<br />
gen an die Interpretation geben sollen. Schließlich ist zu erwähnen, daß sowohl die<br />
technischen Komponenten als auch die weiteren Informationen von Aufführung zu Auf-<br />
führung differieren können, daher sollte man die Historie der Aufführungen sowohl in<br />
86 Das muß aber nicht notwendigerweise in diesem Archiv geschehen, es kann Verweise geben, z.B. auf<br />
Personen, <strong>Institut</strong>ionen o.ä., die historische Abspielgeräte oder Klangerzeuger lagern und pflegen.<br />
89
der technischen Dokumentation als auch in der Sammlung der weiteren Informationen<br />
deutlich kennzeichnen. Folgend mein Vorschlag:<br />
Komponist (Name, Geburtsdatum, Kontaktdaten)<br />
Werk (Titel, Untertitel, Besetzung, Versionen, Entstehungsdaten, Verlag usw.)<br />
bisherige Aufführungen<br />
bisherige Interpreten (Klangregie, Dirigenten, Instrumentalisten; jeweils mit<br />
Kontaktdaten)<br />
Technische Dokumentation (je Aufführung getrennt)<br />
nicht abstrahierbare Technik<br />
• Medien (Zuspielbänder, Samples)<br />
• Hardware (spezielle Klangerzeuger und Controller)<br />
• spezielle Software<br />
abstrahierte Technik (als Schaltpläne, Routing, Programmstrukturen)<br />
• Klangerzeugende Elemente<br />
• Schallwandler<br />
• Klangverarbeitende Elemente<br />
• Klangspeichernde/-wiedergebende Elemente<br />
• Steuerung<br />
exemplarische Realisation<br />
• Aufführungsraum<br />
• Pläne <strong>für</strong> die Positionierung von Instrumenten, Spielern und Technik<br />
• Technical Rider<br />
• Patches gängiger Programmierumgebungen (z.B. Max/Msp und PD)<br />
• Samplerprogramme<br />
Informationen zur Interpretation und zur Ästhetik (je Aufführung getrennt)<br />
an Aufführungen gebunden<br />
• Audioaufnahmen<br />
• Videoaufnahmen und Fotos<br />
• Programmtexte<br />
• Kritiken/Rezensionen<br />
allgemein<br />
• Schriften<br />
• Interviews<br />
90
5. Fazit<br />
In der vorliegenden Arbeit konnte gezeigt werden, wie sehr die schnell fortschreitende<br />
Entwicklung der technischen Komponenten, die im Kontext von <strong>Musik</strong> mit Live-<br />
Elektronik eingesetzt werden, Einfluß auf die Aufführbarkeit von Werken nimmt. Diese<br />
Entwicklung hatte in der Vergangenheit wesentliche strukturelle Änderungen der Ar-<br />
beitsweise mit der Technik zur Folge, und es ist davon auszugehen, daß dies auch zu-<br />
künftig der Fall sein wird. Die von mir eingangs aufgestellte Forderung nach<br />
systemunabhängiger Dokumentation wird so bestärkt.<br />
Um hier<strong>für</strong> notwendige Kriterien herauszuarbeiten, wurde eine Strukturierung der tech-<br />
nischen Komponenten vorgestellt, anhand derer meiner Meinung nach sämtliche Pro-<br />
zesse der Live-Elektronik funktionell abstrahiert und eingeordnet werden können sowie<br />
ihre Verwandschaft zu anderen Prozessen aufgezeigt werden kann. Für wichtige Geräte-<br />
prinzipien, die in der Live-Elektronik häufig vorkommen, wurden die jeweils reproduk-<br />
tionsrelevanten Parameter genannt und erörtert, wie diese in eine Dokumentation<br />
eingehen können.<br />
Weiterhin wurden wesentliche Parameter der Interpretation, also der Anwendung von<br />
Live-Elektronik, definiert und <strong>für</strong> ihren Einsatz in Dokumentationen analysiert.<br />
Auf der Basis der so erarbeiteten Kriterien konnte ich eine Methode vorstellen, die als<br />
generelle Herangehensweise an die Erstellung einer Dokumentation im genannten Sinne<br />
gelten kann. Nach der Analyse der zu dokumentierenden technischen und interpretatori-<br />
schen Parameter wird der Fokus hier schließlich auch auf die Niederschrift in der Parti-<br />
tur und auf die Archivierung weiterer zum Stück gehörender Medien gelenkt. Die<br />
erarbeitete Auflistung von Metadaten bietet eine Fokussierung auf die Angaben, die <strong>für</strong><br />
eine Reproduktion relevant sind und läßt eine Einordnung der Technik hinsichtlich ihrer<br />
Historie zu, insbesondere bezüglich früherer Aufführungen.<br />
Diese Arbeit versteht sich als grundlegender Beitrag zu einem Leitfaden, der helfen soll,<br />
die Vorgehensweise <strong>für</strong> Dokumentationen von <strong>Musik</strong> mit Live-Elektronik lückenloser<br />
91
zu gestalten, als dies derzeit häufig der Fall ist, um so eine standardisierte Notation und<br />
die einheitliche Aufbereitung von zusätzlichen Medien zu fördern, wo dies möglich ist.<br />
So kann sie ein Ausgangspunkt <strong>für</strong> weitere Untersuchungen auf dem Gebiet der <strong>Musik</strong><br />
mit Live-Elektronik sein, beispielsweise <strong>für</strong><br />
• die Entwicklung einer systemunabhängigen, schriftlich notierbaren Meta-<br />
Sprache <strong>für</strong> die üblicherweise eingesetzten Computerprogramme zu Zwecken ei-<br />
ner Archivierung, die dauerhafter ist als diese Programme selbst<br />
• die Sammlung von technischen Daten und praktischen Bedienungsanleitungen<br />
historischer Technik, insbesondere solange die Entwickler und ehemaligen An-<br />
wender noch leben<br />
• die Aufbereitung von Partituren und zusätzlichen Medien <strong>für</strong> die Veröffentli-<br />
chung im Verlagswesen<br />
• den Entwurf von Strategien und Techniken zur Archivierung historischer<br />
Klangerzeuger.<br />
92
Quellenangaben<br />
Literatur<br />
Theodor W. Adorno: Zu einer Theorie der musikalischen Reproduktion<br />
Suhrkamp, Frankfurt am Main 2005<br />
Donaueschinger <strong>Musik</strong>tage 2005, Programmheft<br />
Pfau-Verlag, Saarbrücken<br />
auch unter: http://www.swr.de/swr2/donaueschingen/archiv/2005<br />
/werkbeschreibung/furrerfama.html [Stand 2006-09-19]<br />
Umberto Eco: Das offene Kunstwerk<br />
Suhrkamp, Frankfurt am Main 1977<br />
Hans Peter Haller: Das Experimentalstudio der Heinrich-Strobel-Stiftung des<br />
Südwestrundfunks Freiburg 1971-1989. Die Erforschung der Elektronischen<br />
Klangumformung und ihre Geschichte<br />
Nomos Verlagsgesellschaft, Baden-Baden 1995, 2 Bände<br />
Friedrich Kittler: Short cuts<br />
Zweitausendeins, Frankfurt am Main 2002<br />
daraus S. 109-133: Computeranalphabetismus<br />
ursprünglich in F. Kittler / D. Matejowski (Hg.): Literatur im Informations-<br />
zeitalter, Campus, Frankfurt am Main 1996<br />
Alvin Lucier: Reflexionen. Interviews, Notationen, Texte 1965-1994<br />
<strong>Musik</strong>Texte, Köln 1995, 2. Auflage 2005<br />
93
Jürgen Meyer: Akustik und musikalische Aufführungspraxis<br />
Verlag Erwin Bochinsky, Frankfurt am Main 1972, 4. erweiterte Auflage 1999<br />
Jürgen Meyer: Kirchenakustik<br />
Verlag Erwin Bochinsky, Frankfurt am Main 2003<br />
Marietta Morawska-Büngeler: Schwingende Elektronen. Eine Dokumentation über<br />
das Studio <strong>für</strong> Elektronische <strong>Musik</strong> der Westdeutschen Rundfunks in Köln 1951-<br />
1986<br />
P.J. Tonger, Köln-Rodenkirchen 1988<br />
Roman Pfeifer: Schrift und Klang. zur Verschriftlichung von Tonbandmusik<br />
<strong>Diplomarbeit</strong>, Essen 2002<br />
http://icem.folkwang-hochschule.de/Publikationen/diplome.php?mid=17<br />
[Stand: 2006-09-19]<br />
Curtis Roads: The Computer Music Tutorial<br />
MIT, Cambridge, Mass. 1996<br />
André Ruschkowski: Elektronische Klänge und musikalische Entdeckungen<br />
Reclam, Stuttgart 1998<br />
Christian Scheib: Two rooms. A short conversation with Miller Puckette<br />
in bang. Pure Data, S. 165-169<br />
Wolke Verlag, Hofheim 2006<br />
Christof Siemes / Claus Spahn: Das Problem fängt mit den Posaunen an.<br />
Interview mit Pierre Boulez<br />
Die Zeit 30.12.2004, Feuilleton-Spezial: Die digitalen Künste, S. 44-45<br />
auch unter: http://www.zeit.de/2005/01/Boulez_echt [Stand 2006-09-19]<br />
94
Karlheinz Stockhausen: <strong>Musik</strong> im Raum<br />
Oktober 1958, erschienen in „Die Reihe“ 5<br />
Universal Edition A. G., Wien 1959<br />
Karlheinz Stockhausen: Die Zukunft der elektroakustischen Apparaturen in der <strong>Musik</strong><br />
in Texte zur <strong>Musik</strong> 1970-1977, Bd. 4, S. 425-436<br />
DuMont Buchverlag, Köln 1978<br />
Martin Supper: Elektroakustische <strong>Musik</strong> und Computermusik<br />
Wissenschaftliche Buchgesellschaft, Darmstadt 1997<br />
Stefan Weinzierl: Beethovens Konzerträume. Raumakustik und symphonische<br />
Aufführungspraxis an der Schwelle zum bürgerlichen Zeitalter<br />
Verlag Erwin Bochinsky, Frankfurt 2002<br />
95
Abbildungen<br />
Abb. 1: Karlheinz Stockhausen: SOLO <strong>für</strong> Melodieinstrument mit Rückkopplung,<br />
Komposition Nr. 19, UE 14789, Universal Edition A.G., Wien 1969<br />
Abb. 2: Dennis Gabor: Theory of Communication, The Journal of the <strong>Institut</strong>ion of<br />
Electrical Engineers, Unwin Brothers, London 1946, 93(3): S. 429-457, aus:<br />
Timothy Opie: Sound in a nutshell: Granular Synthesis. An overview of<br />
granular synthesis and the techniques involved, BA Honours,<br />
http://granularsynthesis.music.net.au/hthesis/gabor2.html<br />
[Stand 2006-09-24]<br />
Abb. 3: Pierre Boulez: Dialogue de l'ombre double <strong>für</strong> Klarinette und Tonband,<br />
Technische Anweisungen, UE 18407, Universal Edition A.G., Wien 1992<br />
Abb. 4: Haller 1995 (siehe Literatur), Bd. 1, S. 78, Abb. T32<br />
Abb. 5: siehe Abb. 3<br />
Abb. 6: Vinko Globokar: Drama <strong>für</strong> Klavier und Schlagzeug,<br />
Henry Litolff's Verlag/C.F. Peters, Frankfurt/London/New York 1971<br />
Abb. 7: Michael Dickreiter: Handbuch der Tonstudiotechnik,<br />
5. Auflage, K.G. Saur Verlag KG, München 1987, 2 Bände<br />
Bd. 1, S. 370, Bild 6/16<br />
Abb. 8: Haller 1995 (siehe Literatur), Bd. 1, S. 71, Abb. T30c<br />
Abb. 9: Karlheinz Stockhausen: Kurzwellen <strong>für</strong> sechs Spieler, Komposition Nr. 25,<br />
Universal Edition A.G., Wien 1968<br />
Abb. 10: Stahlknecht, P.; Hasenkamp, U.: Einführung in die Wirtschaftsinformatik,<br />
Springer-Verlag, Berlin/Heidelberg/New York 2005<br />
http://www.stahlknecht-hasenkamp.de/sh_abbildungen.php<br />
[Stand 2006-09-24]<br />
Abb. 11: ARD: Regelwerk Multimedia, Präsentation zur Veranschaulichung, Folie 50,<br />
http://rmd.dra.de/arc/doc/agRm_praes_2005-04-06.pps [Stand 2006-09-22]<br />
Abb. 12: <strong>Institut</strong> <strong>für</strong> Elektronische <strong>Musik</strong> und Akustik (IEM) der Universität <strong>für</strong><br />
<strong>Musik</strong> und darstellende Kunst Graz: Datenstrukturdiagramm des iaem,<br />
http://iem.iaem.at/doku/presentation/music/LibDiag.jpg [Stand 2006-09-22]<br />
96
Danksagung<br />
An dieser Stelle möchte ich mich bei allen denjenigen Personen bedanken, die mir<br />
während und im Vorfeld dieser Arbeit unterstützend zur Seite gestanden haben, insbe-<br />
sondere bei:<br />
• meinem Professor Michael Sandner <strong>für</strong> die intensive und konstruktive Beratung<br />
beim Entwurf und der Realisierung meines Themas<br />
• der Internationalen Ensemble Modern Akademie und meinem dortigen Tutor<br />
Norbert Ommer <strong>für</strong> die Möglichkeit, im Rahmen eines einjährigen Stipendiums<br />
und darüber hinaus die praktischen Arbeitsweisen im Gebiet der Zeitgenössi-<br />
schen <strong>Musik</strong> mit Live-Elektronik kennenzulernen und umzusetzen<br />
• denjenigen Personen aus dem zeitgenössischen <strong>Musik</strong>leben, die mir zuvorkom-<br />
mend persönliche Gespräche und Schriftverkehr ermöglicht haben, um weitere<br />
Einblicke in die Praxis der Dokumentation von <strong>Musik</strong> mit Live-Elektronik zu<br />
bekommen, darunter (in alphabetischer Reihenfolge):<br />
Paulo Chagas, Alan Fabian, Prof. Orm Finnendahl, Johannes Fritsch, Javier<br />
Garavaglia, Prof. Heiner Goebbels, Prof. Dr. Georg Hajdu, Dipl.-Ing. Folkmar<br />
Hein, Prof. Wofgang Heiniger, Gottfried Michael Koenig, Prof. Thomas<br />
Neuhaus, Melvyn Poore, Prof. Marco Stroppa und Bryan Wolf<br />
• Christina Bürger und Christoph Seibert <strong>für</strong> schnelles Korrekturlesen<br />
Schließlich möchte ich einen besonderen Dank an meine Familie aussprechen, insbe-<br />
sondere an meine Eltern Ingrid und Erik Manook, durch deren persönliche Unterstüt-<br />
zung in allen Bereichen mir das Tonmeisterstudium möglich war.<br />
97
Erklärung<br />
Detmold, den 28. September 2006<br />
Hiermit versichere ich, Hendrik Manook, daß ich die vorliegende <strong>Diplomarbeit</strong> selb-<br />
ständig verfaßt und keine anderen als die angegebenen Hilfsmittel benutzt habe. Alle<br />
Zitate wurden unter Angabe der Quelle kenntlich gemacht.<br />
Diese Arbeit wurde noch bei keinem anderen Prüfungsverfahren in identischer oder<br />
ähnlicher Form vorgelegt.<br />
Hendrik Manook<br />
98