01.11.2013 Aufrufe

Ausarbeitung des Vortrages von Prof. Dr. B. Enders

Ausarbeitung des Vortrages von Prof. Dr. B. Enders

Ausarbeitung des Vortrages von Prof. Dr. B. Enders

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Bernd <strong>Enders</strong>, Vortrag Kaiserslautern, 05.02.08<br />

Der Musikcomputer<br />

eine musikalische Universalmaschine<br />

oder:<br />

Die mannigfaltigen Beziehungen <strong>von</strong><br />

Musik und Mathematik<br />

Gliederung<br />

1. Zum Verhältnis <strong>von</strong> Ton und Zahl<br />

2. Historische Entwicklung: Tonsysteme, Stimmungen<br />

3. Notation und Notenco<strong>des</strong><br />

4. Die Zahl im Klang<br />

5. Composersysteme und automatische Musikanalyse<br />

6. Digitalisierung: MIDI, Controlling, Interfaces<br />

7. Digitalisierung: Sound Synthese, Sampling u. Processing<br />

8. Virtuelle Instrumente, Simulation und Emulation<br />

9. Musikcomputer im Prozeß musikalischer Kommunikation<br />

10.Schlußwort<br />

Ich bin der Musikant<br />

mit Taschenrechner in der Hand<br />

Ich addiere<br />

Und subtrahiere<br />

kontrolliere<br />

Und komponiere<br />

Und wenn ich diese Taste drück´<br />

Spielt er ein kleines Musikstück<br />

(Kraftwerk1981)<br />

Musikbeispiel: Ich bin der Musikant (Kraftwerk)<br />

1. Zum Verhältnis <strong>von</strong> Ton und Zahl<br />

"Alles ist Zahl", sagten die Pythagoräer und sie versuchten die musiktheoretischen<br />

Grundlagen mit mathematisch-logischen Beziehungen zu beschreiben, weshalb die<br />

Musikwissenschaft als scientia mathematica mit der Arithmetik, der Geometrie und<br />

der Astronomie zum quadrivium der ersten Wissenschaften gehört.


Warum die Musikwissenschaft, die sich mit vielen physikalischen Objekten und<br />

Funktionalitäten befaßt, z.B. Instrumentenakustik, Raumakustik, mit physiologischen<br />

Vorgängen und psychologischen Phänomenen (z.B. beim Hören und Spielen), mit<br />

informatischen und medientechnologischen Fragestellungen, heute als<br />

Geisteswissenschaft zählt, kann ich mit historischen Gründen erklären, warum<br />

dagegen die Mathematik, die sich ausschließlich mit logischen Symbolen beschäftigt,<br />

die sich durch deduktive Methoden und einem axiomatischen Aufbau abstrakter<br />

Strukturen auszeichnet, heute zu den Naturwissenschaften gehört, weiß ich nicht.<br />

Ursprünglich war der Computer nur eine Art Rechenknecht, z.B. für<br />

Tabellenkalkulationen, später konnte er eben auch Texte verarbeiten, dann Graphiken,<br />

wie z.B. Noten, und Sounds, letzten En<strong>des</strong> alles, was sich irgendwie in Symbolen und<br />

Zahlen ausdrücken bzw. codieren läßt.<br />

Heute kann man ihn als multifunktionale und omnipräsente Denkmaschine betrachten,<br />

wenn man mit Denken nur den softwarebasierten Umgang mit Informationen aller<br />

Art meint. Und mit geeigneter Soundkarte und musikspezifischen Interfaces wird aus<br />

ihm ein omnipotentes Musikinstrument. Und sogar Taschenrechner können Musik<br />

erzeugen, wie die deutsche Elektronikformation Kraftwerk schon in den 80er Jahren<br />

wußte.<br />

Tetraktys der reinen Intervallproportionen<br />

"Alles ist Zahl", sagten die Pythagoräer - eine Gruppe <strong>von</strong> naturwissenschaftlich<br />

geprägten Denkern, gleichermaßen Philosophen, Mathematiker, Musikwissenschaftler<br />

und Politiker. Sie schätzten die Musik als Teil einer auf allgemein gültigen<br />

Zahlengesetzlichkeiten (= logos) beruhenden (organischen wie anorganischen)<br />

Weltordnung, deren harmonikale Struktur sich mit Hilfe eines einfachen Monochords,<br />

also einer über einem Resonanzkasten aufgespannten, klingenden Saite, hörbar,<br />

sinnfällig, also unmittelbar erfahrbar machen läßt. Das Monochord war hier kein<br />

Musik- sondern ein Meßinstrument.<br />

Weil Intervalle identisch mit Zahlenverhältnissen sind, geschieht dabei nichts anderes,<br />

"als daß eine intellektuell erfaßbare Zahlenquantität in eine seelisch erlebbare<br />

Sinnesqualität verwandelt wird", wie es ein zeitgenössischer Vertreter <strong>des</strong><br />

harmonikalen Pythagorismus ausdrückt. Für das pythagoräische Denken ist ein<br />

Zahlenverhältnis und das entsprechende musikalisches Intervall ein und dasselbe. Es<br />

ist nur folgerichtig, wenn die Welt <strong>des</strong> Klangs genau nach den gleichen harmonischen<br />

Prinzipien aufgebaut ist wie die Gesetze der Physik, der Astronomie und der<br />

Mathematik - und umgekehrt. "Alles ist Zahl", so lautet die Quintessenz. Die<br />

Sphärenmusik der pythagoräischen Schule ist real, denn gemeint ist tatsächlich, daß<br />

im Weltall Musik erklingt, hervorgerufen durch die naturgesetzlich geordneten<br />

Bahnen der Himmelskörper. Die Musik dient vorrangig zur wissenschaftlichen


Erfassung dieser Weltordnung, ihr Wert als ästhetisch-sinnfällige Kunst ist eher<br />

zweitrangig.<br />

In der pythagoräischen Musiktheorie werden konsequent die Intervalldefinitionen und<br />

die darauf aufbauenden Ton- und Stimmungssysteme wie auch die rhythmischen<br />

Maße, also sowohl die vertikale als auch die horizontale Strukturierung musikalischer<br />

Ereignisse, streng anhand <strong>von</strong> Zahlenproportionen bestimmt. Ausgehend <strong>von</strong> der<br />

Oktavverwandtschaft durch Halbierung der Saitenlänge (mit einem<br />

Frequenzverhältnis <strong>von</strong> exakt 1:2, wurden Tonskalen errechnet, die auf<br />

arithmetischen, geometrischen und harmonischen Proportionen beruhten. Die bis<br />

heute wissenschaftlich und künstlerisch diskutierte pythagoräische Stimmung einer<br />

achttönigen, aus Ganz- und Halbtonschritten beruhenden Skala im Oktavrahmen<br />

basiert auf der Schichtung <strong>von</strong> reinen Quinten im Frequenzverhältnis 2:3 (mit<br />

entsprechender Oktavversetzung), so daß zur Konstruktion nur die starken<br />

Konsonanzen Oktave und Quinte Verwendung finden (vgl. Abbildung der<br />

Tektraktys).<br />

2. Historische Entwicklung: Tonsysteme, Stimmungen<br />

Es kam schließlich - vor allem im 17. Jahrhundert - zu erheblichen Schwierigkeiten,<br />

als durch das Aufkommen der Mehrstimmigkeit, der musikalischen Einführung<br />

chromatischer Tonstufen und der immer größeren Bedeutung <strong>von</strong> Instrumenten mit<br />

fixierten Tonhöhen, vor allem der Tasteninstrumente, die Probleme der reinen<br />

Stimmung pythagoräischer Herkunft deutlich wurden. Geht man wie Pythagoras <strong>von</strong><br />

rein gestimmten Quinten aus, so erhält man durch Übereinanderschichten bekanntlich<br />

keinen sich enharmonisch schließenden Quintenzirkel, sondern eine endlose<br />

Quintenspirale, deren Töne sich mit exakt zu stimmenden Frequenzen auf einem<br />

Tasteninstrument in der Praxis nicht realisieren lassen.


Vergleicht man die Frequenzen, die sich - z.B. ausgehend <strong>von</strong> dem Ton C - nach 12<br />

Quinten (im Verhältnis 3:2) für his (!) und 7 Oktaven (im Verhältnis 2:1) für den Ton<br />

c errechnen lassen, dann ergibt sich eine deutlich hörbare Frequenzdifferenz <strong>von</strong><br />

knapp einem Achtelton, die als Pythagoräisches Komma in die Geschichte der<br />

Musiktheorie eingegangen ist.<br />

Klangbeispiel (pyt_komma.wav)<br />

Mit anderen Worten: für die Konstruktion pythagoräisch rein gestimmter Instrumente<br />

ergeben sich für Instrumentenbauer und Instrumentalisten kaum zu bewältigenden<br />

Schwierigkeiten beim Spielen <strong>von</strong> Tönen wie his und c, fis und ges, gis und as, deren<br />

Frequenzen zwar sehr dicht beieinander liegen, aber dennoch eigene Tasten benötigen<br />

würden. Enharmonische Umdeutungen dieser Töne, die in der temperierten Stimmung<br />

auf gleicher Taste liegen, zu Modulationszwecken waren ausgeschlossen und die<br />

Komponisten vermieden überhaupt Tonarten, die sich <strong>von</strong> den rein klingenden<br />

Haupttonarten (also etwa C, G, D, F, B) zu weit entfernten.<br />

Die <strong>von</strong> dem berühmten Orgelbauer Gottfried Silbermann (1683-1753) und anderen<br />

wegen der in der Musikentwicklung immer wichtiger werdenden Terz bevorzugte<br />

mitteltönige Stimmung geht zum Beispiel <strong>von</strong> reinen Terzen aus, denn in der<br />

Musikpraxis hatte sich ihr Wohlklang trotz der pythagoräischen Einstufung als<br />

Dissonanz durchgesetzt, obwohl man eigenartigerweise theoretisch an der Tetraktys<br />

<strong>des</strong> Pythagoras festhielt. Aber das Stimmungsproblem bleibt auch hier bestehen.<br />

Einflußreiche Theoretiker und Philosophen wie Johannes Scotus (1265 -1308),


Cusanus (1401 - 1464), Johannes Kepler (1571 -1630), Gottfried Wilhelm Leibniz<br />

(1646 - 1716) und andere hielten an der Zahlengesetzlichkeit der Musik fest, die<br />

Sphärenharmonie lebte fort, nun jedoch verbunden mit aktuellen<br />

naturwissenschaftlichen Erkenntnissen und ersten psychologischen Ansätzen. Leibniz<br />

deutet zwar ebenfalls die musikalische Harmonie als ein Abbild der Weltharmonie, er<br />

erklärt jedoch das Konsonanzempfinden für die ersten sechs Intervallproportionen<br />

(Oktave, Quinte, Quarte sowie nun auch große und kleine Terz, große und kleine<br />

Sexte) als ein "unbewusstes Zählen der Seele": "Die Musik ist für die Seele eine<br />

verborgene arithmetische Übung, wobei die Seele zählt, ohne <strong>des</strong>sen bewusst zu sein.<br />

... Sie fühlt dennoch die Wirkung dieses unbewußten Zählens, das heißt bei<br />

Konsonanzen Vergnügen, bei Dissonanzen Mißfallen, das daraus hervorgeht."<br />

Musica est exercitium arithmeticae occultum nesciens se numerare animi<br />

Gottfried Wilhelm Leibniz<br />

Andreas Werckmeister (1645-1706) schlug Ende <strong>des</strong> 17. Jahrhunderts weitere<br />

Stimmungsmethoden vor: Er verkleinerte und vergrößerte fast alle Quinten<br />

geringfügig und verteilte das Pythagoräsche Komma auf diese Weise in kleinsten<br />

Portionen, so daß alle Tonarten rund um den Quintenzirkel spielbar wurden. Johann<br />

Sebastian Bach war begeistert und komponierte für die "Wohltemperierte Stimmung"<br />

Werckmeisters das "Wohltemperierte Klavier" (1722 und 1742), ein Kompendium<br />

mit Präludien und Fugen, das alle 24 Dur- und Molltonarten kompositorisch und<br />

klanglich ausnutzt und die steten Wechselwirkungen zwischen theoretischer<br />

Erörterung und künstlerisch-experimenteller Praxis, zwischen musiktechnischer<br />

Realisation und musikalischer Rezeption perfekt demonstriert. Die endlose<br />

Quintenspirale <strong>des</strong> Pythagoräischen Systems schloß sich endlich zum Quintenzirkel.<br />

Erst für die gleichschwebend-temperierte oder – genauer – gleichstufig-temperierte<br />

Stimmung wird konsequent auf je<strong>des</strong> reine Intervall verzichtet und die Oktave (als<br />

einziges verbleiben<strong>des</strong> reines Intervall) in zwölf exakt gleich große Halbtonschritte<br />

geteilt, eine Lösung, die die mathematische Beherrschung <strong>von</strong> Logarithmen<br />

voraussetzt, denn die notwendigen Frequenzverhältnisse ergeben sich aus der 12.<br />

Wurzel aus 2 (= 1,0595), ein für den pythagoräischen Zahlenmystiker natürlich völlig<br />

abwegiges irrationales Verhältnis. Logarithmische Berechnungen führte erst der<br />

Mathematiker Leonard Euler (1707-1783) in die Musikwissenschaft ein.<br />

Mit der gleichstufig-temperierten Stimmung, die sich schließlich allgemein<br />

durchsetzt, werden alle Intervalle außer der Oktave geringfügig gegenüber den<br />

exakten Zahlenproportionen verändert, so daß man innerhalb einer Oktave mit exakt<br />

zwölf Frequenzen und auf der Klaviatur folglich mit zwölf Tasten auskommt.<br />

Unterschiedlich abgeleitete Töne wie cis und <strong>des</strong> und funktional verschiedene<br />

Intervalle wie kleine Terz und überm. Sekunde ertönen völlig gleich, werden aber je<br />

nach musikalischem Zusammenhang dennoch unterschiedlich aufgefaßt.<br />

Erst die <strong>von</strong> Arnold Schönberg 1925 aufgestellte Zwölftontheorie verzichtet völlig auf<br />

intervallqualitative Unterschiede dieser Art. Es gibt kein tonales Bezugssystem mehr,<br />

was die verschiedenen Intervallqualitäten sowie Konsonanz-Dissonanz-Unterschiede<br />

festigen würde. Die Zwölftonmusik basiert nicht nur melodisch und harmonisch,<br />

sondern auch funktionslogisch / musiktheoretisch vollständig auf dem letztlich


mathematisch-technisch begründeten System gleichstufig-temperierter Frequenzen,<br />

sozusagen auf den Tasten einer Klaviatur, die funktionale Differenz verschieden<br />

abgeleiteter Ton- und Intervallqualitäten wird ignoriert, vermutlich ein Grund dafür,<br />

daß sie keiner hören will.<br />

Das technisch auf der Tastatur basierende MIDI-System digitalelektronischer<br />

Instrumente verzichtet ebenfalls auf die Erfassung qualitativer Unterschiede, sondern<br />

sendet ausschließlich Noten-Co<strong>des</strong>, die für 12 Tastennummern einer Oktave stehen:<br />

wird die Taste c´ gedrückt, meldet das MIDI-System gemäß der standardisierten<br />

Vereinbarung immer dezimal eine 60, wird das nächste cis (oder <strong>des</strong>) gedrückt, wird<br />

dezimal die Zahl 61 abgeschickt, und so fort.<br />

3. Notation und Notenco<strong>des</strong><br />

Die Geschichte der musiktheoretischen und musikpraktischen Entwicklung läßt sich<br />

als zunehmende Digitalisierung der Repräsentation und Verarbeitung <strong>von</strong><br />

musikalischen Informationen und Prozessen verstehen, der Computer ist lediglich das<br />

letzte und mächtigste Glied in einer langen Kette musiktechnischer,<br />

musikinformatischer und mathematisch-logischer Stationen - vom Trommelstock bis<br />

zum mausgesteuerten virtuellen Musikinstrument <strong>des</strong> Informationszeitalters.<br />

Computerbasierte Musikverarbeitung entspricht der Algorithmisierung aller<br />

musikalischen Prozesse und Phänomene, musikalische Informationen werden<br />

numerisch abgebildet und mit mathematischen Funktionen beschrieben.<br />

<strong>Dr</strong>ei Aspekte lassen sich aus dieser Perspektive heraus unterscheiden:<br />

1. die Entwicklung <strong>von</strong> Notationssystemen im Zusammenspiel mit kompositorischen<br />

Modellen<br />

2. die Entwicklung der Instrumente aufgrund spieltechnischer und klanglicher<br />

Erwartungen<br />

3. die Möglichkeit der Klangspeicherung, der Konservierung <strong>von</strong> Musik<br />

Mit zunehmendem Wissen über die Musik, mit ständig steigender Bedeutung der<br />

Musik für kulturelle Handlungen und der wachsenden Notwendigkeit gemeinsamer<br />

musikalischer Aktionen in einer Gruppe, zum Beispiel beim chorischen<br />

Kirchengesang, verstärkte sich zugleich der Wunsch nach genauerer Festlegung der<br />

musikalischen Aktionen. Töne wurden zum Beispiel bei den Griechen durch<br />

alphabetische Zeichen bestimmt, ein System, das sich über den Generalbass und den<br />

Akkordsymbolen im Jazz (zum Beispiel:. A 7/9 für einen Septnonakkord in A-Dur) bis<br />

heute in verschiedenen Formen bewährt hat, im 9. Jahrhundert wurden<br />

Tonhöhenverläufe durch Neumen (griech. neuma, der Wink) mehr oder weniger<br />

genau angezeigt, das sind Notenzeichen, die aus gestischen, heute noch beim Dirigat<br />

<strong>von</strong> Laienchören gebräuchlichen, Handbewegungen entstanden sind und im<br />

Mittelalter zur groben Fixierung <strong>von</strong> einstimmigen Choralmelodien dienten, ohne<br />

dass Intervallgrößen oder Notenwerte exakt aufgezeichnet werden konnten.<br />

Der Benediktinermönch Guido <strong>von</strong> Arezzo (ca. 991–1033) schuf um 1025 die<br />

Grundlagen für die heutige, weltweit verbreitete Notenschrift mit fünf Linien und<br />

Schlüsseln, so daß eine exakte Fixierung <strong>von</strong> musikalisch relevanten Tonhöhen<br />

möglich wurde. Mit diesem Schritt wird eine Rasterung <strong>des</strong> akustischen Tonraums


vorgenommen: Aus dem akustischen Frequenzkontinuum werden diskrete Tonorte<br />

gemäß einem Tonsystem ausgewählt und bezeichnet. Musikalische Klangbewegungen<br />

werden damit zumin<strong>des</strong>t auf dem Papier in vertikaler Ausrichtung stufenförmig<br />

geordnet, also digitalisiert (<strong>von</strong> lat. digitus, der Finger), das heißt zählbar und klar<br />

unterscheidbar gemacht.<br />

Der Kölner Musikwissenschaftler Peter Jobst Fricke erkennt in der "kategoriellen<br />

Unterscheidung <strong>von</strong> Notenlängen, Tonhöhen und Vortragszeichen, die normativ<br />

festgelegt wurden...die totale Digitalisierung <strong>des</strong> analogen Kontinuums"<br />

musikalischer Klänge zum Zweck der sicheren Kommunikation. Er zeigt Parallelen<br />

zwischen technischer und begrifflich-kognitiver Digitalisierung auf: "Mit der<br />

digitalen Unterscheidung der Daten im Computer hat der Mensch etwas auf die Spitze<br />

getrieben, was er sich zur Bewältigung der Welt, die in ihrer sichtbaren und hörbaren<br />

Erscheinung analog ist, schon zurecht gelegt hat."<br />

Teilweise werden aber auch neue Notenco<strong>des</strong> notwendig, um eine Verarbeitung mit<br />

Computern zu bewerkstelligen. Der Anfang der 1970er Jahre entwickelte Plaine and Easy<br />

Code (PEC) ´zerlegt die verschiedenen Notenparameter, wie Stammton, Versetzungszeichen,<br />

Oktave, Notenwert usw., welche in der konventionellen Notenschrift durch variierende<br />

graphische Informationen und vertikale Anordnungen quasi in einem Symbol verschmelzen,<br />

in separate Zeichenfolgen.<br />

Da die alphanumerische Partiturbeschreibung nicht nur zur Speicherung sondern auch<br />

zur Generierung neuer bzw. modifizierter Notenbilder verwendet werden kann, eignet<br />

sich das Format ebenfalls gut zum Einsatz in Datenbanken und adaptiven<br />

Lernprogrammen. Die Gehörbildung <strong>des</strong> Computerkollegs Musik beispielsweise<br />

erzeugt die im Zusammenhang mit einer Höraufgabe präsentierten Notengrafiken erst<br />

in dem Moment, in dem sie tatsächlich auf dem Bildschirm angezeigt werden müssen.<br />

Dies befreit den Programmierer einerseits <strong>von</strong> dem Zwang eine Vielzahl oft nur leicht<br />

variierender statischer Grafiken in die Anwendung einbinden zu müssen und erlaubt<br />

andererseits die gezielte, am Kenntnisstand <strong>des</strong> Lernenden ausgerichtete Generierung<br />

geeigneter Notenbeispiele.<br />

Ein Männlein steht im Walde<br />

"s1 v1b !4/4 4'c| fgahb |2''c4d'hb|2'ag|2.'f||"<br />

In der umfangreichen Musikhandschriften-Datenbank <strong>des</strong> RISM wird der Code zur<br />

Speicherung <strong>von</strong> Musikincipits genutzt. Eine ebenfalls auf PEC basierende<br />

Suchfunktion gestattet so das schnelle Auffinden vergleichbarer Themen oder Motive.<br />

Ein weiteres – kurioses - Beispiel zur Bedeutung musikalischer Co<strong>des</strong> (entnommen<br />

aus Wikipedia):<br />

Die Filmschauspielerin Hedy Lamarr, die sich als Gegnerin <strong>des</strong> Nationalsozialismus im Zweiten<br />

Weltkrieg auf die Seite der Alliierten stellte, entwickelte eine 1942 patentierte Funkfernsteuerung für<br />

Torpedos [2]. Diese war durch sich selbsttätig wechselnde Frequenzen störungssicher. Zu der<br />

Erfindung war es gekommen, als sie und der Avantgarde-Komponist George Antheil, der sich u.a. mit<br />

mathematischen Konzepten für Kompositionen auseinandersetzte, eines seiner Werke für 16<br />

mechanische Klaviere (Pianolas) synchronisieren wollten. Das Problem lösten sie mittels identischer<br />

Lochkarten in Sender und Empfänger. Dadurch waren die zeitgleichen Frequenzwechsel möglich.<br />

Das Patent wurde jedoch nicht vom US-Militär umgesetzt, so dass das Verfahren niemals zum Einsatz<br />

kam. Der zeitgleiche Frequenzwechsel ("frequency-hopping") wird in der heutigen


Kommunikationstechnik zum Beispiel bei Bluetooth-Verbindungen oder mit der GSM-Technik<br />

angewendet.<br />

Die Zahl im Klang<br />

Schon für den Bau antiker Theater nutzte man die Erkenntnis, dass der Schall sich in<br />

der Luft kugelförmig ausbreitet, weshalb die kreisförmig angelegten Amphitheater<br />

erstaunlich gute akustische Verhältnisse bieten. Galileo Galilei (1564–1642) und<br />

Marin Mersenne (1588–1648) entdeckten um 1600 herum den Zusammenhang<br />

zwischen Tonhöhe und Schwingungszahl, Isaac Newton (1643–1727) beschrieb die<br />

physikalischen Grundlagen für die wellenförmige Ausbreitung <strong>des</strong> Schalls in<br />

elastischen Medien, 1636 bestimmte Mersenne die Schallgeschwindigkeit. Joseph<br />

Sauveur (1653–1716) beschrieb etwas später erstmals die Obertonstruktur einer<br />

schwingenden Saite und 1819 konstruierte Charles Cagniard de la Tour (1777–1859)<br />

die Lochsirene zur Bestimmung der Frequenz <strong>von</strong> Tönen.<br />

Der alte Pythagoras wäre nicht erstaunt gewesen, wenn er noch erfahren hätte, dass<br />

sich auch die auf die Klangfarbe eines Tons auswirkende Schwingungsform eines<br />

musikalisch verwendbaren Klangs durch einfache Proportionen ganzer Zahlen<br />

darstellen läßt. Der französische Mathematiker Jean Baptiste Joseph Fourier (1768–<br />

1830) formulierte das Theorem, daß jede noch so komplizierte periodische<br />

Schwingung als Resultat einer Summe <strong>von</strong> sinusförmigen Teilschwingungen<br />

dargestellt werden kann. Musikalisch wird allgemein zwischen einer<br />

Grundtonschwingung, die normalerweise den Tonhöheneindruck hervorruft, und den<br />

Obertönen, die klangfarbenbestimmend sind, unterschieden.<br />

Mathematisch kann eine Sinusschwingung aus einer gleichmäßigen Kreisbewegung<br />

abgeleitet werden, man nennt dies eine harmonische Bewegung. Eine Stimmgabel<br />

erzeugt eine (weitgehend sinusförmige) <strong>Dr</strong>uckschwingung in der Luft, die mit der<br />

Formel<br />

bestimmt werden kann.<br />

Soll das Klangspektrum eines Tons vollständig beschrieben oder mit Hilfe<br />

elektronischer Klangerzeuger synthetisiert werden, dann gilt es, die Frequenzen und<br />

die Amplituden(verläufe) jeder einzelnen Teilschwingung nach der gegebenen Formel<br />

numerisch zu bestimmen (Fourieranalyse) beziehungsweise zu addieren (additive<br />

Klangsynthese). Je<strong>des</strong> Musikinstrument weist eine charakteristische Obertonstruktur<br />

auf, die seine Klangfarbe unverwechselbar macht. Mit geeigneten Algorithmen<br />

können harmonische Klangsignale heute mit digitalen Systemen sehr rasch analysiert<br />

oder synthetisiert werden.


additive Klangsynthese<br />

Die Frequenzen der Obertöne sind ganze Vielfache der Frequenz <strong>des</strong> Grundtons. Sie<br />

stehen im Verhältnis 1 : 2 : 3 : 4 (und so weiter), entsprechen also exakt den reinen<br />

Intervallen, die die alten Griechen durch Teilung der Monochordsaiten ermittelten.<br />

Die Obertonreihe eines musikalisch verwendbaren Tons (also einer periodischen<br />

Schwingung) läßt sich damit auch über die musikalischen Intervalle beschreiben:<br />

5. Composersysteme und automatische Musikanalyse<br />

Bereits im 17. Jahrhundert wuchs die Überzeugung, dass Musik die Kunst geschickter<br />

Zahlenordnungen ist. Als einen der frühesten Überlieferungen dieser Art gilt die Arca<br />

Musarithmica, eine mechanische Komponiermaschine, die in der 1650 gedruckten<br />

Musurgia Universalis <strong>des</strong> Jesuitenpater und Musikgelehrten Athanasius Kircher<br />

erwähnt wurde. Kircher war überzeugt da<strong>von</strong>, daß musikalische Vorgänge vollständig


auf einem zu ergründenden Regelsystem beruhen: "Musica nihil aliud est quam<br />

ordinem scire." (Musik ist nichts anderes, als die Regel zu kennen.)<br />

Auch die zahlreichen, im 18.Jahrhundert beliebten, auch Haydn und Mozart<br />

zugeschriebenen Würfelmusikstücken zeugen <strong>von</strong> dem Wunsch, Musik<br />

gewissermaßen ohne menschliches Zutun hervorzubringen. Mozart wird ein<br />

„Musikalisches Würfelspiel“ (KV 294 d) zugeschrieben eine "Anleitung, Walzer oder<br />

Schleifer mit zwei Würfeln zu componieren ...". Dort sind in einer Tabelle 3/8-Takte<br />

im Klaviersatz aufgelistet, deren Auswahl durch die Augenzahl der geworfenen<br />

Würfel geschieht und hintereinander notiert, eine fertige Komposition ergeben. Wenn<br />

nun der Computer "würfelt", d. h. Zufallszahlen erzeugt, entsprechen den Zahlen<br />

Noten.<br />

Lejaren A. HILLER und Leonard ISAACSON übertrugen in den 50er Jahre <strong>des</strong> 19.<br />

Jh. die anhand <strong>von</strong> thermodynamisch gewonnenen Zustandsbeschreibungen<br />

chemischer Prozesse mittels informationstheoretischer Umsetzung, u.a. mit sog,.<br />

Markov-Ketten, einfach auf musikalische Strukturen; daneben dienten auch andere<br />

Regeln, die bei der Analyse historischer Stile auf informationstheoretischem Wege<br />

gefunden wurden als Grundlage für die komponierenden Programmroutinen. Als<br />

Resultat der Bemühungen entstand die berühmte 21-minütige ILLIAC-Suite, benannt<br />

nach dem Computersystem der Universität in Illinois. Es handelte sich um eine Suite<br />

für Streichquartett, bestimmt also für die Aufführung mit traditionellen Instrumenten,<br />

nicht etwa für eine elektronische Realisation, wie man meinen könnte.<br />

Natürlich müssen es keine Markov-Ketten sein, die den Kompositionsvorgang regeln,<br />

es wurden auch Versuche unternommen, Anwendungen der mathematischen Logik,<br />

z.B. der Boolschen Algebra (Verknüpfungsregeln <strong>von</strong> Elementen einer Menge) zur<br />

Grundlage eines Musikstücks zu machen.<br />

Eine irgendwie aufgestellte Kompositionsregel ist aber unbedingt notwendig, denn ein<br />

stumpfes Errechnen aller denkbaren Kombinationen der musikalischen Elemente<br />

erweist sich schnell als sinnlos. Manfred Leppig - ein Mathematiklehrer - rechnete in<br />

seinem Beitrag "Wie Computer komponieren" (in: Musik und Bildung, 2/1985, S.<br />

91-95) die Anzahl aller möglicher Themen aus, die mit nur 8 Tonstufen und 7<br />

Notenwerten (incl. Pausen) möglich sind; er kommt auf (mickrige) 79 Trillionen<br />

Melodien, da<strong>von</strong> sind allerdings viele entsetzlich banal, z.B. sind darin auch alle<br />

Tonrepetitionen enthalten. Die Zahl der möglichen Melodien und natürlich auch der<br />

langweiligen Tonwiederholungen steigt weiter sprunghaft an, wenn man z.B. eine<br />

16-stellige Tonfolge errechnen läßt, nämlich auf 40 000 Sextillionen (40 x 10 hoch<br />

40). Ein Computer, der 1000 Melodien pro Sekunde errechnen könnte, müßte dafür<br />

rund eine Quintillion Jahre arbeiten, so daß ein arges Verwertungsproblem ansteht.<br />

Und natürlich würde er 'schöne' Melodien nicht automatisch aussortieren können,<br />

denn dieses Urteilsvermögen besitzt er nicht, so lange man keine objektiv definierten<br />

Kriterien nennen kann.<br />

Es ist also durchaus wahrscheinlich, daß der Rechner nach einiger Zeit eine Melodie<br />

ausstoßen würde, die durch eine mehrfachen Wiederholung einer Tonstufe<br />

charakterisiert wäre; es ist aber höchst unwahrscheinlich, das zu Lebzeiten <strong>des</strong><br />

geduldig harrenden Musikers daraus so etwas entstünde wie das Anfangsthema <strong>von</strong><br />

Franz Schuberts Lied: "Der Tod und das Mädchen", das ausgerechnet durch eine<br />

derartige Tonrepetition, nämlich durch eine 16fache Wiederholung <strong>des</strong> Tons d


gekennzeichnet ist, allerdings mit einer bemerkenswerten harmonischen Folge, die<br />

der Computer zusätzlich noch errechnen müßte.<br />

Musikbeispiel:16fache Wiederholung <strong>des</strong> Tons d, Thema <strong>des</strong> To<strong>des</strong> (Der Tod und<br />

das Mädchen, Liedfassung, Schubert)<br />

Aus eigener 'Kraft' käme der Computer also nicht zu brauchbaren Ergebnissen. Er<br />

benötigt bestimmte Regeln, die nur der musikalisch empfindende Mensch ihm<br />

vorgeben kann. Mit anderen Worten: der Einbau <strong>von</strong> Regeln in einen<br />

computergesteuerten Kompositionsprozeß erfordert die menschliche Vorgabe,<br />

benötigt die Kenntnis musikalisch sinnvoller Bezugssysteme und erhöht<br />

logischerweise den Anteil <strong>des</strong> Menschen am Kompositionsergebnis.<br />

Beliebt sind fraktalgeometrische Formeln, wie z.B. die auch für graphische<br />

Transformationen gerne benutzten Mandelbrot-Mengen, mit den Apfelmännchen und<br />

Seepferdchen. Obwohl man für eine musikalische Struktur die geometrisch-flächige<br />

Ausgabe in eine geeignete vertikal nach Tonhöhen aufgelöste serielle Abfolge<br />

konvertieren muß, entstehen durch die repetierenden Algorithmen musikalische<br />

Loops, also z.T. sinnvoll klingende melodische Schleifen und ostinate, aber leicht<br />

variierende Sequenzen, so daß die resultierende Musik an amerikanische minimal<br />

music erinnert und sich auch gut für popmusikalische Arrangements eignet.<br />

Ich spiele ein kurzes Klangbeispiel an, das unsere Studenten im Studio entstehen<br />

ließen.<br />

Brüggemann / Fischer: aus Rhapsodie fraktal, 2007<br />

Autogam, französisches Composerprogramm mit MIDI-Output<br />

Kommen wir zu einem weiteren wichtigen Einsatzgebiet <strong>des</strong> Computers in der Musik,<br />

dem Gegenstück zur Computerkomposition, nämlich zur Computerunterstützten


Musikanalyse. Hier dient der Computer zur Analyse <strong>von</strong> musikalischen Strukturen,<br />

er soll in mancher Hinsicht den analysierenden Zugriff <strong>des</strong> Musikwissenschaftlers auf<br />

die musiktheoretischen Grundlagen <strong>von</strong> Musik simulieren, vielleicht gar ersetzen,<br />

eine Aufgabe, die im Grunde genommen noch komplizierter als die<br />

computerunterstützte Komposition ist, denn bei einer Computerkomposition kommt<br />

immer etwas Hörbares, wenn auch vielleicht nichts Hörenswertes heraus.<br />

Bei einer automatischen Analyse ist es jedoch unumgänglich, daß der Rechner exakte<br />

Angaben über die aufzufindenden Strukturelemente zuvor erhält. Ein<br />

Analyseprogramm, das selbständig eine umfassende Formenanalyse nebst<br />

überzeugender Interpretation abliefert, ist zur Zeit noch undenkbar und angesichts der<br />

schwer zu beschreibenden musikalischen Begriffskategorien, die eher intuitiv<br />

angewendet werden und auf individuell oder im gesellschaftlichen Konsens<br />

entstandenen ästhetischen Empfindungen beruhen, auch schwer vorstellbar.<br />

Ein Teilbereich der musikalischen Analyse kann jedoch mathematisch relativ exakt<br />

definiert werden, so daß der Computer tatsächlich wichtige Informationen liefern<br />

kann, vor allem dann, wenn es um die Erfassung großer Musikdatenbestände geht.<br />

Er kann z.B. die stilabhängigen Häufigkeiten <strong>von</strong> Tonintervallen in einem Stück<br />

feststellen und auswerten (vgl. Fucks, Wilhelm: Nach allen Regeln der Kunst,<br />

Stuttgart 1968) oder die häufigsten Akkordverbindungen nennen, ein zwar eher<br />

quantitativer Ermittlungsvorgang, der aber durchaus auch eine qualitative Bedeutung<br />

annehmen kann.<br />

Interessanter sind jedoch die Versuche, per Programm hörbare oder auch<br />

nicht-hörbare Ähnlichkeiten <strong>von</strong> Melodiemustern herauszufinden. Zwar existiert<br />

keine allgemeingültige Definition <strong>des</strong>sen, was man unter Ähnlichkeit und erst recht<br />

unter musikalischer Ähnlichkeit zu verstehen hat, da hier die subjektive Empfindung<br />

eine entscheidende Rolle spielt, aber gewisse, für viele Anwendungszwecke praktisch<br />

anwendbare Regeln sind doch aufstellbar.<br />

Abbildung aus dem Computerkolleg Musik - Gehörbildung, ein Lernprogramm aus Osnabrück, das<br />

musikalische Eingaben mit Vorgaben aus einer Datenbank über melodische Ähnlichkeiten vergleicht<br />

und auswertet


6. Digitalisierung: MIDI, Controlling, Interfaces<br />

Eine weitere Aufgabe, die man dem Computer übertragen kann, ist das automatische<br />

Steuern <strong>von</strong> Musikinstrumenten, so daß diese zu Musikautomaten umfunktioniert<br />

werden. Dazu ist es notwendig, musikalische Informationen über zu spielende<br />

Tonhöhen, Notenwerte und Lautstärkegrade <strong>von</strong> einem steuernden zu einem<br />

empfangenden Gerät übertragen zu können.<br />

Für einen Computerfachmann ist es beispielsweise völlig normal, daß Daten zwischen<br />

zwei Geräten, z.B. zwischen Computer und Diskettenlaufwerk, übertragen werden<br />

können, denn dieser Vorgang ist die unbedingte Voraussetzung für die Flexibilität und<br />

Leistungsfähigkeit eines Systems. Für Musiker war es zunächst kaum vorstellbar, daß<br />

elektronische Musikinstrumente sich gegenseitig beeinflussen können. Lediglich die<br />

automatische Steuerung <strong>von</strong> Musikinstrumenten ist schon früher realisiert worden;<br />

man denke z.B. an die großen Jahrmarktsorgeln (Orchestrions) mit den selbständig<br />

pfeifenden und trommelnden Musikaggregaten.<br />

Dies änderte sich radikal mit der Einführung der international genormten<br />

MIDI-Technik im Jahre 1981. M I D I ist die Abkürzung <strong>von</strong> MUSICAL<br />

INSTRUMENT DIGITAL INTERFACE, zu deutsch: Digitale Schnittstelle für<br />

Musikinstrumente; es handelt sich um ein international genormtes Verfahren zur<br />

Datenübertragung, d.h., die in einem Musikinstrument anfallenden Daten, also<br />

Informationen über die auf einer Tastatur gespielten Tonhöhen, können in Form<br />

digitaler Co<strong>des</strong> anderen Instrumenten oder einem Computer übermittelt werden und<br />

diesen entsprechend steuern. Man wollte einfach die vielen Synthesizer durch eine<br />

Klaviatur ersetzen, die dann diverse Soundmodule steuert.<br />

Erstmals in der Geschichte <strong>des</strong> Musikinstruments konnte man also Instrumente und<br />

Geräte miteinander vernetzen, um musikalischen Informationen, auszutauschen, ein<br />

Vorgang, der für den Musiker ungewohnte Perspektiven bereithält.<br />

Der Computer steuert exakt das gesamte angeschlossene Instrumentarium, so daß<br />

je<strong>des</strong> Musikinstrument in einen perfekten Musikautomaten verwandelt wird.<br />

Da die gespeicherten Daten normalerweise am Computerbildschirm auch in<br />

vielfältigster Weise manipuliert werden können, etwa indem Melodieteile umgekehrt<br />

werden, damit sie rückwärts, im Krebsgang, zu hören sind, oder Fehler ausgemerzt<br />

bzw. neue Töne hinzugefügt werden können, besteht grundsätzlich die Möglichkeit,<br />

komplette Kompositionen gleich am Bildschirm zu entwerfen. In diesem Fall wird das<br />

Sequencerprogramm als Composer genutzt, d.h. die Musikdaten werden nicht<br />

Typische MIDI-Konfiguration


eingespielt, sondern die Töne werden einzeln über die Computertastatur eingegeben,<br />

eine echte Chance für pianistisch unbegabte Komponisten und Arrangeure.<br />

Heute ist MIDI praktisch in jedem PC eingebaut, mit der Soundkarte verfügbar, MIDI<br />

ist ähnlich wie MP3 ein standardisiertes Datenformat, das aus der Musiktechnologie<br />

allgegenwärtig in die allgemeine Computertechnologie übernommen wurde.<br />

MIDI-Messages<br />

Das berühmte "königliche" Thema <strong>des</strong> "Musikalischen Opfers" <strong>von</strong> J. S. Bach in drei<br />

Darstellungsvarianten eines aktuellen MIDI-Sequencerprogramms: erstens in traditioneller<br />

Notenschrift (Score), zweitens als Piano Roll, angelehnt an die Stiftwalzenbestückung, drittens in<br />

numerisch-serieller Darstellung <strong>von</strong> MIDI-Events.


Klangbeispiel<br />

7. Digitalisierung: Sound Synthese, Sampling und Processing<br />

Um ein Audiosignal digital verarbeiten zu können, misst ein Analog/Digital-Wandler<br />

die Amplitude eines Klangsignals mit einer regelmäßigen Abtastrate (Sampling Rate).<br />

Höhere Abtastraten erfassen höhere Frequenzen, so daß die Klangqualität steigt. Das<br />

Nyquist-Theorem sagt dazu aus, dass die Abtastfrequenz min<strong>des</strong>tens doppelt so hoch<br />

sein muss wie die höchste Frequenz <strong>des</strong> abzutastenden Nutzsignals (bei der<br />

herkömmlichen Audio-CD zirka 44 kHz). Die Übertragungsqualität hängt auch <strong>von</strong><br />

der Auflösungsfeinheit (Quantisierung) einer Messung ab (bei der Audio-CD mit 16<br />

Bit), so daß ein sehr hoher Datenstrom anfällt, der erst seit der Einführung der<br />

digitalen Audio-CD 1981 in einem kommerziell erträglichen Rahmen technisch<br />

bewältigt wurde. Entsprechend kann ein Klangsignal künstlich erzeugt werden, wenn<br />

ein Algorithmus den Schwingungsverlauf nach einem bestimmten Syntheseverfahren<br />

berechnet.<br />

Der Musikcomputer kann hierbei stellvertretend für das gesamte digitale audio- und<br />

musiktechnologische Instrumentarium stehen, denn er repräsentiert im Grunde<br />

sämtliche Aspekte der Klanggestaltung mit Hilfe elektronischer Klanggeräte.<br />

Der Computer ist theoretisch in der Lage, beliebige Klangstrukturen erzeugen, jede<br />

der in den aktuellen Synthesizern verwendeten Klangsyntheseformen stehen dem<br />

Computer mit einem geeigneten Programm offen. Es ist z.B. gleichgültig, ob man<br />

Obertonstrukturen additiv aus Sinuskomponenten zusammensetzen möchte oder<br />

Klänge durch die vielseitigen Formen der Modulation <strong>von</strong> Schwingungen, z.B. der<br />

beliebten Frequenzmodulation, erzeugen will; es genügt, die entsprechenden


mathematische Formel in ein Programm einzusetzen und die Berechnung <strong>des</strong> Klangs<br />

kann beginnen, wenn Hard- und Software es erlauben, sogar in Echtzeit, d.h., der<br />

Klang steht sofort für musikalische Zwecke zu Verfügung.<br />

Ein Qualitätsmerkmal vieler Synthesizer ist der Grad der klanglichen Nachbildung<br />

originaler Instrumente, obwohl die Schaffung und musikalische Auswertung neuer<br />

Klangstrukturen und ihre ungewöhnliche Manipulation eigentlich interessanter sein<br />

müßten.<br />

Musikbeispiel: Jean-Claude Risset, „Mutations“ (endlose Tonglissandi = sog.<br />

Shepard-Tones)<br />

Der Musikcomputer verändert aber auch Klänge, indem er beispielsweise als Filter<br />

oder Echogerät oder als Transposer arbeitet. Auch hierzu muß lediglich ein<br />

entsprechen<strong>des</strong> Programm erstellt werden, was die notwendigen Berechnungen<br />

veranlaßt. Natürlich gibt es hier unterschiedliche Schwierigkeitsgrade bei der<br />

Bewältigung einer derartigen Aufgabenstellung, z.B. ist sehr viel aufwendiger die<br />

komplizierten akustischen Bedingungen eines hallenden Raums, also die Funktion<br />

eines Hallgeräts, für die Klangberechnung zu berücksichtigen, als etwa ein<br />

künstliches Echo zu erzeugen.<br />

Wie ein Tonbandgerät kann der Computer beliebige Originalklänge speichern.<br />

Spezielle Speichergeräte, die jeden Klang - auch Gesang oder ein komplettes<br />

Orchester - digital speichern, sind als sogenannte Sound Sampler in den letzten<br />

Jahren sehr erfolgreich gewesen. Die damit erzielten Klangeffekte haben zur Zeit<br />

Hochkonjunktur und es wird kaum ein aktueller Hit produziert, der nicht irgendwie<br />

<strong>von</strong> gesampleten Originalklängen lebt.<br />

Sogar die Stimme wird mehr und mehr computertechnisch produziert.<br />

Melodyne-Beispiel, Bayrischer Ländler als Mix aus Stimmen und Instrumenten


8. Virtuelle Instrumente, Simulation und Emulation<br />

Neben der Digitalisierung und Globalisierung dürfte sich als eine der wichtigsten<br />

computertechnischen Neuerungen die erweiterten Möglichkeiten der Modellbildung<br />

bis hin zu virtuellen Realität erweisen. Virtualität meint eine gedachte oder über ihre<br />

Eigenschaften konkretisierte Sache, also ein Gegenstand, ein Prozeß, eine Miniwelt,<br />

die zwar nicht physisch, aber doch in ihrer Funktionalität oder Wirkung vorhanden ist.<br />

Claude Cadoz, ein franz. Komponist (Virtuelle Realität, 1998) erklärt die Virtualität<br />

als "integrale Repräsentation". Repräsentation einfach als "Wieder-Darstellung". In<br />

der virtuellen Realität wird also das Wesentliche einer Erscheinung, eines Dinges,<br />

erneut dargestellt. Das geht mit ganzen Welten, wie das sehr populär z.B. in<br />

Computerspielen wie Second Life der Fall ist, in denen man einen visuellen (durch<br />

ein Fenster, das reicht schon) und einen auditiven Eindruck der fiktiven Landschaft<br />

bekommt. Der (noch) fehlende Tastsinn, die Haptik ist für die Spielfreude der meisten<br />

User offenbar noch nicht wichtig, für virtuelle Instrumente aber immer schon ein<br />

wesentlicher Faktor.<br />

Virtuelle Instrumente stellen nach der Definition oben die Essenz eines<br />

Musikinstrumentes dar, erneut dargestellt im Medium Computer. Das Wesentliche<br />

eines Instruments ist offenbar sein Klang, denn dies ist ja das, was virtuelle<br />

Instrumente liefern.<br />

Hier werden große Anstrengungen unternommen, z.B. über die exakte algorithmische<br />

Nachbildung der Klangerzeugungsvorgänge, etwa beim Physical Modelling.<br />

Emulation ist erweiterte Simulation: möglichst authentisch wirkende (klingende)<br />

virtuelle Instrumente. Beim Physical Modelling wird ein Instrument analysiert und<br />

(virtuell) in seine Funktionselemente zerlegt, die physikalischen Eigenschaften dieser<br />

Module werden durch mathematische Modelle dargestellt. Das Ergebnis ist ein<br />

lebendiger und realistischer Nachbau <strong>des</strong> Ursprungsinstruments. Emulierte virtuelle<br />

Instrumente nehmen im Gegensatz zu Sample-basierten Instrumenten meist nur sehr<br />

wenig Speicherplatz auf der Festplatte in Anspruch. Die nötige Rechenleistung<br />

dagegen ist recht hoch.<br />

Virtuelle Instrumente bleiben als Klangerzeuger zweidimensional, das musikalische<br />

Interface kann frei gewählt werden. Häufig ist es die Klaviatur, sicherlich das<br />

bekannteste Interface.<br />

Live-Vorführung eines virtuellen Instruments, einer simulierten<br />

"Hammond-Orgel" am Notebook mit MIDI-Tastatur (über USB).


Virtuelle E-Orgel, Native Instruments B4 = Hammond B3-Simulation<br />

Modularer Digitalsynthesizer <strong>von</strong> Native Instruments, virtuelle Nachbildung eines FM-Synthesizers<br />

mit 4 Operatoren<br />

9. Musikcomputer im Prozeß musikalischer Kommunikation<br />

Eine systematische Übersicht zeigt die verschiedenen Anwendungsmöglichkeiten der<br />

Computertechnik für Musik und audiovisuelle Medien. Betrachtet man den Computer


als Herzstück der Digitalisierung (Geräte, Instrumente und Programme), der<br />

Globalisierung (Vernetzung, Internet) und Virtualisierung (Simulation,<br />

Modellbildung), dann ist er - z.T. im Zusammenspiel mit dem Internet - einsetzbar<br />

als:<br />

a) multifunktionales Musikinstrument<br />

- Klangsteuerung (MIDI-Sequencing)<br />

- Klangveränderung (Sound Processing)<br />

- Klangsspeicherung (Sound Sampling)<br />

- Klangerzeugung (Sound Synthesizing)<br />

b) musikalisches Werkzeug<br />

- Kompositionsprogramm (Composing)<br />

- Analyseprogramm (Music Analysis)<br />

- Notendruck (Score Printing)<br />

- virtuelles Tonstudio (Production, Audio Mixing)<br />

c) musikspezifische Informationsquelle<br />

- multimediale Präsentation <strong>von</strong> Wissen (Musiklexikon, Musik mit Hintergrundinformationen usw.)<br />

- interaktives Spielzeug (Simulation <strong>von</strong> musikalischen Situationen oder Geräten, Quiz, Adventure)<br />

- interaktive Musiklernprogramme (Music Teaching & Learning)<br />

- netzbasierter Wissens- und Kommunikationsserver (Telelearning, virtuelles Musikkonservatorium)<br />

d) als flexibles audiovisuelles Wiedergabegerät<br />

- Recording, Editing, Playing (Aufnahme, Bearbeitung und Wiedergabe <strong>von</strong> Musik, Geräusch,<br />

Sprache, Video)<br />

- Audiovisueller Server (Basiscomputer für Radio- und TV-Sendungen per Internet<br />

- Datenbank für Klänge, Musik (wav, MP3 usw.), Score- und MIDI-Dateien, Videos, Animationen<br />

usw. //<br />

Musik im Prozeß der Produktion, Interpretation, Reproduktion und Rezeption - in jedem Bereich<br />

werden heute Computer eingesetzt<br />

10. Schlußwort<br />

Mathematik ist Musik für den Verstand, Musik ist Mathematik für die Seele.<br />

Es gibt mannigfaltige Beziehungen zwischen Musik und Mathematik, bzw. Physik<br />

und Musik, die vor allem durch die Beziehungen beider Disziplinen zur Mathematik


und hier speziell durch den Umgang mit Zahlen und Zahlenverhältnissen bestimmt<br />

werden.<br />

Akzeptiert man die Einstufung <strong>des</strong> multifunktionalen Computers als Brennpunkt der<br />

musikspezifischen Digitalisierung <strong>von</strong> Geräten der Instrumental- und Audiotechnik,<br />

der Globalisierung <strong>von</strong> musikalischen Kommunikationsstrukturen (Datenvernetzung<br />

per Internet) und Virtualisierung <strong>von</strong> musikalischen Prozessen (Simulation,<br />

Emulation, Modellbildung), dann läßt sich ohne weiteres die These <strong>des</strong> Schweizer<br />

Musikwissenschaftlers und Mathematikers Guerino Mazzola nachvollziehen:<br />

"...daß <strong>von</strong> allen klassischen Künsten - und wohl auch <strong>von</strong> den neuen multimedialen<br />

Derivaten - die Musik und ihre Wissenschaft am meisten der Wissensgesellschaft <strong>des</strong><br />

Informationszeitalters einverleibt worden ist. Dies liegt sicher an der Abstraktheit<br />

musikalischer Konstruktion, aber auch daran, daß die Klangsynthese durch digitale<br />

Medien bis hin zur Simulation realer traditioneller Instrumente die Wirklichkeit<br />

musikalischer Werke massiv zu virtualisieren vermocht hat."<br />

Der aktuelle Musikcomputer ist als digitale Universalmaschine gleichermaßen ein<br />

omnipotentes Musikinstrument zum Generieren, Transformieren, Speichern und<br />

Steuern <strong>von</strong> Klängen, ein musikalisches Werkzeug zum Komponieren, Arrangieren<br />

und Analysieren <strong>von</strong> neuen und alten Klangstrukturen und eine kreative Maschine zur<br />

experimentellen Modellierung und virtuellen Abbildung <strong>von</strong> neuen Klangwerkzeugen<br />

und kognitiven Prozessen.<br />

Musikverarbeitung mit dem Computer bedeutet eine Algorithmisierung aller<br />

musikalischen Prozesse, der musikalische Prozeß wird numerisch abgebildet, sei es zu<br />

produktiven oder zu reproduktiven Zwecken. Der Kölner Musikwissenschaftler Jobst<br />

Peter Fricke versucht am Beispiel der Digitalisierung unserer technischen Umwelt die<br />

Grenze zwischen ratio und emotio zu definieren: "So gesehen enthält das digitale<br />

Arbeitsfeld, das wir uns ausgedacht haben. letztlich die Kennzeichen unseres<br />

Denkens. Es ist ein Werkzeug, das unserem Denken entspricht. Wir haben die<br />

Digitalisierung gebraucht und eingeführt, um präzise definieren zu können, um<br />

schließlich mit der Kombination präziser Definitionen unsere Denkmöglichkeiten<br />

hinaus projizieren zu können - in eine Maschine. Zurückgeblieben ist die Emphatie,<br />

der unmittelbar emotionale zwischenmenschliche Bereich, nicht zu verwechseln mit<br />

dem Bereich der Emotionen, der an die digitalen Informationen geknüpft ist. ...Inhalte<br />

und Gedanken, die digital transportiert werden, lösen immer auch Gefühle aus.<br />

Gefühle sind immer dabei, sie sind allgegenwärtig und gerade der wesentliche Teil<br />

<strong>des</strong> Menschen."


Die Roboter der Gruppe Kraftwerk im Bühneneinsatz<br />

Der französische Komponist André Jolivet sagte einmal selbstbewußt:<br />

"Niemals kann eine noch so perfekte Maschine einen genialen Menschen<br />

ersetzen."<br />

Sein Landsmann und Kollege Pierre Barbaud, ein Komponist, der mit Computern<br />

komponierte, hielt wacker dagegen und meinte:<br />

"Niemals kann ein noch so genialer Mensch eine elektronische Maschine<br />

ersetzen."<br />

Mir scheint, daß beide Ansichten zutreffen.<br />

Nun ist die Kognitionswissenschaft dem menschlichen Denken und der Emotion auf<br />

der Spur, das Bewußtsein arbeitet im 3-Sekundentakt, dem sich sowohl der Vers eines<br />

Gedichtes als auch ein musikalisches Motiv unterzuordnen hat. Vielleicht läßt sich<br />

das menschlichen Denken und Fühlen eines Tages doch mathematisch beschreiben<br />

und der musikalisch kreative Roboter wäre nicht mehr unmöglich.<br />

Schließlich sei noch auf das aktuelle, allerdings noch kontrovers diskutierte Konzept<br />

der Superstringtheorie verwiesen, mit deren Hilfe man Quantentheorie und<br />

Gravitation unter einen Hut zu bringen hofft. Dabei werden Elementarteilchen als<br />

schwingende Saiten (= string) (sic!) angesehen, deren Schwingungsanregungen,


Akkorde, Harmonien etc. nichts Geringeres als ein schlüssiges Konzept der gesamten<br />

Welt liefern sollen.<br />

"Alles ist Zahl", sagten die Pythagoräer. Sie hatten ein anderes Weltbild und sie<br />

hatten keine Computer, aber in einem gewissen Sinne behielten sie recht.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!