Computational Intelligence: die Natur als Vorbild für technische ...
Computational Intelligence: die Natur als Vorbild für technische ...
Computational Intelligence: die Natur als Vorbild für technische ...
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
<strong>Computational</strong> <strong>Intelligence</strong>: <strong>die</strong> <strong>Natur</strong> <strong>als</strong> <strong>Vorbild</strong> <strong>für</strong><br />
<strong>technische</strong> Automatisierungslösungen<br />
1. Einführung<br />
Prof. Dr.-Ing. Bernd Cuno<br />
Fachhochschule Fulda, Fachbereich Elektrotechnik<br />
Marquardstraße 35, 36039 Fulda<br />
Email: Bernd.Cuno@et.fh-fulda.de<br />
1.1 Aktuelle Probleme der Automatisierungstechnik<br />
Die Erweiterung des Anwendungsspektrums der Automatisierungstechnik, wirtschaftliche<br />
Zwänge sowie technologische und umwelt<strong>technische</strong> Gründe führen seit Jahren zu<br />
einer anwachsenden Komplexität der Prozesse sowie zu steigenden Anforderungen an<br />
deren Automatisierung. Konventionelle Verfahren der Automatisierungstechnik können<br />
in vielen Fällen - auch bei sorgfältiger Parametrierung - <strong>die</strong>se Anforderungen nicht<br />
mehr erfüllen [1]. Die tiefergehende Analyse zeigt, daß Probleme besonders bei Automatisierungsaufgaben<br />
auftreten, <strong>die</strong> folgende wesentliche Eigenschaften aufweisen:<br />
• hohe Komplexität, gekennzeichnet durch nichtlineares Verhalten und hohe Systemordnung,<br />
• Anfall großer - einerseits unvollständiger, andererseits stark redundanter - Datenmengen,<br />
• unpräzises, unvollständiges und schwer strukturierbares Prozeßwissen sowie<br />
• hohe Echzeitanforderungen.<br />
Während hinsichtlich der Lösung <strong>die</strong>ser Probleme <strong>die</strong> theoretischen und praktischen<br />
Grundlagen der konventionellen Automatisierungstechnik oftm<strong>als</strong> versagen, bewältigen<br />
das menschliche Hirn und selbst einfache biologische Systeme derartige Probleme teilweise<br />
mühelos. Bis heute gelingt es nicht, ein autonomes Fahrzeug zu entwerfen, das<br />
nur annähernd <strong>die</strong> Effizienz und Eleganz einfachen tierischen Verhaltens besitzt [2].<br />
„Einfache“ Erkennungsvorgänge, wie das Wiedererkennen eines Gesichts „auf den ersten<br />
Blick“, das Zurechtfinden im Gelände oder auch das Verstehen von undeutlicher<br />
Sprache erledigt das Gehirn in Sekundenbruchteilen, während <strong>technische</strong> Einrichtungen<br />
an <strong>die</strong>sen Aufgaben noch scheitern. In den letzten Jahren wurde es immer augenscheinlicher,<br />
daß <strong>die</strong> alleinige Weiterentwicklung der konventionellen Automatisierungsverfahren<br />
nicht ausreicht, um den wachsenden Anforderungen des Marktes zu genügen.
1.2 Suche nach neuen Problemlösungen: <strong>die</strong> <strong>Natur</strong> <strong>als</strong> <strong>Vorbild</strong><br />
Die logische Konsequenz der oben dargestellten Erkenntnisse scheint deshalb zu sein,<br />
<strong>die</strong> Strategie zu kopieren, welche <strong>die</strong> <strong>Natur</strong> offensichtlich erfolgreich benutzt, um solche<br />
schwierigen Aufgaben zu lösen. Da <strong>die</strong> <strong>Natur</strong> im Vergleich zur Technik gigantische Leistungen<br />
vollbringt, steht hier ein unerschöpfliches Ideenpotential zur Verfügung. Im Erfolgsfall<br />
könnte der Einsatz naturbasierter, d.h. am <strong>Vorbild</strong> der <strong>Natur</strong> orientierter Verfahren<br />
zu einer erheblichen Leistungssteigerung der Automatisierungstechnik beitragen.<br />
Daher <strong>die</strong> Motivation zur Beschäftigung mit dem Thema: High Tech lernt von High<br />
<strong>Natur</strong>e.<br />
Obwohl <strong>die</strong> Funktionsweise der betreffenden Prinzipien der <strong>Natur</strong> bisher nur bruchstückhaft<br />
bekannt ist, werden bereits seit einigen Jahren Versuche unternommen, <strong>die</strong>se<br />
in Automatisierungskonzepte umzusetzen. Über entsprechende Anwendungen wird in<br />
fachlich orientierten sowie populärwissenschaftlichen Veröffentlichungen unter folgenden<br />
Schlagzeilen - meist euphorisch - berichtet:<br />
/ Die Biologie hilft der Informatik auf <strong>die</strong> Sprünge / Den Fähigkeiten des menschlichen<br />
Gehirns auf der Spur / Chips mit Grips - autonome Roboter helfen das Gehirn zu verstehen<br />
/ Fuzzy Logik - näher zur <strong>Natur</strong> ? / Software züchten, statt sie zu schreiben / Fuzzy<br />
Logic - Computing with words ? / Neuronale Netze - Zukunftsmusik oder Realität ? /<br />
Gehirn und Gespinste: Mensch, Maschine - Kopfgeburten / Gehirnzellen auf einem<br />
Chip / Computer lernen denken /.<br />
Im folgenden sollen <strong>die</strong> Ursprünge der naturbasierten Verfahren kurz dargestellt und erste<br />
Erfolge, aber auch deren enorme bisher noch ungenutzte Potentiale aufgezeigt werden.<br />
Dadurch sollen Forscher, aber auch Entwickler und Anwender der industriellen<br />
Automatisierungstechnik <strong>für</strong> <strong>die</strong>ses <strong>für</strong> <strong>die</strong> zukünftige Wettbewerbsfähigkeit der Industrie<br />
bedeutende Thema sensibilisiert und zur innovativen Umsetzung ermuntert werden.<br />
Auch wenn <strong>die</strong> vorliegende Darstellung teilweise <strong>die</strong> gewohnte rein <strong>technische</strong> Ebene<br />
verläßt und <strong>für</strong> den Anwender einen teilweise noch futuristischen Aspekt aufweist, gilt<br />
es zu bedenken, daß „<strong>für</strong> <strong>die</strong> Praxisnähe von übermorgen <strong>die</strong> sogenannte Praxisferne<br />
von heute ein notwendiger Preis ist“ (Erich Staudt, Professor am Institut <strong>für</strong> Arbeitswissenschaft<br />
der Ruhr-Universität Bochum).<br />
Voraussetzung <strong>für</strong> eine erfolgreiche Arbeit auf dem Gebiet der naturbasierten Automatisierungsverfahren<br />
ist <strong>die</strong> fachübergreifende Betrachtung. Andererseits leisten das theoretische<br />
Gebäude sowie <strong>die</strong> Methoden der inzwischen zur Systemwissenschaft ausgebauten<br />
Regelungstechnik einen wesentlichen Beitrag auf dem Gebiet der Erforschung<br />
der natürlichen Intelligenz (Kognitionswissenschaft) sowie der Evolution. Hier arbeiten<br />
mittlerweile Biologie, Medizin, Mathematik, Informatik, aber auch Philosophie, Psychologie,<br />
Linguistik und verschiedene Ingenieurwissenschaften interdisziplinär zusammen.<br />
Zu einer Verstärkung der interdisziplinären Arbeit sowie zum Abbau von Hemmschwellen<br />
soll folgendes Zitat von Antoine de Saint-Exupery ermuntern:<br />
„Die Maschine trennt den Menschen nicht von den großen Dingen der <strong>Natur</strong>, sondern<br />
wirft ihn noch tiefer in sie hinein.“<br />
Das angefügte Literaturverzeichnis soll den Leser zum weiteren vertiefenden Studium<br />
anregen.
2. Das Prinzip der Regelung<br />
2.1 Gemeinsamkeiten biologischer und <strong>technische</strong>r Regelungen<br />
Das Prinzip der Regelung wurde von der Evolution bereits Milliarden von Jahren vor<br />
den Regelungstechnikern „erfunden“. Gemeinsame Merkmale von biologischen und<br />
<strong>technische</strong>n Regelungssystemen [2], [3] sind<br />
• Informationsfluß innerhalb des Regelkreises,<br />
• rückwirkungsfreie Regelkreiselemente und<br />
• das Konzept der negativen Rückkoppelung.<br />
Im Unterschied zu <strong>technische</strong>n Regelungen sind biologische Regelungen allerdings<br />
höchst komplexe Mehrgrößensysteme, <strong>die</strong> oft Millionen von elementaren Ein- und Ausgängen<br />
enthalten. Einer Regelaufgabe sind oft unterschiedliche Stellgliedtypen zugeordnet,<br />
während ein und dasselbe Stellglied wiederum (mit meist variabler Priorität) verschiedenen<br />
Regelaufgaben <strong>die</strong>nt.<br />
2.2 Regeln und Lernen<br />
Ohne <strong>die</strong> Fähikeit, zu lernen und das erworbene Wissen zu speichern, wären der Mensch<br />
aber auch selbst <strong>die</strong> einfachsten Tiere, hilflos. Lernen umfaßt jene Abläufe, bei denen<br />
Informationen über <strong>die</strong> Welt erworben werden, und Gedächtnis steht <strong>für</strong> den Prozeß, mit<br />
dessen Hilfe das Wissen abrufbar gespeichert wird.<br />
Den Vorgang des natürlichen Lernens beschreibt Konrad Lorenz <strong>als</strong> Beispiel eines Regelkreises<br />
[4]. Er bemerkt, daß durch den Übergang vom Steuer- zum Regelprinzip<br />
„völlig neue Systemeigenschaften des nervlichen Apparates entstanden sind“. Ein Leben<br />
ohne das Prinzip des Regelns ist offensichtlich nur in einem „Milieu von unvorstellbar<br />
großer Konstanz“ (zum Beispiel im Wasser bzw. in der "Ursuppe") möglich. Den meisten<br />
Lernvorgängen gemeinsam ist <strong>die</strong> Rückkoppelungsschleife, bestehend aus: Wahrnehmung<br />
des realen Umfelds, Wiedererkennen von wiederholt auftretenden Situationsmerkmalen,<br />
Evaluierung (Korrelation zwischen angewandten Verhaltensweisen und ihrem<br />
Nutzen bzw. Schaden), Verallgemeinerung oder Abstraktion der Erkenntnis, entsprechende<br />
Verhaltensänderung, veränderte Wirkung auf das Umfeld [2].<br />
2.3 Lernen und Simulation<br />
Eine wichtige Fähigkeit des Menschen besteht in der Simulation. Bevor wir eine<br />
Handlung konkret ausführen, simulieren wir sie gewöhnlich mit Hilfe unserer Vorstellungskraft.<br />
Wir können so <strong>die</strong> möglichen Auswirkungen der Handlung analysieren und<br />
entscheiden, ob wir sie wie geplant durchführen, sie ändern oder auf sie verzichten<br />
wollen. Durch Einsatz der Simulation braucht der Mensch nicht den Preis zu zahlen, der<br />
mit den unvermeidlichen Fehlern verknüpft ist oder um mit Karl Popper zu sprechen:<br />
„Die Simulation ermöglicht es, daß nicht wir, sondern unsere Hypothesen sterben“
Die heute fast ausschließlich auf Digitalrechnern durchgeführte wissenschaftliche bzw.<br />
<strong>technische</strong> Simulation hat mittlerweile alle Gebiete der <strong>Natur</strong>wissenschaft und der<br />
Technik erfaßt und ist in manchen Bereichen so erfolgreich, daß man gänzlich auf das<br />
Experiment verzichten kann. In anderen Bereichen ist sie der einzige Zugang zur Erfassung<br />
genauer Abläufe, weil entsprechende Experimente nicht durchgeführt werden können.<br />
Wesentliche Anwendungsgebiete der Simulation in der Automatisierungstechnik<br />
sind:<br />
• Einsatz von Echtzeitsimulatoren zur Schulung,<br />
• Prozeßbeobachtung und Diagnose,<br />
• Simulationsgestützte Prognose und<br />
• Adaptive Regler.<br />
Durch das vertiefte Studium biologischer Regelkreise können voraussichtlich noch viele<br />
wertvolle Lösungsideen <strong>für</strong> komplexe <strong>technische</strong> Regelaufgaben auf dem Gebiet der<br />
lernenden, adaptiven oder autonomen Systeme gewonnen werden.<br />
3. Evolution<br />
Das von Gregor Johann Mendel (1822-1884) aufgestellte dritte Vererbungsgesetz, das<br />
Gesetz der freien Rekombination des Erbguts, besagt, daß das Erbgut zumindest prinzipiell<br />
in allen möglichen Kombinationen neu zusammengestellt werden kann. Ferner<br />
hatte Mendel erkannt, daß sich das Erbgut aus bestimmten, diskreten Einheiten zusammensetzt.<br />
Wir wissen heute, daß <strong>die</strong>se wie folgt aufgebaut sind: <strong>die</strong> im Zellkern befindlichen<br />
Chromosomen enthalten <strong>die</strong> langgestreckten Moleküle der Desoxyribonukleinsäure<br />
(DNS), <strong>die</strong> wiederum aus vier Nukleotiden, den Basen Adenin, Guanin, Cytosin<br />
und Thymin besteht. Diese bilden das genetische Alphabet, ihre jeweilige Reihenfolge in<br />
der DNS <strong>die</strong> genetische Information in Form des genetischen Codes. Die kleinste Erbeinheit,<br />
das Gen, setzt sich typischerweise aus etwa 1000 Nukleotiden zusammen. Der<br />
genetische Code stellt beim Aufbau der Lebewesen <strong>die</strong> Information zur Eiweiß- oder<br />
Proteinsynthese bereit. Er ist hochgradig redundant ausgelegt und in der <strong>Natur</strong> universell<br />
gültig: alle Organismen übersetzten <strong>die</strong> Basensequenzen in der gleichen Weise. Je drei<br />
aufeinanderfolgende Nukleotide co<strong>die</strong>ren eine Aminosäure. Insgesamt sind dabei 4 3 =<br />
64 Kombinationen möglich. Da nur 20 verschiedene Aminosäuren existieren, ist der<br />
Code <strong>als</strong>o mehrdeutig und somit redundant ausgelegt. Die Reihenfolge der Aminosäuren<br />
bestimmt <strong>die</strong> Grundstruktur der Proteinmoleküle und damit in letzter Instanz den Aufbau<br />
der Zellen und somit des gesamten Organismus [5].<br />
Als zu Beginn <strong>die</strong>ses Jahrhunderts <strong>die</strong> Vererbungsgesetze Mendels wiederentdeckt wurden,<br />
war man davon überzeugt, daß ein Gen zwangsläufig ein bestimmtes Merkmal<br />
festlegt. Diese Vorstellunmg wurde nach dem zweiten Weltkrieg von der Überzeugung<br />
abgelöst, daß <strong>die</strong> Gene nur einen gewissen Rahmen bstimmen, <strong>die</strong> eigentlich formende<br />
Kraft aber <strong>die</strong> Umwelt sei. In den sechziger Jahren begann sich dann allmählich wieder<br />
<strong>die</strong> Meinung durchzusetzen, daß <strong>die</strong> Gene und nicht <strong>die</strong> Umwelt <strong>die</strong> wichtigste Rolle bei<br />
der Entwicklung eines Individuums spielen.
Daß der Mensch mehr ist <strong>als</strong> <strong>die</strong> Summe seiner Gene, wird heute von den Wissenschaftlern<br />
nicht mehr angezweifelt. Tatsächlich wird jede Eigenschaft, Verhalten und<br />
Intelligenz eingeschlossen, durch ein komplexes Zusammenspiel der Gene (mit einem<br />
hohen Grad an Vernetzung) bestimmt. Selbst bei (monogenen) Erbkrankheiten, <strong>die</strong> bisher<br />
auf einen Fehler in nur einer Erbanlage zurückgeführt wurden, können offenbar Regelkreise<br />
unüberschaubar ineinandergreifen [28].<br />
Alle Eigenschaften lebender Organismen, wie Anatomie, Nervensystem, Sinne, Gefühle,<br />
Bewußtsein sind Ergebnisse der biologischen Evolution. Gemäß der von Charles<br />
Darwin (1809-1882) im Jahre 1859 begründeten Evolutionstheorie beruht der von der<br />
Evolution durchgeführte Suchprozeß auf drei einfachen Prinzipien:<br />
• der zufälligen Mutation des genetischen Materi<strong>als</strong> (Erbgut),<br />
• der Fortpflanzung durch Reduplikation (identische Teilung) bzw. Rekombination<br />
(Crossover) der Erbinformation und<br />
• der Selektion aufgrund der Tauglichkeit eines Individuums (survival of the fittest).<br />
Die <strong>für</strong> den Ingenieur erstaunlichsten Eigenschaften der Evolution sind <strong>die</strong> relative Einfachheit<br />
ihrer Vorgehensweise und das Zusammenwirken verschiedener Steuerungsmechanismen.<br />
Der von Darwin geprägte Begriff der Fitneß eines Lebewesens setzt sich aus einer Vielzahl<br />
verschiedener Eigenschaften zusammen. Er ist eine Variable, <strong>die</strong> sich über den<br />
Fortpflanzungserfolg unter den jeweiligen Selektionsbedingungen definiert. Die Evolution<br />
führt zu Organismen mit spezifischen Eigenschaften, <strong>die</strong> eine vorläufig stabile<br />
Wechselwirkung mit ihrer Umgebung erlauben. Eine Veränderung oder Erweiterung der<br />
Eigenschaften eines Organismus kann sich entweder <strong>als</strong> fatal erweisen und somit mit<br />
dem veränderten Organismus verschwinden oder sie erweist sich <strong>als</strong> vorteilhaft im<br />
Wettbewerb um begrenzte Ressourcen und führt zu einer erweiterten Art mit entsprechend<br />
erweiterten Eigenschaften, d.h. zu einem neuen, vorläufig stabilen Gleichgewicht.<br />
Trotz des positiv klingenden Begriffs Evolution muß festgestellt werden, daß im Laufe<br />
der Evolution nicht alle Wege „aufwärts“ zu komplexeren und intelligenteren Lebewesen,<br />
sondern viele „abwärts“, zu rückgebildeten vereinfachten Formen geführt haben<br />
[6].<br />
Der praktische Wert der Evolutionstheorie <strong>für</strong> <strong>die</strong> Automatisierungstheorie besteht aktuell<br />
darin, daß sie einerseits darüber aufklärt, wie natürliche Intelligenz entstand und<br />
andererseits <strong>die</strong> wissenschaftliche Basis <strong>für</strong> Konzepte des künstlichen Lebens bildet. Erfolgreiche<br />
Anwendungen sind <strong>die</strong> genetischen Algorithmen ([7] und [8]) sowie <strong>die</strong><br />
Evolutionsstrategien ([9] und [10]), <strong>die</strong> am weitesten verbreiteten Vertreter einer Klasse<br />
direkter stochastischer Optimierungsverfahren. Diese Algorithmen benutzen der Rekombination,<br />
Mutation und Selektion nachempfundene genetische Operatoren zur qualitativen<br />
Höherentwicklung einer Population von Lösungskandidaten <strong>für</strong> ein gegebenes<br />
Optimierungsproblem. Ihr Potential zum Auffinden guter Näherungslösungen selbst <strong>für</strong><br />
schwierige multimodale Optimierungsaufgaben wurde inzwischen in einer Vielzahl von<br />
Anwendungen demonstriert [11].
In beinahe allen Bereichen unserer Umwelt finden sich geniale Schöpfungen der <strong>Natur</strong>.<br />
Wenn es uns gelängem, besser zu verstehen, wie <strong>die</strong> <strong>Natur</strong> ihre Produkte hervorbringt<br />
und an ihre Umwelt anpaßt, so könnten wir versuchen, <strong>die</strong>se Prozesse nachzubilden und<br />
ebenfalls bessere, umweltverträglichere, biologisch abbaubare, energiesparende und in<br />
vielerlei Hinsicht optimierte Produkte erzeugen [12].<br />
4. Sprache und Logik<br />
Die in dem Zeitraum vor rund 300.000 bis 20.000 Jahren entstandene menschliche<br />
Sprache zählt zu den herausragenden Eigenschaften des Menschen. Mit der Entwicklung<br />
der Sprache hat sich das Gehirn stark weiterentwickelt. Das Wesentliche der Sprachfähigkeit<br />
besteht darin, Dinge oder Handlungen zu verallgemeinern, d.h. einer Klasse zuzuordnen<br />
und durch ein Symbol zu benennen. Sprache beinhaltet somit ein hochdifferenziertes<br />
Vermögen zur Klassenbildung. Menschliche Entscheidungen basieren wiederum<br />
auf Aussagen mit sprachlicher Vagheit und evidenzmäßiger Unsicherheit.<br />
Die Vielfältigkeit der menschlichen Sprachen beweist, daß nichts an ihnen absolut und<br />
notwendig ist. Ebenso kann man annehmen, daß Logik und Mathematik historische, zufällige<br />
Ausdrucksformen sind, <strong>die</strong> auch in anderen <strong>als</strong> den uns bekannten Formen existieren<br />
können [24].<br />
Sprechen lernen <strong>die</strong> Menschen von selbst, Schreiben und Lesen muß man ihnen mühsam<br />
beibringen und es wird nicht von allen beherrscht. Dies bedeutet, daß Schreiben<br />
und Lesen nicht zur biologischen Grundausstattung des Menschen gehört, während<br />
Sprechen dem Menschen so natürlich ist wie Gehen ist.; es hat seine biologische<br />
Grundlage in einem „phonetischen Modul“, durch das gesprochene Sprache ohne Umweg<br />
einer inneren Übersetzung produziert und rezipiert wird. Das phonetische Modul<br />
bringt mittels motorischer Muster „phonetische Gesten“, <strong>die</strong> Grundbausteine der gesprochenen<br />
Sprache, hervor. Ähnlich werden sprachliche Laute, <strong>die</strong> gehört werden, verarbeitet.<br />
Die Organe, <strong>die</strong> mit Lesen und Schreiben zu tun haben, sind weit besser <strong>für</strong> ihre Aufgabe<br />
geeignet <strong>als</strong> <strong>die</strong>jenigen, <strong>die</strong> <strong>für</strong> das Sprechen und Hören zuständig sind: ein geschriebener<br />
oder gedruckter Text kann vom Auge sehr viel präziser wahrgenommen werden<br />
<strong>als</strong> eine Lautfolge durch das Ohr und <strong>die</strong> Hand kann genauer Buchstaben zeichnen <strong>als</strong><br />
<strong>die</strong> Zunge <strong>die</strong> entsprechenden Laute formen [31], [32].<br />
Die klassische Modellierung menschlicher Entscheidungen (d.h. des logisch analytischen<br />
Teils des menschlichen Verstands) ist wesentlich durch <strong>die</strong> Kategorienlehre und<br />
<strong>die</strong> Lehre von den logischen Schlüssen und Beweisen des Aristoteles (384-322 v. Chr.)<br />
geprägt. Dieser ging von folgenden Axiomen aus:<br />
• Satz vom Widerspruch: A kann nicht zugleich B und Nicht-B sein („... denn es ist<br />
nicht möglich, daß dasselbe demselben in derselben Beziehung zugleich zukomme<br />
und nicht zukomme“)<br />
• Satz vom ausgeschlossenen Dritten: A muß entweder B oder Nicht-B sein („denn zu<br />
behaupten das Seiende sei nicht oder das Nichtseiende sei, ist f<strong>als</strong>ch“).
Während der Satz vom Widerspruch einer Aussage verbietet, zugleich wahr und nicht<br />
wahr zu sein, verbietet es der Satz vom ausgeschlossenen Dritten einer Aussage, etwas<br />
anderes <strong>als</strong> wahr oder nicht wahr zu sein. Als Folge ist <strong>die</strong> klassische Logik gezwungen,<br />
jede Aussage so zu „runden“, daß sie entweder wahr oder f<strong>als</strong>ch ist. Obwohl viele Behauptungen<br />
des Aristoteles auf dem Gebiet der <strong>Natur</strong>wissenschaften im Laufe der Zeit<br />
widerlegt wurden und er selbst in späteren Werken in Frage gestellt hatte, ob alle formulierbaren<br />
Aussagen einzig und allein mit den Wahrheitswerten wahr oder f<strong>als</strong>ch belegt<br />
werden können („Einer der annimmt, daß 4 und 5 gleich seien, liegt immer noch<br />
richtiger, <strong>als</strong> der, der 4 und 1000 gleichsetzt“ aus Methaphysik), wurde <strong>die</strong> Modellierung<br />
der menschlichen Wissensverarbeitung durch <strong>die</strong> klassische Logik über zwei Jahrtausende<br />
beibehalten [13].<br />
Die mathematische Basis der klassischen Logik ist durch <strong>die</strong> Aussagenlogik gegeben,<br />
<strong>die</strong> neben der Mengenalgebra und der Verknüpfungslogik zu den Modellen der Boolschen<br />
Algebra zählt. Da alle Modelle der Boolschen Algebra deren Axiome erfüllen und<br />
<strong>die</strong> gleiche algebraische Struktur besitzen, können <strong>die</strong> bestehenden Analogien zur Problemlösung<br />
ausgenutzt werden. Dies bedeutet, daß Probleme der Aussagenlogik mit<br />
Hilfe der Mengenalgebra gelöst werden können (so entspricht zum Beispiel einer logischen<br />
UND-Verknüpfung der Aussagenlogik <strong>die</strong> Bildung des Durchschnitts in der Mengenalgebra)<br />
[12]. Aufgrund der groben Vereinfachung auf <strong>die</strong> zweiwertige Wahr/<br />
F<strong>als</strong>ch-Aussage liefert <strong>die</strong> klassische Aussagenlogik in vielen Fällen ein ungenügendes<br />
Modell der menschlichen Wissensverarbeitung. Dies trifft besonders bei komplexen<br />
Sachverhalten zu. Sowohl <strong>die</strong> Lingusitik <strong>als</strong> auch <strong>die</strong> Philosophie gelangten zu der Erkenntnis,<br />
daß einfache Konzepte eher präzise sind <strong>als</strong> komplexe, <strong>die</strong> zu Unbestimmtheiten<br />
ten<strong>die</strong>ren: „Je umfassender <strong>die</strong> Bedeutungsfelder eines Begriffs sind, je weitreichender<br />
<strong>die</strong> Aussagen und Konsequenzen (A. Cornelius Benjamin) [13]. Lofti Zadeh<br />
formulierte das Gesetz der Unvereinbarkeit: „Wenn <strong>die</strong> Komplexität eines Systems ansteigt,<br />
verlieren präzise Aussagen an Sinn und sinnvolle Aussagen an Präzision“ oder<br />
„wenn <strong>die</strong> Komplexität eines Systems zunimmt, wird unsere Fähigkeit, präzise und<br />
dennoch signifikante Aussagen über <strong>die</strong>ses System zu machen, entsprechend geringer,<br />
bis eine Grenze erreicht wird, von der an Präzision und Signifikanz (oder Relevanz) zu<br />
sich gegenseitig ausschließenden Merkmalen werden“ [14]. Auch bei der Automatisierung<br />
komplexer Prozesse führte <strong>die</strong> Anwendung der klassischen Logik zu erheblichen<br />
Problemen.<br />
Nachdem im Laufe der Zeit (zum Beispiel durch Lukasiewicz, Gödel, Brouwer und von<br />
Neumann) verschiedene formale Ansätze einer mehrwertigen Logik vorgeschlagen und<br />
an der Entwicklung zugehöriger logischer Systeme gearbeitet wurde [13], brachte erst<br />
<strong>die</strong> 1965 von Lofti Zadeh formulierte unscharfe Logik (Fuzzy Logic) den Durchbruch.<br />
Der Begriff unscharfe Logik selbst bezieht sich auf eine ganze Familie möglicher<br />
mehrwertiger Logiken mit einem Kontinuum von Wahrheitswerten, <strong>die</strong> sich wiederum<br />
in der Definition ihrer logischen Operatoren unterscheiden und eine Verallgemeinerung<br />
der klassischen Logik darstellen. Nach dem Vorschlag von Zadeh [15] kann jeder linguistische<br />
Wert einer linguistischen Größe durch eine unscharfe Menge (Fuzzy Set) M<br />
beschrieben werden. Er ist dann durch <strong>die</strong> beiden Angaben Grundmenge G und Zugehörigkeitsfunktion<br />
µ mathematisch eindeutig definiert. Die Zugehörigkeitsfunktion gibt <strong>für</strong><br />
jedes Element der Grundmenge G (z. B. Zahlenwerte einer Temperaturskala) <strong>die</strong> Zugehörigkeit<br />
zur Menge M (z. B. "warm") in Form eines Zahlenwerts zwischen Null und<br />
Eins an. Ist <strong>für</strong> einen bestimmten Wert <strong>die</strong> Zugehörigkeitsfunktion Eins, so trifft <strong>die</strong> den
liguistischen Wert betreffende Aussage (z.B. „es ist warm“) voll zu, ist sie dagegen<br />
Null, so ist keinerlei Übereinstimmung vorhanden.<br />
Mit Hilfe der Theorie der unscharfen Mengen gelingt <strong>die</strong> Zuordnung linguistischer Aussagen<br />
zu unscharfen Mengen. Entscheidungen, <strong>die</strong> bisher vom Menschen getroffen wurden,<br />
können mit Hilfe von Fuzzy-Methoden wirkungsvoll Rechnern übertragen werden.<br />
Mit Hilfe der Fuzzy-Technologie ist es möglich, das oft nur linguistisch verfügbare Expertenwissen<br />
<strong>für</strong> Automatisierungslösungen zu verwenden. Dies gilt <strong>für</strong> Anwendungen<br />
auf dem Gebiet der intelligenten Meßwertverarbeitung, Steuerung und Regelung sowie<br />
der Diagnose <strong>technische</strong>r Prozesse. Besondere Vorteile der Fuzzy Technologie werden<br />
sich bei der Entwicklung leistungsfähiger Expertensysteme ergeben. Diese Anwendung<br />
der künstlichen Intelligenz (KI) ist an der Modellierung durch <strong>die</strong> zweiwertige Logik gescheitert<br />
und gehört zu der „einzigen großen Enttäuschung auf dem Gebiet des Einsatzes<br />
der Digitalrechner“ [13].<br />
Da <strong>die</strong> Koppelung von Automatisierungssystemen mit den Sensoren und Aktoren eines<br />
industriellen Prozesses im allgemeinen über Analogwerte, d.h. reelle Zahlen erfolgt, hat<br />
E.H. Mamdani Transformationen zwischen den Ein- und Ausgangsgrößen des Prozesses<br />
und der Fuzzy-Welt vorgeschlagen [17]:<br />
• Die in der Fuzzifizierungsphase erfolgende „Vergröberung“ von Prozeßinformation<br />
(zum Beispiel ϑ = 22,5 °C → ϑ ist gleich warm) führt zu einer Informationsreduzierung<br />
und damit zu Entscheidungsräumen mit niedriger Dimension, so daß <strong>die</strong> effektive<br />
Ausführung komplexer Entscheidungsprozesse möglich wird.<br />
• In der Entscheidungs- oder Inferenzphase erfolgt der eigentliche Problemlösungsvorgang<br />
unter Nutzung der in der Regelbasis niedergelegten linguistisch formulierten<br />
Expertenerfahrung.<br />
• In der anschließenden Defuzzifierungsphase werden <strong>die</strong> unscharfen Ergebnisse des<br />
Entscheidungsprozesses zusammengefaßt und in <strong>die</strong> Welt der reellen Zahlen transformiert,<br />
so daß an den Prozeß wieder „scharfe“ (d.h. nichtlinguistische) Stellbefehle<br />
ausgegeben werden können.<br />
Die Auswahl, welche Informationen wie zu „vergröbern“ sind, ohne daß wesentliche<br />
Aspekte verloren gehen, setzt allerdings viel Prozeßwissen und Erfahrung voraus.<br />
Zur Beseitigung weit verbreiteter Mißverständnisse sei abschließend auf Gemeinsamkeiten<br />
und Unterschiede der Begriffe (sprachlicher) Unschärfe und Wahrscheinlichkeit<br />
hingewiesen: beide beruhen auf Abstufungen; der erste auf der Abstufung von Wahrheit,<br />
der zweite auf der Abstufung von Erwartung.
5. Neuronale Netze<br />
5.1 Informationsverarbeitung durch biologische neuronale Netze<br />
Das gesamte menschliche Nervensystem besteht aus etwa 15 bis 25 Milliarden Neuronen<br />
(Nervenzellen), von denen der größte Teil dem Zentralnervensystem zugeordnet ist.<br />
Die Neuronen sind sowohl in ein gemeinsames Ernährungs- und Erneuerungssystem <strong>als</strong><br />
auch in ein gemeinsames Informationsnetz eingebaut. Letzteres soll im folgenden betrachtet<br />
werden [3], [18].<br />
Während im Gehirn des Menschen stündlich etwa 1.000 Neuronen absterben, entstehen<br />
nach der Geburt im allgemeinen keine neuen Neuronen mehr. Allerdings gibt es Ausnahmen<br />
von <strong>die</strong>ser Regel. Erste Belege da<strong>für</strong>, daß im Zentralnervensystem ausgewachsener<br />
Säugetiere neue Nervenzellen entstehen können, stammen aus den sechziger Jahren.<br />
In den neunziger Jahren hat man dann einen entsprechenden Nachweis auch <strong>für</strong> das<br />
Gehirn des Menschen erbracht [33]. Danach bleiben Zellen des Hippocampus lebenslang<br />
teilungsfähig. Wissenschaftler der Universität Bielefeld haben kürzlich herausgefunden,<br />
daß sich bestimmte Vorläuferzellen im Gehirn der Maus durch das Medikament<br />
Haloperidol zur Teilung anregen lassen, während das Medikament Amphetamin <strong>die</strong> entgegengesetzte<br />
Wirkung ausübt. Bei längerer Anwendung begünstigt <strong>die</strong> Substanz <strong>die</strong><br />
Bildung neuer Synapsen. Hirnstrukturen befinden sich im Wechselspiel mit der Umwelt<br />
in einem ständigen Wandel, wobei im Hirn eine „Unruhe“ entsteht: es kommt offensichtlich<br />
zur Neuorganisation neuronaler Schaltkreise in mehreren Regionen im Hirn.<br />
Neuronen sind veränderte impulsübertragende Zellen, <strong>die</strong> typischerweise aus einem<br />
Zellkörper (Soma), etwa 1.000 bis 10.000 Dendriten <strong>als</strong> Eingangssignalempfänger und<br />
einem Axon zur Weiterleitung der Ausgangssignale bestehen. Über <strong>die</strong> Verzweigungen<br />
des Axons in <strong>die</strong> sogenannten Kollaterale ist ein Neuron über <strong>die</strong> Synapsen mit den<br />
Dendriten anderer Neuronen verbunden, wodurch neuronale Netze entstehen. Die in<br />
Form asynchroner Pulsfolgen auftretenden elektrischen Ausgangssignale der Neuronen<br />
werden durch verstellbare Eingangsgewichte an den Synapsen (und wahrscheinlich auch<br />
verstellbare Zeitverzögerungen) verarbeitet. Überschreitet <strong>die</strong> Summe der an den Eingängen<br />
eines Neurons anliegenden Erregungen einen gewissen Schwellwert, so breitet<br />
sich über seinen Ausgang ein elektrischer Impuls aus: das Neuron „feuert“. Dabei wird<br />
<strong>die</strong> Stärke des Impulses von der Stärke der Erregungen der Eingänge bestimmt. Wie<br />
stark ein Ausgangsimpuls wiederum auf <strong>die</strong> nachfolgenden Neuronen wirkt, hängt damit<br />
von Anzahl und Zustand der feuernden Ausgänge der verbundenen Neuronen sowie von<br />
der „Leitfähigkeit“ der Synapsen ab. Diese Leitfähigkeit nimmt zu bzw. ab, wenn <strong>die</strong><br />
Synapse häufig bzw. nur selten zur Weiterleitung von Impulsen benutzt wird.<br />
Nach der bisher gültigen Auffassung war das Gedächtnis durch <strong>die</strong> <strong>als</strong> Gewichtsfaktoren<br />
wirkenden veränderlichen Leitfähigkeiten der vielen Synapsen repräsentiert. Das Verändern<br />
der Leitfähigkeit der Synapsen je nach ihrem Gebrauch und das ständige Nachwachsen<br />
von Verbindungen zwischen Neuronen wurden <strong>als</strong> ein wesentlicher Teil des<br />
Lernprozesses bei Lebewesen angesehen.<br />
Gemäß neuerer Erkenntnisse untergliedert sich das Gedächtnis wiederum in das explizite<br />
Gedächtnis, das es ermöglicht, erlerntes Wissen über Menschen und <strong>die</strong> Welt be-
wußt abzurufen und in das implizite Gedächtnis, das unbewußter <strong>Natur</strong> ist, und den<br />
Rückgriff etwa auf erlernte motorische Fertigkeiten erlaubt (es umfaßt auch <strong>die</strong> klassische<br />
Konditionierung). Eine elementare Form impilziten Lernens ist <strong>die</strong> Sensibilisierung:<br />
ein Reiz steigert <strong>die</strong> Reaktionsbereitschaft auf schwächere, nachfolgende Ereignisse.<br />
Während <strong>die</strong> Erinnerung an einen einzelnen Reiz meist schon nach Minuten oder allenfalls<br />
Stunden abklingt, gehen wiederholte Reizungen in das Langzeitgedächtnis über.<br />
Die Sensibilisierung hält dann Tage bis Wochen an. Am Studium der Aplysia hat man<br />
festgestellt, daß das Kurzzeitgedächtnis auf der Veränderung bereits vorhandener Eiweißmoleküle<br />
beruht (eine Synthese neuer Proteine erfolgt nicht). Beim Langzeitgedächtnis<br />
wandert ein Enzym, <strong>die</strong> Protein-Kinase, in den Zellkern, aktiviert dort spezielle<br />
Eiweißstoffe, <strong>die</strong> das Ablesen genetischer Informationen ankurbeln (<strong>die</strong> sogenannten<br />
Transkriptionsfaktoren ) indem sie einen "genetischen Schalte" umlegen. Dadurch werden<br />
neue Proteine synthetisiert, <strong>die</strong> zur Konsoli<strong>die</strong>rung und schließlich zur Stabilisierung<br />
des Langszeitgedächtnisses führen. Charakteristisch da<strong>für</strong> sind strukturelle Veränderungen,<br />
zum Beispiel neu gebildete Synapsen. Um <strong>die</strong>sen wichtigen biologischen Regelkreis<br />
des Lernens gegen Störung zu sichern, ist eine molekulare Feinsicherung eingebaut:<br />
im Gegensatz zu dem das Langzeitgedächtnis fördernden Protein ist ein weiteres<br />
Protein eingebaut, welches das Ablesen unterdrückt. Das aktivierende Protein trifft im<br />
Zellkern auf das bereits im Ruhezustand gebildete hemmende Protein. Wiederholte Pulse<br />
bewirken, daß <strong>die</strong> blockierende Wirkung verlorengeht, Ohne das hemmende Protein<br />
würde schon eine einzige Anregung <strong>die</strong> Nervenzelle auf lange Zeit sensibilisieren [29].<br />
Informationstransport und Informationsverarbeitung erfolgen im Gehirn massiv parallel,<br />
diskret, analog und asynchron, <strong>als</strong>o ohne zentralen Taktgeber. Während bei primitiven<br />
Lebewesen <strong>die</strong> innere Informationsverarbeitung fast vollständig starr festgelegt ist,<br />
nehmen mit steigender Entwicklungsstufe <strong>die</strong> Möglichkeiten einer individuellen Gestaltung<br />
zu [3]: <strong>die</strong> feste „Verdrahtung“ wird ersetzt durch <strong>die</strong> Selbstorganisation während<br />
eines Lernvorgangs. Die Informationsspeicherung erfolgt ebenfalls dezentral an<br />
den Synapsen, den Kontaktstellen zwischen den Neuronen (siehe oben).<br />
Weitere wesentlichen Merkmale der neuronalen Organisation sind:<br />
• Redundanz der Bearbeitungslemente (<strong>die</strong> Beschädigung relativ weniger Neuronen hat<br />
keine spürbaren Auswirkungen auf das allgemeine Verhalten),<br />
• Anpassungsfähigkeit an vielerlei veränderliche Bedingungen.<br />
5.2 Künstliche neuronale Netze<br />
Bereits 1943 veröffentlichten der amerikanische Psychiater Warden McCulloch gemeinsam<br />
mir dem Harvard-Studenten Walter Pitts das vereinfachte Modell des menschlichen<br />
Gehirns. Die Neuronen werden dabei durch Funktionen (Rechenelemente), <strong>die</strong> Synapsen<br />
durch <strong>die</strong> Verkoppelung (Verdrahtung) der Rechenelemente zu künstlichen neuronalen<br />
Netzen (KNN) repräsentiert. Die beiden Wissenschaftler zeigten, daß zum Beispiel<br />
Netzwerke von Schwellwert-Kennlinien jede Berechnung durchführen können (Berechenbarkeitsbeweis).<br />
Das Modell von McCulloch und Pitt war jedoch noch nicht fähig<br />
zu lernen. Ein Lernalgorithmus wurde 1949 erstm<strong>als</strong> von Donald Hebb beschrieben.<br />
Hebb formulierte dazu eine Art Selbstorganisationsprozeß. Eine Synapse, <strong>die</strong> zwei Neu-
onen miteinander verbindet, wird verstärkt, wenn beide Neuronen gleichzeitig aktiv<br />
sind. Diese einfache Lernregel reicht bereits aus, um aus einer anfänglich zufälligen<br />
Verbindung Strukturen zu schaffen, <strong>die</strong> denen des menschlichen Gehirns ähnlich sind.<br />
In der Folgezeit wurde eine Vielzahl von Neuronenmodellen (Rechenelemente), Netzstrukturen<br />
und Lernverfahren vorgeschlagen. Durch <strong>die</strong> steigende Leistungsfähigkeit<br />
sowie <strong>die</strong> fallenden Kosten der Digitalrechner haben künstliche neuronale Netze eine<br />
geeignete Realisierungsbasis und in Folge ein starkes industrielles Interesse gefunden.<br />
Erste Anwendungen zeigen, daß <strong>die</strong> in <strong>die</strong>se Technologie gesteckten Erwartungen erfüllt<br />
werden [20], [21].<br />
6. Ausblick<br />
Die Hoffnung, daß <strong>die</strong> notwendigerweise interdisziplinäre Beschäftigung mit den enormen<br />
Potentialen des Systems „High <strong>Natur</strong>e“ zu zukünftigen „High Tech“-Lösungen <strong>für</strong><br />
Automatisierungssysteme führt, scheint berechtigt.<br />
Allein ein Vergleich der Speicherkapazitäten und Verarbeitungsleistungen verdeutlicht<br />
<strong>die</strong> heute noch mehr <strong>als</strong> bescheidene Leistungsfähigkeit moderner informationsverarbeitender<br />
<strong>technische</strong>r Systeme: während das Speichervermögen einer 40 MB Festplatte<br />
bei 3,27⋅10 8 Bit liegt und es erst kürzlich einer Forschergruppe der University of Minnesota<br />
gelungen ist, einen Datenspeicher mit einer Kapazität von etwa 62 Gigabit pro<br />
herzustellen, beträgt <strong>die</strong> Gedächtniskapazität des menschlichen Hirns etwa 10 14 Bit und<br />
das Speichervermögen von 1 cm 3 menschlicher DNS 10 21 Bit (Anmerkung: das in Büchern<br />
abgelegte Gesamtwissen der Menschheit wird auf 10 18 Bit geschätzt). Die tägliche<br />
Datenmenge aller Satellitenbilder liegt derzeit bei ungefähr 9⋅10 12 Bit, während <strong>die</strong> unbewußt<br />
verarbeitete Informationsmenge des Menschen pro Tag etwa 3,4⋅10 24 Bit umfaßt<br />
[19].<br />
Gegen <strong>die</strong> positive Beantwortung der grundsätzlichen Frage „Können Maschinen denken?“<br />
besteht unter anderem der mathematisch basierte Einwand, daß <strong>die</strong> Leistungsfähigkeit<br />
der mathematischen Logik und damit der auf <strong>die</strong>ser Logik aufbauenden diskreten<br />
Maschinen Grenzen hat. So zeigt das Gödelsche Theorem auf, daß sich in jedem hinreichend<br />
mächtigen logischen System Behauptungen aufstellen lassen, <strong>die</strong> innerhalb des<br />
Systems weder bewiesen noch widerlegt werden können, solange nicht das System<br />
selbst möglicherweise in sich widersprüchlich ist.<br />
Die Frage, ob der menschliche Intellekt jem<strong>als</strong> fähig sein wird, <strong>die</strong> <strong>Natur</strong> und vor allem<br />
seine eigene Funktionsweise vollständig zu verstehen (d.h. ein vollständiges Modell zu<br />
erstellen, das den Konstrukteur mit einschließt [2]), ist heute noch heftig umstritten<br />
[22]. Während Optimisten anmerken, daß man mit einer Schreibmaschine problemlos<br />
<strong>die</strong> Beschreibung einer Schreibmaschine erstellen kann und daraus schließen, daß man<br />
mit dem Hirn das Hirn verstehen kann, nimmt Emeron Pugh einen pessimistischen<br />
Standpunkt ein: „Wenn das menschliche Hirn so einfach wäre, daß wir es verstehen<br />
könnten, dann wären wir so einfach, daß wir es nicht könnten“.<br />
Eine weitere Anregung an den Wissenschaftler und Ingenieur zum Nachdenken spannt<br />
den Bogen weiter zu den Künsten:
„Es muß verstärkt zu einem Wechselspiel zwischen den Künsten und den Wissenschaften<br />
kommen. ... Die großen, kreativen Wissenschaftler haben alle nach Schönheit gestrebt.<br />
... Faradays Suche nach dem Zusammenwirken von Elektrizität und Magnetismus<br />
war durch das Verlangen ausgelöst, Symmetrie in der <strong>Natur</strong> zu finden; Es waren vor allem<br />
ästhetische Gründe, <strong>die</strong> Einstein zur Relativitätstheorie führten: ihn störten Widersprüche<br />
zwischen Newtons Mechanik und Maxwells Elektrodynamik. Um <strong>die</strong> Schönheit<br />
der Maxwellschen Gleichungen zu erhalten, änderte er Newtons Annahme, daß Zeit und<br />
Raum absolute Größen sind. Das Ästhetische kann nicht <strong>die</strong> Logik und <strong>die</strong> anschließende<br />
experimentelle Bestätigung ersetzen. Aber es hilft bei der Theorieentstehung. Der<br />
kreative Akt des Wissenschaftlers gleicht dem des Künstlers" [30].<br />
7. Literatur<br />
[1] Cuno, B.: Der Mensch im Mittelpunkt: Fuzzy und Neuro Control in der industriellen<br />
Automatisierungstechnik. Tagungsunterlagen 1. Fuldaer Elektrotechnik Kolloquium<br />
1996.<br />
[2] Papageorgiou, M.: Die Erforschung der natürlichen Intelligenz und ihre Bedeutung<br />
<strong>für</strong> <strong>die</strong> Steuerungs- und Regelungstechnik. Automatisierungstechnik at 45 (1997),<br />
Seite 49-57.<br />
[3] Oppelt, W.: Der Automat - das Denkmodell des Ingenieurs <strong>für</strong> menschliches Verhalten.<br />
Elektro<strong>technische</strong> Zeitschrift etz-a Bd. 99 (1979), Seite 105-108 (Teil 1);<br />
Seite 152-155 (Teil 2) und Seite 206-210 (Teil 3).<br />
[4] Lorenz, K.: Vergleichende Verhaltensforschung, Grundlagen der Ethnologie.<br />
Springer Verlag, Wien 1978.<br />
[5] Kahlert, J.: Vektorielle Optimierung mit Evolutionsstrategien und Anwendungen<br />
in der Regelungstechnik (Dissertation an der Universität Dortmund) Fortschr.-Ber.<br />
VDI Reihe 8, Nr.234, VDI Verlag, Düsseldorf 1991.<br />
[6] Geyer, Chr.: Wer überlebt, überlebt. Frankfurter Allgemeine Zeitung vom 04. Juni<br />
1997.<br />
[7] Goldberg, D.E.: Genetic algorithms in search, optimization and maschine learning.<br />
Addison Wesley, Reading, MA 1989.<br />
[8] Holland, J.H.: Adaption in natural and artifical systems. The University of Michigan<br />
Press, Ann Arbor, MI 1975.<br />
[9] Rechenberg, I.: Evolutionsstrategie: Optimierung <strong>technische</strong>r Systeme nach Prinzipien<br />
der biologischen Evolution. Frommann-Holzboog, Stuttgart 1973.<br />
[10] Schwefel, H.-P.: Numerische Optimierung von Computer-Modellen mittels Evolutionsstragie,<br />
Volume 26 of Interdisciplinary Systems Research. Birkhäuser, Basel<br />
1977.
[11] Bäck, Th.: Grundlagen und Anwendungen genetischer Algorithmen. 3. Anwendersymposium<br />
zu Neuro Fuzzy-Technologien, Bochum 1993.<br />
[12] Cuno, B.: Fuzzy-Control in der industriellen Automatisierungstechnik.<br />
Tagungsband SPS/ PC/ Drives. 4. Internationale Fachmesse und Kongreß <strong>für</strong> SPS,<br />
Industrie-PC und elektrische Antriebstechnik. Nov. 1993. vde-verlag, Berlin und<br />
Offenbach 1993.<br />
[13] McNeill, D. und Freiberger, P.: Fuzzy Logic - <strong>die</strong> unscharfe Logik erobert <strong>die</strong><br />
Technik. Droemersche Verlagsanstalt Th. Knaur Nachf., München 1996.<br />
[14] Zadeh, L.A.: Outline of a new approach to the analysis of complex systems and decision<br />
processes. IEEE Transactions on Systems, Man, and Cybernetics SMC-3(1),<br />
Januar 1973, Seite 28 ff.<br />
[15] Zadeh, L.A.: Fuzzy Sets. Information and Control 8 (1965), Seite 338-353.<br />
[16] Zimmermann, H.-J.: Fuzzy Set Theory and its Applications. Kluwer Academic<br />
Publishers, 2. Auflage. Boston/ Dordrecht/ London 1991.<br />
[17] Mamdani, E.H. und King, P.J.: The Application of Fuzzy Control Systems to Industrial<br />
Processes. Automatica 13 (1972), Seite 235-242.<br />
[18] Rojas, R.: Theorie der neuronalen Netze: eine systematische Einführung. Springer<br />
Verlag, Berlin, Heidelberg New York 1993.<br />
[19] Hamilton, P.: Künstliche neuronale Netze: Grundprinzipien, Hintergründe, Anwendnungen.<br />
vde-verlag gmbh. Berlin/ Offenbach 1993.<br />
[20] Eckmiller, R.: Lernfähige Neuronale Netze <strong>für</strong> Steuerungs- und Prädikationsaufgaben.<br />
3. Anwendersymposium zu Neuro-Fuzzy-Technologien vom 23. bis 25. November<br />
1993 in Bochum. ZN - Zentrum <strong>für</strong> Neuroinformatik GmbH und MIT -<br />
Management Intelligenter Technologien GmbH, Bochum und Aachen 1993.<br />
[21] Hafner, S., Geiger, H. und Kreßel, U.: Anwendungsstand Künstlicher Neuronaler<br />
Netze in der Automatisierungstechnik - Gemeinschaftsbeitrag des GMA-<br />
Ausschusses „Künstliche Neuronale Netze“, Teil 1: Einführung. Automatisierungs<strong>technische</strong><br />
Praxis atp 34 (1992), Seite 591- 599.<br />
[22] Kosko, B.: Neural Networks and Fuzzy Systems. Prentice Hall, London 1992.<br />
[23] Maar, C., Pöppel, E. und Christaller, T. (Hrsg.): Die Technik auf dem Weg zur<br />
Seele: Forschungen an der Schnittstelle Gehirn/ Computer. rororo science im Rowohlt<br />
Taschenbuch Verlag GmbH, Reinbeck bei Hamburg 1996.<br />
[24] Neumann, J. von: The Computer and the Brain. Yale University Press Inc., New<br />
Haven 1958.
[25] Hofstadter, D.R. und Dennet, D.C. (Hrsg.): Einsicht ins Ich. C.A. Koch’s Verlag<br />
Nachf., Berlin, Darmstadt, Wien 1981.<br />
[26] Baeyer, H.C.: Das All, das Nichts und Achterbahn - Physik und Grenzerfahrungen.<br />
Rowohlt Taschenbuch Verlag GmbH, Reinbeck bei Hamburg 1997.<br />
[27] Baeyer, H.C.:Fermis Weg: Was <strong>die</strong> <strong>Natur</strong>wissenschaft mit der <strong>Natur</strong> macht. Clausen<br />
& Bosse, Leck 1994.<br />
[28]Hobom, B.: Gendiagnostik weit überschätzt - Zusammenspiel der Erbanlagen kaum<br />
durchschaubar / Gefahr des Mißbrauchs. Frankfurter Allgemeine Zeitung vom<br />
12.08.1998.<br />
[29]Wandtner, R.: Lernen im Schneckentempo - Aplysia - ein Lieblingstier der Hirnforscher<br />
/ Einblicke in <strong>die</strong> Molekulargenetik des Gedächtnisees. Frankfurter Allgemeine<br />
Zeitung vom 01.04.1998.<br />
[30]Fischer, E.P.: Das Schöne und das Biest: Ästhetische Momente in der Wissenschaft.<br />
Piper, München 1996<br />
[31]Martin, K.: Das phonetische Modul und <strong>die</strong> Gesten des Mundes - Warum Schreiben<br />
schwerer ist <strong>als</strong> Reden. Frankfurter Allgemeine Zeitung vom 19.08.1998.<br />
[32] Liberman, A.M.: When theories of speech meet the real world. Journal of Psycholinguitsic<br />
Research, Bd. 27, Heft 2, 1998.<br />
[33] Wandtner, R.: Wachstumsschub <strong>für</strong> Nervenzellen - Medikament gegen Psychosen<br />
sorgt <strong>für</strong> Neubildung im Mäusehirn. Frankfurter Allgemeine Zeitung vom<br />
22.07.1998.