09.11.2012 Aufrufe

Computational Intelligence: die Natur als Vorbild für technische ...

Computational Intelligence: die Natur als Vorbild für technische ...

Computational Intelligence: die Natur als Vorbild für technische ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Computational</strong> <strong>Intelligence</strong>: <strong>die</strong> <strong>Natur</strong> <strong>als</strong> <strong>Vorbild</strong> <strong>für</strong><br />

<strong>technische</strong> Automatisierungslösungen<br />

1. Einführung<br />

Prof. Dr.-Ing. Bernd Cuno<br />

Fachhochschule Fulda, Fachbereich Elektrotechnik<br />

Marquardstraße 35, 36039 Fulda<br />

Email: Bernd.Cuno@et.fh-fulda.de<br />

1.1 Aktuelle Probleme der Automatisierungstechnik<br />

Die Erweiterung des Anwendungsspektrums der Automatisierungstechnik, wirtschaftliche<br />

Zwänge sowie technologische und umwelt<strong>technische</strong> Gründe führen seit Jahren zu<br />

einer anwachsenden Komplexität der Prozesse sowie zu steigenden Anforderungen an<br />

deren Automatisierung. Konventionelle Verfahren der Automatisierungstechnik können<br />

in vielen Fällen - auch bei sorgfältiger Parametrierung - <strong>die</strong>se Anforderungen nicht<br />

mehr erfüllen [1]. Die tiefergehende Analyse zeigt, daß Probleme besonders bei Automatisierungsaufgaben<br />

auftreten, <strong>die</strong> folgende wesentliche Eigenschaften aufweisen:<br />

• hohe Komplexität, gekennzeichnet durch nichtlineares Verhalten und hohe Systemordnung,<br />

• Anfall großer - einerseits unvollständiger, andererseits stark redundanter - Datenmengen,<br />

• unpräzises, unvollständiges und schwer strukturierbares Prozeßwissen sowie<br />

• hohe Echzeitanforderungen.<br />

Während hinsichtlich der Lösung <strong>die</strong>ser Probleme <strong>die</strong> theoretischen und praktischen<br />

Grundlagen der konventionellen Automatisierungstechnik oftm<strong>als</strong> versagen, bewältigen<br />

das menschliche Hirn und selbst einfache biologische Systeme derartige Probleme teilweise<br />

mühelos. Bis heute gelingt es nicht, ein autonomes Fahrzeug zu entwerfen, das<br />

nur annähernd <strong>die</strong> Effizienz und Eleganz einfachen tierischen Verhaltens besitzt [2].<br />

„Einfache“ Erkennungsvorgänge, wie das Wiedererkennen eines Gesichts „auf den ersten<br />

Blick“, das Zurechtfinden im Gelände oder auch das Verstehen von undeutlicher<br />

Sprache erledigt das Gehirn in Sekundenbruchteilen, während <strong>technische</strong> Einrichtungen<br />

an <strong>die</strong>sen Aufgaben noch scheitern. In den letzten Jahren wurde es immer augenscheinlicher,<br />

daß <strong>die</strong> alleinige Weiterentwicklung der konventionellen Automatisierungsverfahren<br />

nicht ausreicht, um den wachsenden Anforderungen des Marktes zu genügen.


1.2 Suche nach neuen Problemlösungen: <strong>die</strong> <strong>Natur</strong> <strong>als</strong> <strong>Vorbild</strong><br />

Die logische Konsequenz der oben dargestellten Erkenntnisse scheint deshalb zu sein,<br />

<strong>die</strong> Strategie zu kopieren, welche <strong>die</strong> <strong>Natur</strong> offensichtlich erfolgreich benutzt, um solche<br />

schwierigen Aufgaben zu lösen. Da <strong>die</strong> <strong>Natur</strong> im Vergleich zur Technik gigantische Leistungen<br />

vollbringt, steht hier ein unerschöpfliches Ideenpotential zur Verfügung. Im Erfolgsfall<br />

könnte der Einsatz naturbasierter, d.h. am <strong>Vorbild</strong> der <strong>Natur</strong> orientierter Verfahren<br />

zu einer erheblichen Leistungssteigerung der Automatisierungstechnik beitragen.<br />

Daher <strong>die</strong> Motivation zur Beschäftigung mit dem Thema: High Tech lernt von High<br />

<strong>Natur</strong>e.<br />

Obwohl <strong>die</strong> Funktionsweise der betreffenden Prinzipien der <strong>Natur</strong> bisher nur bruchstückhaft<br />

bekannt ist, werden bereits seit einigen Jahren Versuche unternommen, <strong>die</strong>se<br />

in Automatisierungskonzepte umzusetzen. Über entsprechende Anwendungen wird in<br />

fachlich orientierten sowie populärwissenschaftlichen Veröffentlichungen unter folgenden<br />

Schlagzeilen - meist euphorisch - berichtet:<br />

/ Die Biologie hilft der Informatik auf <strong>die</strong> Sprünge / Den Fähigkeiten des menschlichen<br />

Gehirns auf der Spur / Chips mit Grips - autonome Roboter helfen das Gehirn zu verstehen<br />

/ Fuzzy Logik - näher zur <strong>Natur</strong> ? / Software züchten, statt sie zu schreiben / Fuzzy<br />

Logic - Computing with words ? / Neuronale Netze - Zukunftsmusik oder Realität ? /<br />

Gehirn und Gespinste: Mensch, Maschine - Kopfgeburten / Gehirnzellen auf einem<br />

Chip / Computer lernen denken /.<br />

Im folgenden sollen <strong>die</strong> Ursprünge der naturbasierten Verfahren kurz dargestellt und erste<br />

Erfolge, aber auch deren enorme bisher noch ungenutzte Potentiale aufgezeigt werden.<br />

Dadurch sollen Forscher, aber auch Entwickler und Anwender der industriellen<br />

Automatisierungstechnik <strong>für</strong> <strong>die</strong>ses <strong>für</strong> <strong>die</strong> zukünftige Wettbewerbsfähigkeit der Industrie<br />

bedeutende Thema sensibilisiert und zur innovativen Umsetzung ermuntert werden.<br />

Auch wenn <strong>die</strong> vorliegende Darstellung teilweise <strong>die</strong> gewohnte rein <strong>technische</strong> Ebene<br />

verläßt und <strong>für</strong> den Anwender einen teilweise noch futuristischen Aspekt aufweist, gilt<br />

es zu bedenken, daß „<strong>für</strong> <strong>die</strong> Praxisnähe von übermorgen <strong>die</strong> sogenannte Praxisferne<br />

von heute ein notwendiger Preis ist“ (Erich Staudt, Professor am Institut <strong>für</strong> Arbeitswissenschaft<br />

der Ruhr-Universität Bochum).<br />

Voraussetzung <strong>für</strong> eine erfolgreiche Arbeit auf dem Gebiet der naturbasierten Automatisierungsverfahren<br />

ist <strong>die</strong> fachübergreifende Betrachtung. Andererseits leisten das theoretische<br />

Gebäude sowie <strong>die</strong> Methoden der inzwischen zur Systemwissenschaft ausgebauten<br />

Regelungstechnik einen wesentlichen Beitrag auf dem Gebiet der Erforschung<br />

der natürlichen Intelligenz (Kognitionswissenschaft) sowie der Evolution. Hier arbeiten<br />

mittlerweile Biologie, Medizin, Mathematik, Informatik, aber auch Philosophie, Psychologie,<br />

Linguistik und verschiedene Ingenieurwissenschaften interdisziplinär zusammen.<br />

Zu einer Verstärkung der interdisziplinären Arbeit sowie zum Abbau von Hemmschwellen<br />

soll folgendes Zitat von Antoine de Saint-Exupery ermuntern:<br />

„Die Maschine trennt den Menschen nicht von den großen Dingen der <strong>Natur</strong>, sondern<br />

wirft ihn noch tiefer in sie hinein.“<br />

Das angefügte Literaturverzeichnis soll den Leser zum weiteren vertiefenden Studium<br />

anregen.


2. Das Prinzip der Regelung<br />

2.1 Gemeinsamkeiten biologischer und <strong>technische</strong>r Regelungen<br />

Das Prinzip der Regelung wurde von der Evolution bereits Milliarden von Jahren vor<br />

den Regelungstechnikern „erfunden“. Gemeinsame Merkmale von biologischen und<br />

<strong>technische</strong>n Regelungssystemen [2], [3] sind<br />

• Informationsfluß innerhalb des Regelkreises,<br />

• rückwirkungsfreie Regelkreiselemente und<br />

• das Konzept der negativen Rückkoppelung.<br />

Im Unterschied zu <strong>technische</strong>n Regelungen sind biologische Regelungen allerdings<br />

höchst komplexe Mehrgrößensysteme, <strong>die</strong> oft Millionen von elementaren Ein- und Ausgängen<br />

enthalten. Einer Regelaufgabe sind oft unterschiedliche Stellgliedtypen zugeordnet,<br />

während ein und dasselbe Stellglied wiederum (mit meist variabler Priorität) verschiedenen<br />

Regelaufgaben <strong>die</strong>nt.<br />

2.2 Regeln und Lernen<br />

Ohne <strong>die</strong> Fähikeit, zu lernen und das erworbene Wissen zu speichern, wären der Mensch<br />

aber auch selbst <strong>die</strong> einfachsten Tiere, hilflos. Lernen umfaßt jene Abläufe, bei denen<br />

Informationen über <strong>die</strong> Welt erworben werden, und Gedächtnis steht <strong>für</strong> den Prozeß, mit<br />

dessen Hilfe das Wissen abrufbar gespeichert wird.<br />

Den Vorgang des natürlichen Lernens beschreibt Konrad Lorenz <strong>als</strong> Beispiel eines Regelkreises<br />

[4]. Er bemerkt, daß durch den Übergang vom Steuer- zum Regelprinzip<br />

„völlig neue Systemeigenschaften des nervlichen Apparates entstanden sind“. Ein Leben<br />

ohne das Prinzip des Regelns ist offensichtlich nur in einem „Milieu von unvorstellbar<br />

großer Konstanz“ (zum Beispiel im Wasser bzw. in der "Ursuppe") möglich. Den meisten<br />

Lernvorgängen gemeinsam ist <strong>die</strong> Rückkoppelungsschleife, bestehend aus: Wahrnehmung<br />

des realen Umfelds, Wiedererkennen von wiederholt auftretenden Situationsmerkmalen,<br />

Evaluierung (Korrelation zwischen angewandten Verhaltensweisen und ihrem<br />

Nutzen bzw. Schaden), Verallgemeinerung oder Abstraktion der Erkenntnis, entsprechende<br />

Verhaltensänderung, veränderte Wirkung auf das Umfeld [2].<br />

2.3 Lernen und Simulation<br />

Eine wichtige Fähigkeit des Menschen besteht in der Simulation. Bevor wir eine<br />

Handlung konkret ausführen, simulieren wir sie gewöhnlich mit Hilfe unserer Vorstellungskraft.<br />

Wir können so <strong>die</strong> möglichen Auswirkungen der Handlung analysieren und<br />

entscheiden, ob wir sie wie geplant durchführen, sie ändern oder auf sie verzichten<br />

wollen. Durch Einsatz der Simulation braucht der Mensch nicht den Preis zu zahlen, der<br />

mit den unvermeidlichen Fehlern verknüpft ist oder um mit Karl Popper zu sprechen:<br />

„Die Simulation ermöglicht es, daß nicht wir, sondern unsere Hypothesen sterben“


Die heute fast ausschließlich auf Digitalrechnern durchgeführte wissenschaftliche bzw.<br />

<strong>technische</strong> Simulation hat mittlerweile alle Gebiete der <strong>Natur</strong>wissenschaft und der<br />

Technik erfaßt und ist in manchen Bereichen so erfolgreich, daß man gänzlich auf das<br />

Experiment verzichten kann. In anderen Bereichen ist sie der einzige Zugang zur Erfassung<br />

genauer Abläufe, weil entsprechende Experimente nicht durchgeführt werden können.<br />

Wesentliche Anwendungsgebiete der Simulation in der Automatisierungstechnik<br />

sind:<br />

• Einsatz von Echtzeitsimulatoren zur Schulung,<br />

• Prozeßbeobachtung und Diagnose,<br />

• Simulationsgestützte Prognose und<br />

• Adaptive Regler.<br />

Durch das vertiefte Studium biologischer Regelkreise können voraussichtlich noch viele<br />

wertvolle Lösungsideen <strong>für</strong> komplexe <strong>technische</strong> Regelaufgaben auf dem Gebiet der<br />

lernenden, adaptiven oder autonomen Systeme gewonnen werden.<br />

3. Evolution<br />

Das von Gregor Johann Mendel (1822-1884) aufgestellte dritte Vererbungsgesetz, das<br />

Gesetz der freien Rekombination des Erbguts, besagt, daß das Erbgut zumindest prinzipiell<br />

in allen möglichen Kombinationen neu zusammengestellt werden kann. Ferner<br />

hatte Mendel erkannt, daß sich das Erbgut aus bestimmten, diskreten Einheiten zusammensetzt.<br />

Wir wissen heute, daß <strong>die</strong>se wie folgt aufgebaut sind: <strong>die</strong> im Zellkern befindlichen<br />

Chromosomen enthalten <strong>die</strong> langgestreckten Moleküle der Desoxyribonukleinsäure<br />

(DNS), <strong>die</strong> wiederum aus vier Nukleotiden, den Basen Adenin, Guanin, Cytosin<br />

und Thymin besteht. Diese bilden das genetische Alphabet, ihre jeweilige Reihenfolge in<br />

der DNS <strong>die</strong> genetische Information in Form des genetischen Codes. Die kleinste Erbeinheit,<br />

das Gen, setzt sich typischerweise aus etwa 1000 Nukleotiden zusammen. Der<br />

genetische Code stellt beim Aufbau der Lebewesen <strong>die</strong> Information zur Eiweiß- oder<br />

Proteinsynthese bereit. Er ist hochgradig redundant ausgelegt und in der <strong>Natur</strong> universell<br />

gültig: alle Organismen übersetzten <strong>die</strong> Basensequenzen in der gleichen Weise. Je drei<br />

aufeinanderfolgende Nukleotide co<strong>die</strong>ren eine Aminosäure. Insgesamt sind dabei 4 3 =<br />

64 Kombinationen möglich. Da nur 20 verschiedene Aminosäuren existieren, ist der<br />

Code <strong>als</strong>o mehrdeutig und somit redundant ausgelegt. Die Reihenfolge der Aminosäuren<br />

bestimmt <strong>die</strong> Grundstruktur der Proteinmoleküle und damit in letzter Instanz den Aufbau<br />

der Zellen und somit des gesamten Organismus [5].<br />

Als zu Beginn <strong>die</strong>ses Jahrhunderts <strong>die</strong> Vererbungsgesetze Mendels wiederentdeckt wurden,<br />

war man davon überzeugt, daß ein Gen zwangsläufig ein bestimmtes Merkmal<br />

festlegt. Diese Vorstellunmg wurde nach dem zweiten Weltkrieg von der Überzeugung<br />

abgelöst, daß <strong>die</strong> Gene nur einen gewissen Rahmen bstimmen, <strong>die</strong> eigentlich formende<br />

Kraft aber <strong>die</strong> Umwelt sei. In den sechziger Jahren begann sich dann allmählich wieder<br />

<strong>die</strong> Meinung durchzusetzen, daß <strong>die</strong> Gene und nicht <strong>die</strong> Umwelt <strong>die</strong> wichtigste Rolle bei<br />

der Entwicklung eines Individuums spielen.


Daß der Mensch mehr ist <strong>als</strong> <strong>die</strong> Summe seiner Gene, wird heute von den Wissenschaftlern<br />

nicht mehr angezweifelt. Tatsächlich wird jede Eigenschaft, Verhalten und<br />

Intelligenz eingeschlossen, durch ein komplexes Zusammenspiel der Gene (mit einem<br />

hohen Grad an Vernetzung) bestimmt. Selbst bei (monogenen) Erbkrankheiten, <strong>die</strong> bisher<br />

auf einen Fehler in nur einer Erbanlage zurückgeführt wurden, können offenbar Regelkreise<br />

unüberschaubar ineinandergreifen [28].<br />

Alle Eigenschaften lebender Organismen, wie Anatomie, Nervensystem, Sinne, Gefühle,<br />

Bewußtsein sind Ergebnisse der biologischen Evolution. Gemäß der von Charles<br />

Darwin (1809-1882) im Jahre 1859 begründeten Evolutionstheorie beruht der von der<br />

Evolution durchgeführte Suchprozeß auf drei einfachen Prinzipien:<br />

• der zufälligen Mutation des genetischen Materi<strong>als</strong> (Erbgut),<br />

• der Fortpflanzung durch Reduplikation (identische Teilung) bzw. Rekombination<br />

(Crossover) der Erbinformation und<br />

• der Selektion aufgrund der Tauglichkeit eines Individuums (survival of the fittest).<br />

Die <strong>für</strong> den Ingenieur erstaunlichsten Eigenschaften der Evolution sind <strong>die</strong> relative Einfachheit<br />

ihrer Vorgehensweise und das Zusammenwirken verschiedener Steuerungsmechanismen.<br />

Der von Darwin geprägte Begriff der Fitneß eines Lebewesens setzt sich aus einer Vielzahl<br />

verschiedener Eigenschaften zusammen. Er ist eine Variable, <strong>die</strong> sich über den<br />

Fortpflanzungserfolg unter den jeweiligen Selektionsbedingungen definiert. Die Evolution<br />

führt zu Organismen mit spezifischen Eigenschaften, <strong>die</strong> eine vorläufig stabile<br />

Wechselwirkung mit ihrer Umgebung erlauben. Eine Veränderung oder Erweiterung der<br />

Eigenschaften eines Organismus kann sich entweder <strong>als</strong> fatal erweisen und somit mit<br />

dem veränderten Organismus verschwinden oder sie erweist sich <strong>als</strong> vorteilhaft im<br />

Wettbewerb um begrenzte Ressourcen und führt zu einer erweiterten Art mit entsprechend<br />

erweiterten Eigenschaften, d.h. zu einem neuen, vorläufig stabilen Gleichgewicht.<br />

Trotz des positiv klingenden Begriffs Evolution muß festgestellt werden, daß im Laufe<br />

der Evolution nicht alle Wege „aufwärts“ zu komplexeren und intelligenteren Lebewesen,<br />

sondern viele „abwärts“, zu rückgebildeten vereinfachten Formen geführt haben<br />

[6].<br />

Der praktische Wert der Evolutionstheorie <strong>für</strong> <strong>die</strong> Automatisierungstheorie besteht aktuell<br />

darin, daß sie einerseits darüber aufklärt, wie natürliche Intelligenz entstand und<br />

andererseits <strong>die</strong> wissenschaftliche Basis <strong>für</strong> Konzepte des künstlichen Lebens bildet. Erfolgreiche<br />

Anwendungen sind <strong>die</strong> genetischen Algorithmen ([7] und [8]) sowie <strong>die</strong><br />

Evolutionsstrategien ([9] und [10]), <strong>die</strong> am weitesten verbreiteten Vertreter einer Klasse<br />

direkter stochastischer Optimierungsverfahren. Diese Algorithmen benutzen der Rekombination,<br />

Mutation und Selektion nachempfundene genetische Operatoren zur qualitativen<br />

Höherentwicklung einer Population von Lösungskandidaten <strong>für</strong> ein gegebenes<br />

Optimierungsproblem. Ihr Potential zum Auffinden guter Näherungslösungen selbst <strong>für</strong><br />

schwierige multimodale Optimierungsaufgaben wurde inzwischen in einer Vielzahl von<br />

Anwendungen demonstriert [11].


In beinahe allen Bereichen unserer Umwelt finden sich geniale Schöpfungen der <strong>Natur</strong>.<br />

Wenn es uns gelängem, besser zu verstehen, wie <strong>die</strong> <strong>Natur</strong> ihre Produkte hervorbringt<br />

und an ihre Umwelt anpaßt, so könnten wir versuchen, <strong>die</strong>se Prozesse nachzubilden und<br />

ebenfalls bessere, umweltverträglichere, biologisch abbaubare, energiesparende und in<br />

vielerlei Hinsicht optimierte Produkte erzeugen [12].<br />

4. Sprache und Logik<br />

Die in dem Zeitraum vor rund 300.000 bis 20.000 Jahren entstandene menschliche<br />

Sprache zählt zu den herausragenden Eigenschaften des Menschen. Mit der Entwicklung<br />

der Sprache hat sich das Gehirn stark weiterentwickelt. Das Wesentliche der Sprachfähigkeit<br />

besteht darin, Dinge oder Handlungen zu verallgemeinern, d.h. einer Klasse zuzuordnen<br />

und durch ein Symbol zu benennen. Sprache beinhaltet somit ein hochdifferenziertes<br />

Vermögen zur Klassenbildung. Menschliche Entscheidungen basieren wiederum<br />

auf Aussagen mit sprachlicher Vagheit und evidenzmäßiger Unsicherheit.<br />

Die Vielfältigkeit der menschlichen Sprachen beweist, daß nichts an ihnen absolut und<br />

notwendig ist. Ebenso kann man annehmen, daß Logik und Mathematik historische, zufällige<br />

Ausdrucksformen sind, <strong>die</strong> auch in anderen <strong>als</strong> den uns bekannten Formen existieren<br />

können [24].<br />

Sprechen lernen <strong>die</strong> Menschen von selbst, Schreiben und Lesen muß man ihnen mühsam<br />

beibringen und es wird nicht von allen beherrscht. Dies bedeutet, daß Schreiben<br />

und Lesen nicht zur biologischen Grundausstattung des Menschen gehört, während<br />

Sprechen dem Menschen so natürlich ist wie Gehen ist.; es hat seine biologische<br />

Grundlage in einem „phonetischen Modul“, durch das gesprochene Sprache ohne Umweg<br />

einer inneren Übersetzung produziert und rezipiert wird. Das phonetische Modul<br />

bringt mittels motorischer Muster „phonetische Gesten“, <strong>die</strong> Grundbausteine der gesprochenen<br />

Sprache, hervor. Ähnlich werden sprachliche Laute, <strong>die</strong> gehört werden, verarbeitet.<br />

Die Organe, <strong>die</strong> mit Lesen und Schreiben zu tun haben, sind weit besser <strong>für</strong> ihre Aufgabe<br />

geeignet <strong>als</strong> <strong>die</strong>jenigen, <strong>die</strong> <strong>für</strong> das Sprechen und Hören zuständig sind: ein geschriebener<br />

oder gedruckter Text kann vom Auge sehr viel präziser wahrgenommen werden<br />

<strong>als</strong> eine Lautfolge durch das Ohr und <strong>die</strong> Hand kann genauer Buchstaben zeichnen <strong>als</strong><br />

<strong>die</strong> Zunge <strong>die</strong> entsprechenden Laute formen [31], [32].<br />

Die klassische Modellierung menschlicher Entscheidungen (d.h. des logisch analytischen<br />

Teils des menschlichen Verstands) ist wesentlich durch <strong>die</strong> Kategorienlehre und<br />

<strong>die</strong> Lehre von den logischen Schlüssen und Beweisen des Aristoteles (384-322 v. Chr.)<br />

geprägt. Dieser ging von folgenden Axiomen aus:<br />

• Satz vom Widerspruch: A kann nicht zugleich B und Nicht-B sein („... denn es ist<br />

nicht möglich, daß dasselbe demselben in derselben Beziehung zugleich zukomme<br />

und nicht zukomme“)<br />

• Satz vom ausgeschlossenen Dritten: A muß entweder B oder Nicht-B sein („denn zu<br />

behaupten das Seiende sei nicht oder das Nichtseiende sei, ist f<strong>als</strong>ch“).


Während der Satz vom Widerspruch einer Aussage verbietet, zugleich wahr und nicht<br />

wahr zu sein, verbietet es der Satz vom ausgeschlossenen Dritten einer Aussage, etwas<br />

anderes <strong>als</strong> wahr oder nicht wahr zu sein. Als Folge ist <strong>die</strong> klassische Logik gezwungen,<br />

jede Aussage so zu „runden“, daß sie entweder wahr oder f<strong>als</strong>ch ist. Obwohl viele Behauptungen<br />

des Aristoteles auf dem Gebiet der <strong>Natur</strong>wissenschaften im Laufe der Zeit<br />

widerlegt wurden und er selbst in späteren Werken in Frage gestellt hatte, ob alle formulierbaren<br />

Aussagen einzig und allein mit den Wahrheitswerten wahr oder f<strong>als</strong>ch belegt<br />

werden können („Einer der annimmt, daß 4 und 5 gleich seien, liegt immer noch<br />

richtiger, <strong>als</strong> der, der 4 und 1000 gleichsetzt“ aus Methaphysik), wurde <strong>die</strong> Modellierung<br />

der menschlichen Wissensverarbeitung durch <strong>die</strong> klassische Logik über zwei Jahrtausende<br />

beibehalten [13].<br />

Die mathematische Basis der klassischen Logik ist durch <strong>die</strong> Aussagenlogik gegeben,<br />

<strong>die</strong> neben der Mengenalgebra und der Verknüpfungslogik zu den Modellen der Boolschen<br />

Algebra zählt. Da alle Modelle der Boolschen Algebra deren Axiome erfüllen und<br />

<strong>die</strong> gleiche algebraische Struktur besitzen, können <strong>die</strong> bestehenden Analogien zur Problemlösung<br />

ausgenutzt werden. Dies bedeutet, daß Probleme der Aussagenlogik mit<br />

Hilfe der Mengenalgebra gelöst werden können (so entspricht zum Beispiel einer logischen<br />

UND-Verknüpfung der Aussagenlogik <strong>die</strong> Bildung des Durchschnitts in der Mengenalgebra)<br />

[12]. Aufgrund der groben Vereinfachung auf <strong>die</strong> zweiwertige Wahr/<br />

F<strong>als</strong>ch-Aussage liefert <strong>die</strong> klassische Aussagenlogik in vielen Fällen ein ungenügendes<br />

Modell der menschlichen Wissensverarbeitung. Dies trifft besonders bei komplexen<br />

Sachverhalten zu. Sowohl <strong>die</strong> Lingusitik <strong>als</strong> auch <strong>die</strong> Philosophie gelangten zu der Erkenntnis,<br />

daß einfache Konzepte eher präzise sind <strong>als</strong> komplexe, <strong>die</strong> zu Unbestimmtheiten<br />

ten<strong>die</strong>ren: „Je umfassender <strong>die</strong> Bedeutungsfelder eines Begriffs sind, je weitreichender<br />

<strong>die</strong> Aussagen und Konsequenzen (A. Cornelius Benjamin) [13]. Lofti Zadeh<br />

formulierte das Gesetz der Unvereinbarkeit: „Wenn <strong>die</strong> Komplexität eines Systems ansteigt,<br />

verlieren präzise Aussagen an Sinn und sinnvolle Aussagen an Präzision“ oder<br />

„wenn <strong>die</strong> Komplexität eines Systems zunimmt, wird unsere Fähigkeit, präzise und<br />

dennoch signifikante Aussagen über <strong>die</strong>ses System zu machen, entsprechend geringer,<br />

bis eine Grenze erreicht wird, von der an Präzision und Signifikanz (oder Relevanz) zu<br />

sich gegenseitig ausschließenden Merkmalen werden“ [14]. Auch bei der Automatisierung<br />

komplexer Prozesse führte <strong>die</strong> Anwendung der klassischen Logik zu erheblichen<br />

Problemen.<br />

Nachdem im Laufe der Zeit (zum Beispiel durch Lukasiewicz, Gödel, Brouwer und von<br />

Neumann) verschiedene formale Ansätze einer mehrwertigen Logik vorgeschlagen und<br />

an der Entwicklung zugehöriger logischer Systeme gearbeitet wurde [13], brachte erst<br />

<strong>die</strong> 1965 von Lofti Zadeh formulierte unscharfe Logik (Fuzzy Logic) den Durchbruch.<br />

Der Begriff unscharfe Logik selbst bezieht sich auf eine ganze Familie möglicher<br />

mehrwertiger Logiken mit einem Kontinuum von Wahrheitswerten, <strong>die</strong> sich wiederum<br />

in der Definition ihrer logischen Operatoren unterscheiden und eine Verallgemeinerung<br />

der klassischen Logik darstellen. Nach dem Vorschlag von Zadeh [15] kann jeder linguistische<br />

Wert einer linguistischen Größe durch eine unscharfe Menge (Fuzzy Set) M<br />

beschrieben werden. Er ist dann durch <strong>die</strong> beiden Angaben Grundmenge G und Zugehörigkeitsfunktion<br />

µ mathematisch eindeutig definiert. Die Zugehörigkeitsfunktion gibt <strong>für</strong><br />

jedes Element der Grundmenge G (z. B. Zahlenwerte einer Temperaturskala) <strong>die</strong> Zugehörigkeit<br />

zur Menge M (z. B. "warm") in Form eines Zahlenwerts zwischen Null und<br />

Eins an. Ist <strong>für</strong> einen bestimmten Wert <strong>die</strong> Zugehörigkeitsfunktion Eins, so trifft <strong>die</strong> den


liguistischen Wert betreffende Aussage (z.B. „es ist warm“) voll zu, ist sie dagegen<br />

Null, so ist keinerlei Übereinstimmung vorhanden.<br />

Mit Hilfe der Theorie der unscharfen Mengen gelingt <strong>die</strong> Zuordnung linguistischer Aussagen<br />

zu unscharfen Mengen. Entscheidungen, <strong>die</strong> bisher vom Menschen getroffen wurden,<br />

können mit Hilfe von Fuzzy-Methoden wirkungsvoll Rechnern übertragen werden.<br />

Mit Hilfe der Fuzzy-Technologie ist es möglich, das oft nur linguistisch verfügbare Expertenwissen<br />

<strong>für</strong> Automatisierungslösungen zu verwenden. Dies gilt <strong>für</strong> Anwendungen<br />

auf dem Gebiet der intelligenten Meßwertverarbeitung, Steuerung und Regelung sowie<br />

der Diagnose <strong>technische</strong>r Prozesse. Besondere Vorteile der Fuzzy Technologie werden<br />

sich bei der Entwicklung leistungsfähiger Expertensysteme ergeben. Diese Anwendung<br />

der künstlichen Intelligenz (KI) ist an der Modellierung durch <strong>die</strong> zweiwertige Logik gescheitert<br />

und gehört zu der „einzigen großen Enttäuschung auf dem Gebiet des Einsatzes<br />

der Digitalrechner“ [13].<br />

Da <strong>die</strong> Koppelung von Automatisierungssystemen mit den Sensoren und Aktoren eines<br />

industriellen Prozesses im allgemeinen über Analogwerte, d.h. reelle Zahlen erfolgt, hat<br />

E.H. Mamdani Transformationen zwischen den Ein- und Ausgangsgrößen des Prozesses<br />

und der Fuzzy-Welt vorgeschlagen [17]:<br />

• Die in der Fuzzifizierungsphase erfolgende „Vergröberung“ von Prozeßinformation<br />

(zum Beispiel ϑ = 22,5 °C → ϑ ist gleich warm) führt zu einer Informationsreduzierung<br />

und damit zu Entscheidungsräumen mit niedriger Dimension, so daß <strong>die</strong> effektive<br />

Ausführung komplexer Entscheidungsprozesse möglich wird.<br />

• In der Entscheidungs- oder Inferenzphase erfolgt der eigentliche Problemlösungsvorgang<br />

unter Nutzung der in der Regelbasis niedergelegten linguistisch formulierten<br />

Expertenerfahrung.<br />

• In der anschließenden Defuzzifierungsphase werden <strong>die</strong> unscharfen Ergebnisse des<br />

Entscheidungsprozesses zusammengefaßt und in <strong>die</strong> Welt der reellen Zahlen transformiert,<br />

so daß an den Prozeß wieder „scharfe“ (d.h. nichtlinguistische) Stellbefehle<br />

ausgegeben werden können.<br />

Die Auswahl, welche Informationen wie zu „vergröbern“ sind, ohne daß wesentliche<br />

Aspekte verloren gehen, setzt allerdings viel Prozeßwissen und Erfahrung voraus.<br />

Zur Beseitigung weit verbreiteter Mißverständnisse sei abschließend auf Gemeinsamkeiten<br />

und Unterschiede der Begriffe (sprachlicher) Unschärfe und Wahrscheinlichkeit<br />

hingewiesen: beide beruhen auf Abstufungen; der erste auf der Abstufung von Wahrheit,<br />

der zweite auf der Abstufung von Erwartung.


5. Neuronale Netze<br />

5.1 Informationsverarbeitung durch biologische neuronale Netze<br />

Das gesamte menschliche Nervensystem besteht aus etwa 15 bis 25 Milliarden Neuronen<br />

(Nervenzellen), von denen der größte Teil dem Zentralnervensystem zugeordnet ist.<br />

Die Neuronen sind sowohl in ein gemeinsames Ernährungs- und Erneuerungssystem <strong>als</strong><br />

auch in ein gemeinsames Informationsnetz eingebaut. Letzteres soll im folgenden betrachtet<br />

werden [3], [18].<br />

Während im Gehirn des Menschen stündlich etwa 1.000 Neuronen absterben, entstehen<br />

nach der Geburt im allgemeinen keine neuen Neuronen mehr. Allerdings gibt es Ausnahmen<br />

von <strong>die</strong>ser Regel. Erste Belege da<strong>für</strong>, daß im Zentralnervensystem ausgewachsener<br />

Säugetiere neue Nervenzellen entstehen können, stammen aus den sechziger Jahren.<br />

In den neunziger Jahren hat man dann einen entsprechenden Nachweis auch <strong>für</strong> das<br />

Gehirn des Menschen erbracht [33]. Danach bleiben Zellen des Hippocampus lebenslang<br />

teilungsfähig. Wissenschaftler der Universität Bielefeld haben kürzlich herausgefunden,<br />

daß sich bestimmte Vorläuferzellen im Gehirn der Maus durch das Medikament<br />

Haloperidol zur Teilung anregen lassen, während das Medikament Amphetamin <strong>die</strong> entgegengesetzte<br />

Wirkung ausübt. Bei längerer Anwendung begünstigt <strong>die</strong> Substanz <strong>die</strong><br />

Bildung neuer Synapsen. Hirnstrukturen befinden sich im Wechselspiel mit der Umwelt<br />

in einem ständigen Wandel, wobei im Hirn eine „Unruhe“ entsteht: es kommt offensichtlich<br />

zur Neuorganisation neuronaler Schaltkreise in mehreren Regionen im Hirn.<br />

Neuronen sind veränderte impulsübertragende Zellen, <strong>die</strong> typischerweise aus einem<br />

Zellkörper (Soma), etwa 1.000 bis 10.000 Dendriten <strong>als</strong> Eingangssignalempfänger und<br />

einem Axon zur Weiterleitung der Ausgangssignale bestehen. Über <strong>die</strong> Verzweigungen<br />

des Axons in <strong>die</strong> sogenannten Kollaterale ist ein Neuron über <strong>die</strong> Synapsen mit den<br />

Dendriten anderer Neuronen verbunden, wodurch neuronale Netze entstehen. Die in<br />

Form asynchroner Pulsfolgen auftretenden elektrischen Ausgangssignale der Neuronen<br />

werden durch verstellbare Eingangsgewichte an den Synapsen (und wahrscheinlich auch<br />

verstellbare Zeitverzögerungen) verarbeitet. Überschreitet <strong>die</strong> Summe der an den Eingängen<br />

eines Neurons anliegenden Erregungen einen gewissen Schwellwert, so breitet<br />

sich über seinen Ausgang ein elektrischer Impuls aus: das Neuron „feuert“. Dabei wird<br />

<strong>die</strong> Stärke des Impulses von der Stärke der Erregungen der Eingänge bestimmt. Wie<br />

stark ein Ausgangsimpuls wiederum auf <strong>die</strong> nachfolgenden Neuronen wirkt, hängt damit<br />

von Anzahl und Zustand der feuernden Ausgänge der verbundenen Neuronen sowie von<br />

der „Leitfähigkeit“ der Synapsen ab. Diese Leitfähigkeit nimmt zu bzw. ab, wenn <strong>die</strong><br />

Synapse häufig bzw. nur selten zur Weiterleitung von Impulsen benutzt wird.<br />

Nach der bisher gültigen Auffassung war das Gedächtnis durch <strong>die</strong> <strong>als</strong> Gewichtsfaktoren<br />

wirkenden veränderlichen Leitfähigkeiten der vielen Synapsen repräsentiert. Das Verändern<br />

der Leitfähigkeit der Synapsen je nach ihrem Gebrauch und das ständige Nachwachsen<br />

von Verbindungen zwischen Neuronen wurden <strong>als</strong> ein wesentlicher Teil des<br />

Lernprozesses bei Lebewesen angesehen.<br />

Gemäß neuerer Erkenntnisse untergliedert sich das Gedächtnis wiederum in das explizite<br />

Gedächtnis, das es ermöglicht, erlerntes Wissen über Menschen und <strong>die</strong> Welt be-


wußt abzurufen und in das implizite Gedächtnis, das unbewußter <strong>Natur</strong> ist, und den<br />

Rückgriff etwa auf erlernte motorische Fertigkeiten erlaubt (es umfaßt auch <strong>die</strong> klassische<br />

Konditionierung). Eine elementare Form impilziten Lernens ist <strong>die</strong> Sensibilisierung:<br />

ein Reiz steigert <strong>die</strong> Reaktionsbereitschaft auf schwächere, nachfolgende Ereignisse.<br />

Während <strong>die</strong> Erinnerung an einen einzelnen Reiz meist schon nach Minuten oder allenfalls<br />

Stunden abklingt, gehen wiederholte Reizungen in das Langzeitgedächtnis über.<br />

Die Sensibilisierung hält dann Tage bis Wochen an. Am Studium der Aplysia hat man<br />

festgestellt, daß das Kurzzeitgedächtnis auf der Veränderung bereits vorhandener Eiweißmoleküle<br />

beruht (eine Synthese neuer Proteine erfolgt nicht). Beim Langzeitgedächtnis<br />

wandert ein Enzym, <strong>die</strong> Protein-Kinase, in den Zellkern, aktiviert dort spezielle<br />

Eiweißstoffe, <strong>die</strong> das Ablesen genetischer Informationen ankurbeln (<strong>die</strong> sogenannten<br />

Transkriptionsfaktoren ) indem sie einen "genetischen Schalte" umlegen. Dadurch werden<br />

neue Proteine synthetisiert, <strong>die</strong> zur Konsoli<strong>die</strong>rung und schließlich zur Stabilisierung<br />

des Langszeitgedächtnisses führen. Charakteristisch da<strong>für</strong> sind strukturelle Veränderungen,<br />

zum Beispiel neu gebildete Synapsen. Um <strong>die</strong>sen wichtigen biologischen Regelkreis<br />

des Lernens gegen Störung zu sichern, ist eine molekulare Feinsicherung eingebaut:<br />

im Gegensatz zu dem das Langzeitgedächtnis fördernden Protein ist ein weiteres<br />

Protein eingebaut, welches das Ablesen unterdrückt. Das aktivierende Protein trifft im<br />

Zellkern auf das bereits im Ruhezustand gebildete hemmende Protein. Wiederholte Pulse<br />

bewirken, daß <strong>die</strong> blockierende Wirkung verlorengeht, Ohne das hemmende Protein<br />

würde schon eine einzige Anregung <strong>die</strong> Nervenzelle auf lange Zeit sensibilisieren [29].<br />

Informationstransport und Informationsverarbeitung erfolgen im Gehirn massiv parallel,<br />

diskret, analog und asynchron, <strong>als</strong>o ohne zentralen Taktgeber. Während bei primitiven<br />

Lebewesen <strong>die</strong> innere Informationsverarbeitung fast vollständig starr festgelegt ist,<br />

nehmen mit steigender Entwicklungsstufe <strong>die</strong> Möglichkeiten einer individuellen Gestaltung<br />

zu [3]: <strong>die</strong> feste „Verdrahtung“ wird ersetzt durch <strong>die</strong> Selbstorganisation während<br />

eines Lernvorgangs. Die Informationsspeicherung erfolgt ebenfalls dezentral an<br />

den Synapsen, den Kontaktstellen zwischen den Neuronen (siehe oben).<br />

Weitere wesentlichen Merkmale der neuronalen Organisation sind:<br />

• Redundanz der Bearbeitungslemente (<strong>die</strong> Beschädigung relativ weniger Neuronen hat<br />

keine spürbaren Auswirkungen auf das allgemeine Verhalten),<br />

• Anpassungsfähigkeit an vielerlei veränderliche Bedingungen.<br />

5.2 Künstliche neuronale Netze<br />

Bereits 1943 veröffentlichten der amerikanische Psychiater Warden McCulloch gemeinsam<br />

mir dem Harvard-Studenten Walter Pitts das vereinfachte Modell des menschlichen<br />

Gehirns. Die Neuronen werden dabei durch Funktionen (Rechenelemente), <strong>die</strong> Synapsen<br />

durch <strong>die</strong> Verkoppelung (Verdrahtung) der Rechenelemente zu künstlichen neuronalen<br />

Netzen (KNN) repräsentiert. Die beiden Wissenschaftler zeigten, daß zum Beispiel<br />

Netzwerke von Schwellwert-Kennlinien jede Berechnung durchführen können (Berechenbarkeitsbeweis).<br />

Das Modell von McCulloch und Pitt war jedoch noch nicht fähig<br />

zu lernen. Ein Lernalgorithmus wurde 1949 erstm<strong>als</strong> von Donald Hebb beschrieben.<br />

Hebb formulierte dazu eine Art Selbstorganisationsprozeß. Eine Synapse, <strong>die</strong> zwei Neu-


onen miteinander verbindet, wird verstärkt, wenn beide Neuronen gleichzeitig aktiv<br />

sind. Diese einfache Lernregel reicht bereits aus, um aus einer anfänglich zufälligen<br />

Verbindung Strukturen zu schaffen, <strong>die</strong> denen des menschlichen Gehirns ähnlich sind.<br />

In der Folgezeit wurde eine Vielzahl von Neuronenmodellen (Rechenelemente), Netzstrukturen<br />

und Lernverfahren vorgeschlagen. Durch <strong>die</strong> steigende Leistungsfähigkeit<br />

sowie <strong>die</strong> fallenden Kosten der Digitalrechner haben künstliche neuronale Netze eine<br />

geeignete Realisierungsbasis und in Folge ein starkes industrielles Interesse gefunden.<br />

Erste Anwendungen zeigen, daß <strong>die</strong> in <strong>die</strong>se Technologie gesteckten Erwartungen erfüllt<br />

werden [20], [21].<br />

6. Ausblick<br />

Die Hoffnung, daß <strong>die</strong> notwendigerweise interdisziplinäre Beschäftigung mit den enormen<br />

Potentialen des Systems „High <strong>Natur</strong>e“ zu zukünftigen „High Tech“-Lösungen <strong>für</strong><br />

Automatisierungssysteme führt, scheint berechtigt.<br />

Allein ein Vergleich der Speicherkapazitäten und Verarbeitungsleistungen verdeutlicht<br />

<strong>die</strong> heute noch mehr <strong>als</strong> bescheidene Leistungsfähigkeit moderner informationsverarbeitender<br />

<strong>technische</strong>r Systeme: während das Speichervermögen einer 40 MB Festplatte<br />

bei 3,27⋅10 8 Bit liegt und es erst kürzlich einer Forschergruppe der University of Minnesota<br />

gelungen ist, einen Datenspeicher mit einer Kapazität von etwa 62 Gigabit pro<br />

herzustellen, beträgt <strong>die</strong> Gedächtniskapazität des menschlichen Hirns etwa 10 14 Bit und<br />

das Speichervermögen von 1 cm 3 menschlicher DNS 10 21 Bit (Anmerkung: das in Büchern<br />

abgelegte Gesamtwissen der Menschheit wird auf 10 18 Bit geschätzt). Die tägliche<br />

Datenmenge aller Satellitenbilder liegt derzeit bei ungefähr 9⋅10 12 Bit, während <strong>die</strong> unbewußt<br />

verarbeitete Informationsmenge des Menschen pro Tag etwa 3,4⋅10 24 Bit umfaßt<br />

[19].<br />

Gegen <strong>die</strong> positive Beantwortung der grundsätzlichen Frage „Können Maschinen denken?“<br />

besteht unter anderem der mathematisch basierte Einwand, daß <strong>die</strong> Leistungsfähigkeit<br />

der mathematischen Logik und damit der auf <strong>die</strong>ser Logik aufbauenden diskreten<br />

Maschinen Grenzen hat. So zeigt das Gödelsche Theorem auf, daß sich in jedem hinreichend<br />

mächtigen logischen System Behauptungen aufstellen lassen, <strong>die</strong> innerhalb des<br />

Systems weder bewiesen noch widerlegt werden können, solange nicht das System<br />

selbst möglicherweise in sich widersprüchlich ist.<br />

Die Frage, ob der menschliche Intellekt jem<strong>als</strong> fähig sein wird, <strong>die</strong> <strong>Natur</strong> und vor allem<br />

seine eigene Funktionsweise vollständig zu verstehen (d.h. ein vollständiges Modell zu<br />

erstellen, das den Konstrukteur mit einschließt [2]), ist heute noch heftig umstritten<br />

[22]. Während Optimisten anmerken, daß man mit einer Schreibmaschine problemlos<br />

<strong>die</strong> Beschreibung einer Schreibmaschine erstellen kann und daraus schließen, daß man<br />

mit dem Hirn das Hirn verstehen kann, nimmt Emeron Pugh einen pessimistischen<br />

Standpunkt ein: „Wenn das menschliche Hirn so einfach wäre, daß wir es verstehen<br />

könnten, dann wären wir so einfach, daß wir es nicht könnten“.<br />

Eine weitere Anregung an den Wissenschaftler und Ingenieur zum Nachdenken spannt<br />

den Bogen weiter zu den Künsten:


„Es muß verstärkt zu einem Wechselspiel zwischen den Künsten und den Wissenschaften<br />

kommen. ... Die großen, kreativen Wissenschaftler haben alle nach Schönheit gestrebt.<br />

... Faradays Suche nach dem Zusammenwirken von Elektrizität und Magnetismus<br />

war durch das Verlangen ausgelöst, Symmetrie in der <strong>Natur</strong> zu finden; Es waren vor allem<br />

ästhetische Gründe, <strong>die</strong> Einstein zur Relativitätstheorie führten: ihn störten Widersprüche<br />

zwischen Newtons Mechanik und Maxwells Elektrodynamik. Um <strong>die</strong> Schönheit<br />

der Maxwellschen Gleichungen zu erhalten, änderte er Newtons Annahme, daß Zeit und<br />

Raum absolute Größen sind. Das Ästhetische kann nicht <strong>die</strong> Logik und <strong>die</strong> anschließende<br />

experimentelle Bestätigung ersetzen. Aber es hilft bei der Theorieentstehung. Der<br />

kreative Akt des Wissenschaftlers gleicht dem des Künstlers" [30].<br />

7. Literatur<br />

[1] Cuno, B.: Der Mensch im Mittelpunkt: Fuzzy und Neuro Control in der industriellen<br />

Automatisierungstechnik. Tagungsunterlagen 1. Fuldaer Elektrotechnik Kolloquium<br />

1996.<br />

[2] Papageorgiou, M.: Die Erforschung der natürlichen Intelligenz und ihre Bedeutung<br />

<strong>für</strong> <strong>die</strong> Steuerungs- und Regelungstechnik. Automatisierungstechnik at 45 (1997),<br />

Seite 49-57.<br />

[3] Oppelt, W.: Der Automat - das Denkmodell des Ingenieurs <strong>für</strong> menschliches Verhalten.<br />

Elektro<strong>technische</strong> Zeitschrift etz-a Bd. 99 (1979), Seite 105-108 (Teil 1);<br />

Seite 152-155 (Teil 2) und Seite 206-210 (Teil 3).<br />

[4] Lorenz, K.: Vergleichende Verhaltensforschung, Grundlagen der Ethnologie.<br />

Springer Verlag, Wien 1978.<br />

[5] Kahlert, J.: Vektorielle Optimierung mit Evolutionsstrategien und Anwendungen<br />

in der Regelungstechnik (Dissertation an der Universität Dortmund) Fortschr.-Ber.<br />

VDI Reihe 8, Nr.234, VDI Verlag, Düsseldorf 1991.<br />

[6] Geyer, Chr.: Wer überlebt, überlebt. Frankfurter Allgemeine Zeitung vom 04. Juni<br />

1997.<br />

[7] Goldberg, D.E.: Genetic algorithms in search, optimization and maschine learning.<br />

Addison Wesley, Reading, MA 1989.<br />

[8] Holland, J.H.: Adaption in natural and artifical systems. The University of Michigan<br />

Press, Ann Arbor, MI 1975.<br />

[9] Rechenberg, I.: Evolutionsstrategie: Optimierung <strong>technische</strong>r Systeme nach Prinzipien<br />

der biologischen Evolution. Frommann-Holzboog, Stuttgart 1973.<br />

[10] Schwefel, H.-P.: Numerische Optimierung von Computer-Modellen mittels Evolutionsstragie,<br />

Volume 26 of Interdisciplinary Systems Research. Birkhäuser, Basel<br />

1977.


[11] Bäck, Th.: Grundlagen und Anwendungen genetischer Algorithmen. 3. Anwendersymposium<br />

zu Neuro Fuzzy-Technologien, Bochum 1993.<br />

[12] Cuno, B.: Fuzzy-Control in der industriellen Automatisierungstechnik.<br />

Tagungsband SPS/ PC/ Drives. 4. Internationale Fachmesse und Kongreß <strong>für</strong> SPS,<br />

Industrie-PC und elektrische Antriebstechnik. Nov. 1993. vde-verlag, Berlin und<br />

Offenbach 1993.<br />

[13] McNeill, D. und Freiberger, P.: Fuzzy Logic - <strong>die</strong> unscharfe Logik erobert <strong>die</strong><br />

Technik. Droemersche Verlagsanstalt Th. Knaur Nachf., München 1996.<br />

[14] Zadeh, L.A.: Outline of a new approach to the analysis of complex systems and decision<br />

processes. IEEE Transactions on Systems, Man, and Cybernetics SMC-3(1),<br />

Januar 1973, Seite 28 ff.<br />

[15] Zadeh, L.A.: Fuzzy Sets. Information and Control 8 (1965), Seite 338-353.<br />

[16] Zimmermann, H.-J.: Fuzzy Set Theory and its Applications. Kluwer Academic<br />

Publishers, 2. Auflage. Boston/ Dordrecht/ London 1991.<br />

[17] Mamdani, E.H. und King, P.J.: The Application of Fuzzy Control Systems to Industrial<br />

Processes. Automatica 13 (1972), Seite 235-242.<br />

[18] Rojas, R.: Theorie der neuronalen Netze: eine systematische Einführung. Springer<br />

Verlag, Berlin, Heidelberg New York 1993.<br />

[19] Hamilton, P.: Künstliche neuronale Netze: Grundprinzipien, Hintergründe, Anwendnungen.<br />

vde-verlag gmbh. Berlin/ Offenbach 1993.<br />

[20] Eckmiller, R.: Lernfähige Neuronale Netze <strong>für</strong> Steuerungs- und Prädikationsaufgaben.<br />

3. Anwendersymposium zu Neuro-Fuzzy-Technologien vom 23. bis 25. November<br />

1993 in Bochum. ZN - Zentrum <strong>für</strong> Neuroinformatik GmbH und MIT -<br />

Management Intelligenter Technologien GmbH, Bochum und Aachen 1993.<br />

[21] Hafner, S., Geiger, H. und Kreßel, U.: Anwendungsstand Künstlicher Neuronaler<br />

Netze in der Automatisierungstechnik - Gemeinschaftsbeitrag des GMA-<br />

Ausschusses „Künstliche Neuronale Netze“, Teil 1: Einführung. Automatisierungs<strong>technische</strong><br />

Praxis atp 34 (1992), Seite 591- 599.<br />

[22] Kosko, B.: Neural Networks and Fuzzy Systems. Prentice Hall, London 1992.<br />

[23] Maar, C., Pöppel, E. und Christaller, T. (Hrsg.): Die Technik auf dem Weg zur<br />

Seele: Forschungen an der Schnittstelle Gehirn/ Computer. rororo science im Rowohlt<br />

Taschenbuch Verlag GmbH, Reinbeck bei Hamburg 1996.<br />

[24] Neumann, J. von: The Computer and the Brain. Yale University Press Inc., New<br />

Haven 1958.


[25] Hofstadter, D.R. und Dennet, D.C. (Hrsg.): Einsicht ins Ich. C.A. Koch’s Verlag<br />

Nachf., Berlin, Darmstadt, Wien 1981.<br />

[26] Baeyer, H.C.: Das All, das Nichts und Achterbahn - Physik und Grenzerfahrungen.<br />

Rowohlt Taschenbuch Verlag GmbH, Reinbeck bei Hamburg 1997.<br />

[27] Baeyer, H.C.:Fermis Weg: Was <strong>die</strong> <strong>Natur</strong>wissenschaft mit der <strong>Natur</strong> macht. Clausen<br />

& Bosse, Leck 1994.<br />

[28]Hobom, B.: Gendiagnostik weit überschätzt - Zusammenspiel der Erbanlagen kaum<br />

durchschaubar / Gefahr des Mißbrauchs. Frankfurter Allgemeine Zeitung vom<br />

12.08.1998.<br />

[29]Wandtner, R.: Lernen im Schneckentempo - Aplysia - ein Lieblingstier der Hirnforscher<br />

/ Einblicke in <strong>die</strong> Molekulargenetik des Gedächtnisees. Frankfurter Allgemeine<br />

Zeitung vom 01.04.1998.<br />

[30]Fischer, E.P.: Das Schöne und das Biest: Ästhetische Momente in der Wissenschaft.<br />

Piper, München 1996<br />

[31]Martin, K.: Das phonetische Modul und <strong>die</strong> Gesten des Mundes - Warum Schreiben<br />

schwerer ist <strong>als</strong> Reden. Frankfurter Allgemeine Zeitung vom 19.08.1998.<br />

[32] Liberman, A.M.: When theories of speech meet the real world. Journal of Psycholinguitsic<br />

Research, Bd. 27, Heft 2, 1998.<br />

[33] Wandtner, R.: Wachstumsschub <strong>für</strong> Nervenzellen - Medikament gegen Psychosen<br />

sorgt <strong>für</strong> Neubildung im Mäusehirn. Frankfurter Allgemeine Zeitung vom<br />

22.07.1998.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!