Künstliche Neuronale Netze
Künstliche Neuronale Netze
Künstliche Neuronale Netze
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
12.05.2009<br />
Bemerkungen<br />
• Feed-Forward <strong>Netze</strong> haben keine<br />
internen Zustände außer deren<br />
Gewichte, die Aktivierung vom<br />
letzten Schritt (zeitmäßig) spielt<br />
keine Rolle.<br />
• Derartige Netzwerke können<br />
adaptive Versionen eines<br />
einfachen Reflex-Agenten<br />
implementieren.<br />
• Gut verständlich, deswegen in der<br />
weiteren Betrachtung.<br />
• Input-, Output- und<br />
Hiddenneuronen.<br />
• Perzeptrons sind Netzwerke<br />
ohne Hiddenschicht. Das macht<br />
das Lernen einfacher, sie sind<br />
aber limitiert, was die<br />
Repräsentation angeht.<br />
• Netzwerke mit ein oder mehreren<br />
Hiddenschichten werden<br />
Multilayer-Netzwerke genannt.<br />
• Mit einer Hiddenschicht kann man<br />
jede kontinuierliche Funktion der<br />
Eingaben repräsentieren, mit zwei<br />
Schichten sogar nicht<br />
kontinuierliche Funktionen.<br />
• Lernen als nichtlineare<br />
Regression.<br />
Netzwerkstrukturen<br />
15<br />
Recurrent Netzwerke<br />
• Links können beliebig geformt<br />
werden.<br />
• Haben interne Zustände<br />
wegen Feedback. Sie sind in<br />
den Aktivierungsleveln<br />
gespeichert.<br />
• Das bedeutet auch, dass<br />
derartige Netzwerke weniger<br />
geordnet sind und deshalb<br />
“unstabil” werden können.<br />
• Lernen ist schwieriger aber sie<br />
können kompliziertere<br />
Agenten implementieren.<br />
• Hopfield <strong>Netze</strong> und Boltzmann<br />
Maschine<br />
Netzwerkstrukturen<br />
16<br />
8