03.11.2013 Aufrufe

Künstliche Neuronale Netze

Künstliche Neuronale Netze

Künstliche Neuronale Netze

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

12.05.2009<br />

Bemerkungen<br />

• Feed-Forward <strong>Netze</strong> haben keine<br />

internen Zustände außer deren<br />

Gewichte, die Aktivierung vom<br />

letzten Schritt (zeitmäßig) spielt<br />

keine Rolle.<br />

• Derartige Netzwerke können<br />

adaptive Versionen eines<br />

einfachen Reflex-Agenten<br />

implementieren.<br />

• Gut verständlich, deswegen in der<br />

weiteren Betrachtung.<br />

• Input-, Output- und<br />

Hiddenneuronen.<br />

• Perzeptrons sind Netzwerke<br />

ohne Hiddenschicht. Das macht<br />

das Lernen einfacher, sie sind<br />

aber limitiert, was die<br />

Repräsentation angeht.<br />

• Netzwerke mit ein oder mehreren<br />

Hiddenschichten werden<br />

Multilayer-Netzwerke genannt.<br />

• Mit einer Hiddenschicht kann man<br />

jede kontinuierliche Funktion der<br />

Eingaben repräsentieren, mit zwei<br />

Schichten sogar nicht<br />

kontinuierliche Funktionen.<br />

• Lernen als nichtlineare<br />

Regression.<br />

Netzwerkstrukturen<br />

15<br />

Recurrent Netzwerke<br />

• Links können beliebig geformt<br />

werden.<br />

• Haben interne Zustände<br />

wegen Feedback. Sie sind in<br />

den Aktivierungsleveln<br />

gespeichert.<br />

• Das bedeutet auch, dass<br />

derartige Netzwerke weniger<br />

geordnet sind und deshalb<br />

“unstabil” werden können.<br />

• Lernen ist schwieriger aber sie<br />

können kompliziertere<br />

Agenten implementieren.<br />

• Hopfield <strong>Netze</strong> und Boltzmann<br />

Maschine<br />

Netzwerkstrukturen<br />

16<br />

8

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!