28.09.2013 Aufrufe

Neuronale Netze - D. Kriesel

Neuronale Netze - D. Kriesel

Neuronale Netze - D. Kriesel

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Definition 3.6 (Aktivierungsfunktion und Aktivierung). Sei j Neuron. Die Aktivierungsfunktion<br />

ist definiert als<br />

aj(t) = fact(netj(t), aj(t − 1), Θj) (3.3)<br />

und verarbeitet also die <strong>Netze</strong>ingabe netj und den alten Aktivierungszustand aj(t − 1)<br />

zu einem neuen Aktivierungszustand aj(t), wobei der Schwellenwert Θ wie oben schon<br />

erläutert eine große Rolle spielt.<br />

Im Unterschied zu anderen Größen innerhalb des <strong>Neuronale</strong>n <strong>Netze</strong>s (insbesondere zu<br />

den bisher definierten) ist die Aktivierungsfunktion oft global für alle oder zumindest<br />

eine Menge von Neuronen definiert, nur die Schwellenwerte unterscheiden sich dann<br />

von Neuron zu Neuron. Auch sollten wir im Hinterkopf behalten, dass sich die Schwellenwerte<br />

z.B. durch einen Lernvorgang ändern sollten, so dass es insbesondere nötig<br />

werden kann, die Schwellenwerte auf die Zeit zu beziehen und z.B. Θj als Θj(t) zu<br />

schreiben (das habe ich hier der Übersichtlichkeit zuliebe erst einmal unterlassen). Die<br />

Aktivierungsfunktion wird auch oft als Transferfunktion bezeichnet.<br />

SNIPE: Aktivierungsfunktionen sind in Snipe generalisiert zu „Neuronenverhaltensweisen“<br />

(Neuron Behaviors). Diese können zum einen ganz normale Aktivierungsfunktionen repräsentieren,<br />

aber auch interne Zustände besitzen. Diesbezügliche Programmbestandteile befinden sich<br />

im Paket neuronbehavior, wo auch einige der gleich vorgestellten Aktivierungsfunktionen implementiert<br />

sind. Das Interface NeuronBehavior erlaubt die Implementierung eigener Verhaltensweisen.<br />

Objekte, die von diesem Interface erben, können einem NeuralNetworkDescriptor übergeben<br />

werden; pro Neuronenschicht kann eine Neuronenverhaltensweise festgelegt werden.<br />

3.2.6 Gängige Aktivierungsfunktionen<br />

Die einfachste Aktivierungsfunktion ist die binäre Schwellenwertfunktion<br />

(Abb. 3.2 auf Seite 48), welche nur zwei Werte annehmen kann (auch Heaviside-<br />

Funktion genannt). Sie wechselt am Schwellenwert von einem Wert auf den andern,<br />

ist aber ansonsten konstant. Dies impliziert, dass sie am Schwellenwert nicht<br />

differenzierbar ist und die Ableitung ansonsten 0 ist. Dies macht z.B. das Lernen<br />

mit Backpropagation unmöglich (später mehr dazu). Beliebt ist weiterhin die auch<br />

Logistische Funktion genannte Fermifunktion (Abb. 3.2)<br />

1<br />

, (3.4)<br />

1 + e−x

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!