Cascade-Correlations-Verfahren anhand des Xor-Problems
Cascade-Correlations-Verfahren anhand des Xor-Problems
Cascade-Correlations-Verfahren anhand des Xor-Problems
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
k<br />
w<br />
(1) = (3.00 + 0.048379;0.80 + 0.084385; − 4.00 + 0.047913) =<br />
= (3.048379;0.884385; −3.952087)<br />
usw.<br />
Abb. 4 Einfügen eines Kandidatenneurons beim XOR-Problem<br />
Im Laufe <strong>des</strong> Kandidatentrainings berechnet das <strong>Verfahren</strong> die folgenden Werte:<br />
w k (0) ( 3.000000, 0.800000, -4.000000)<br />
S 0 (w k (0)) 0.1427369<br />
grad(S 0 (w k (0))) ( 0.138227, 0.241099, 0.136895)<br />
Δ(w k (0)) ( 0.048379, 0.084385, 0.047913)<br />
w k (1) ( 3.048379, 0.884385, -3.952087)<br />
S 0 (w k (1)) 0.1766525<br />
grad(S 0 (w k (1))) ( 0.131953, 0.250344, 0.130153)<br />
…<br />
w k (391) ( 3.998832, 3.992753, -6.078353)<br />
S 0 (w k (391)) 0.4791468<br />
Zum Abschluss der Kandidaten-Trainingsphase hat der Kandidat das Aussehen:<br />
Abb. 5 Das Kandidatenneuron im Anschluss an die Trainingsphase<br />
12