- Seite 1: Ein kleiner Überblick über Neuron
- Seite 6 und 7: Abschnitte dieser Arbeit sind weite
- Seite 8 und 9: Sprechende Überschriften im Text,
- Seite 10 und 11: Maximilian Ernestus, Hardy Falk, An
- Seite 13 und 14: Inhaltsverzeichnis Vorwörtchen v I
- Seite 15 und 16: 4.5 Gradientenbasierte Optimierungs
- Seite 17 und 18: 8.6 Kontinuierliche Hopfieldnetze .
- Seite 19: C.2.3 Montecarlo-Methodik . . . . .
- Seite 23 und 24: Kapitel 1 Einleitung, Motivation un
- Seite 25 und 26: onales Netz ähnliche Probleme ders
- Seite 27 und 28: Abbildung 1.1: Ein kleiner Roboter
- Seite 29 und 30: Abbildung 1.3: Wir betrachten die R
- Seite 31 und 32: 1947 nennen Walter Pitts und Warren
- Seite 33 und 34: 1.2.3 Lange Stille und langsamer Wi
- Seite 35: Aufgabe 2. Nennen Sie mindestens vi
- Seite 38 und 39: starre Unterteilung nicht sinnvoll,
- Seite 40 und 41: Abbildung 2.2: Skizze des Gehirns.
- Seite 42 und 43: Abbildung 2.3: Skizze eines biologi
- Seite 44 und 45: 2.2.1.2 Dendriten sammeln alle Info
- Seite 46 und 47: Elektrischer Gradient: Der elektris
- Seite 48 und 49: Abbildung 2.4: Auslösung eines Akt
- Seite 50 und 51: löst dominoartig das nächste aus,
- Seite 52 und 53:
Zentralnervensystem durch sensorisc
- Seite 54 und 55:
2.3.3.2 Einzellinsenaugen kombinier
- Seite 56 und 57:
Decke landen, besitzt umfangreiche
- Seite 58 und 59:
anderen Neurons. Dies bedeutet insb
- Seite 61 und 62:
Kapitel 3 Bausteine künstlicher Ne
- Seite 63 und 64:
Eingaben anderer Neuronen Propagier
- Seite 65 und 66:
3.2.3 Die Aktivierung ist der „Sc
- Seite 67 und 68:
welche einen Wertebereich von (0, 1
- Seite 69 und 70:
Auch die Ausgabefunktion ist i.d.R.
- Seite 71 und 72:
i1 ⑥⑥⑥⑥⑥⑥⑥⑥⑥ ❆
- Seite 73 und 74:
1 2 3 4 5
- Seite 75 und 76:
1 2 3 4 5
- Seite 77 und 78:
3.4 Das Biasneuron ist ein technisc
- Seite 79 und 80:
||c,x|| Gauß Σ Tanh Σ Fer
- Seite 81 und 82:
3.6.2.3 Topologische Ordnung Defini
- Seite 83:
2. tanh ′ (x) = 1 − tanh 2 (x)
- Seite 86 und 87:
3. Verbindungsgewichte verändert,
- Seite 88 und 89:
4.1.3 Überwachtes Lernen hilft dem
- Seite 90 und 91:
4.2 Trainingsmuster und Teaching In
- Seite 92 und 93:
Abbildung 4.1: Veranschaulichung vo
- Seite 94 und 95:
4.3.2 Reihenfolgen der Musterpräse
- Seite 96 und 97:
Fehler Fehler 0.00025 0.0002 0.0001
- Seite 98 und 99:
Abbildung 4.3: Veranschaulichung de
- Seite 100 und 101:
Err b) c) Globales Minimum Abbildun
- Seite 102 und 103:
i1 i2 i3 Ω 0 0 0 1 0 0 1 0 0 1 0
- Seite 104 und 105:
Abbildung 4.6: Skizze von Trainings
- Seite 106 und 107:
4.7.2 Verallgemeinerte Form Die mei
- Seite 109 und 110:
Kapitel 5 Das Perceptron, Backpropa
- Seite 111 und 112:
Kapitel 5 Das Perceptron dkriesel.c
- Seite 113 und 114:
BIAS i1 wBIAS,Ωwi1 ,Ω wi2 ,
- Seite 115 und 116:
Wir möchten nun erfahren, wie wir
- Seite 117 und 118:
⊲ i Input sowie ⊲ o Output eine
- Seite 119 und 120:
Fehlerfunktion sollte dann also gro
- Seite 121 und 122:
Betrachten wir den ersten multiplik
- Seite 123 und 124:
Ein. 1 Ein. 2 Ausgabe 0 0 0 0 1 1 1
- Seite 125 und 126:
Abbildung 5.8: Lineare Separierung
- Seite 127 und 128:
layerperceptron den Inputraum durch
- Seite 129 und 130:
n klassifizierbare Menge 1 Hyperebe
- Seite 131 und 132:
▲ ▲▲ ❂ ▲ ❂ . . .
- Seite 133 und 134:
δh − ∂Err ∂neth ∂oh ∂n
- Seite 135 und 136:
⊲ Lernrate η, ⊲ Ausgabe des Vo
- Seite 137 und 138:
5.4.3.1 Variation der Lernrate übe
- Seite 139 und 140:
Vom Gewicht wird also ηi,j abgezog
- Seite 141 und 142:
diesen Parameter niedriger setzen,
- Seite 143 und 144:
Abbildung 5.13: Wir möchten den Gr
- Seite 145 und 146:
Der Fehler pro Outputneuron setzt s
- Seite 147 und 148:
tanh(x) 1 0.8 0.6 0.4 0.2 0 −0.2
- Seite 149 und 150:
Abbildung 5.15: Skizze der Funktion
- Seite 151:
analytisch einen Satz Gewichtswerte
- Seite 154 und 155:
Ausgabeneurone in einem RBF-Netz en
- Seite 156 und 157:
Abbildung 6.2: Sei ch das Zentrum e
- Seite 158 und 159:
y 1.4 1.2 1 0.8 0.6 0.4 0.2 0 −0.
- Seite 160 und 161:
Nachdem wir nun den Abstand rh des
- Seite 162 und 163:
von RBF-Netzen, zweitens kann es au
- Seite 164 und 165:
6.2.2.3 Berechnungsaufwand und Gena
- Seite 166 und 167:
Abbildung 6.6: Beispiel einer gleic
- Seite 168 und 169:
Abbildung 6.8: Beispiel einer ungle
- Seite 170 und 171:
Diese Anpassung geschieht salopp ge
- Seite 172 und 173:
eispiele der Form (p, t) der Funkti
- Seite 174 und 175:
Abbildung 7.1: Der Rössler-Attrakt
- Seite 176 und 177:
i1 ⑦⑦⑦⑦⑦⑦⑦⑦⑦⑦
- Seite 178 und 179:
Ein Lernansatz wäre der Versuch, d
- Seite 180 und 181:
während des Trainings an den Konte
- Seite 182 und 183:
↑ ❙ ❙ ❁ ❙❙ ❁ ❙
- Seite 184 und 185:
Ist wi,j positiv, versucht es die b
- Seite 186 und 187:
Im Unterschied zu vielen anderen Ne
- Seite 188 und 189:
Abbildung 8.3: Darstellung der Konv
- Seite 190 und 191:
Die Diagonale der Matrix ist wieder
- Seite 192 und 193:
f(x) 1 0.8 0.6 0.4 0.2 0 Fermi−Fu
- Seite 194 und 195:
Jeder von uns kennt den diskreten Z
- Seite 196 und 197:
eindeutig einer Klasse zuzuordnen i
- Seite 198 und 199:
9.5 Verbindung zu Neuronalen Netzen
- Seite 201 und 202:
Kapitel 10 Self Organizing Feature
- Seite 203 und 204:
Abbildung 10.1: Beispieltopologien
- Seite 205 und 206:
Adaption der Zentren: Die Zentren d
- Seite 207 und 208:
10.3.1.1 Vorstellung gängiger Abst
- Seite 209 und 210:
Eine sinkende Nachbarschaftsgröße
- Seite 211 und 212:
Wir erinnern uns an die Lernvorschr
- Seite 213 und 214:
Abbildung 10.5: Verhalten einer SOM
- Seite 215 und 216:
Abbildung 10.7: Ein Topologischer D
- Seite 217 und 218:
Teuvo Kohonen selbst hat sich die M
- Seite 219 und 220:
⊲ Wieder zufällige Initialisieru
- Seite 221 und 222:
zerteilen und auch auf komplizierte
- Seite 223 und 224:
Kapitel 11 Adaptive Resonance Theor
- Seite 225 und 226:
Zusätzlich zu den zwei genannten S
- Seite 227:
Kapitel 11 Adaptive Resonance Theor
- Seite 231 und 232:
Anhang A Exkurs: Clusteranalyse und
- Seite 233 und 234:
Komplizierte Strukturen, wie „Clu
- Seite 235 und 236:
Abbildung A.1: Oben links: Unsere P
- Seite 237 und 238:
A.5.1 ROLFs versuchen, mit Neuronen
- Seite 239 und 240:
A.5.2.1 Sowohl Positionen als auch
- Seite 241 und 242:
A.5.3 Auswertung eines ROLFs Der Tr
- Seite 243 und 244:
Im Vergleich mit dem k-Means-Cluste
- Seite 245 und 246:
Anhang B Exkurs: Neuronale Netze zu
- Seite 247 und 248:
1. Haben wir überhaupt Anhaltspunk
- Seite 249 und 250:
Eine solche Konstruktion nennt man
- Seite 251 und 252:
xt−3 xt−2 xt−1 xt Prediktor
- Seite 253 und 254:
unübersichtlich werden) - oder man
- Seite 255 und 256:
Anhang C Exkurs: Reinforcement Lear
- Seite 257 und 258:
Der Reward ist ein reeller oder dis
- Seite 259 und 260:
Reward / neue Situation Agent Umw
- Seite 261 und 262:
Definition C.5 (Aktion). Aktionen a
- Seite 263 und 264:
Wir unterscheiden hierbei grundsät
- Seite 265 und 266:
C.2.1 Strategien zur Rewardvergabe
- Seite 267 und 268:
-6 -5 -4 -3 -2 -7 -1 -6 -5 -4 -3 -2
- Seite 269 und 270:
C.2.3 Montecarlo-Methodik Die einfa
- Seite 271 und 272:
-1 -10 -9 -8 -3 -2 -11 -3 -10 -4 -9
- Seite 273 und 274:
0 × +1 -1 Abbildung C.8: Beispielh
- Seite 275 und 276:
gegen ein Backgammonprogramm, danac
- Seite 277:
Übungsaufgaben Aufgabe 20. Ein Kon
- Seite 280 und 281:
[Elm90] Jeffrey L. Elman. Finding s
- Seite 282 und 283:
[Par87] David R. Parker. Optimal al
- Seite 285 und 286:
Abbildungsverzeichnis 1.1 Roboter m
- Seite 287:
10.7 Topologischer Defekt einer SOM
- Seite 290 und 291:
Bestärkendes Lernen . . . . . . .
- Seite 292 und 293:
supervised . . . . . . . . . . . si
- Seite 294 und 295:
P Parallelität . . . . . . . . . .
- Seite 296:
Symmetry Breaking . . . . . . . . .