21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

36 KAPITEL 1. EINFÜHRUNG (VK.1.3.3, 16.03.2003)<br />

1.6.2 Iterative Optimierung<br />

Eine Basis vieler iterativer Optimierungsverfahren ist durch den Fixpunktsatz <strong>von</strong> BANACH gegeben.<br />

Er besagt, dass unter einigen Bedingungen ein kontraktiver Operator g, bzw. vereinfacht<br />

eine geeignete Funktion g, einen eindeutigen Fixpunkt x ∗ besitzt. Er wird als Grenzwert der<br />

Folge x0 = x, xi+1 = g(xi), i = 1, 2, . . . bestimmt.<br />

Gradienten- und Koordinatenabstieg<br />

Wenn das lokale Extremum einer Funktion h(x) gesucht ist, so führt die Anwendung der Beziehung<br />

x = g(x) auf die Gleichungen<br />

0 = ∂h(x)<br />

∂x<br />

x = x + β ∂h(x)<br />

∂x<br />

xi+1 = xi + β ∂h(x)<br />

∂x<br />

= β ∂h(x)<br />

∂x ,<br />

= g(x) ,<br />

xi+1 = xi + βiri . (1.6.7)<br />

Die iterative Bestimmung eines lokalen Extremwertes ist also möglich, indem man mit einer<br />

geeigneten Schrittweite βi in eine geeignete Richtung ri geht. Die Bestimmung der Schrittweite<br />

wird in der Regel experimentell vorgenommen. Als Richtung wird beim Gradientenabstieg<br />

wie im obigen Beispiel der Gradient der zu minimierenden Funktion verwendet. Eine Alternative<br />

ist der Koordinatenabstieg, bei dem der Extremwert für eine Koordinate bestimmt wird,<br />

dann für die nächste usw. Eine Anwendung des Gradientenabstiegs ist z. B. der Fehlerrückführungsalgorithmus<br />

zum Training neuronaler Netze in Satz 4.17, S. 389.<br />

1.6.3 Lokale Optimierung mit Nebenbedingungen<br />

Die allgemeine Form der Optimierung mit Nebenbedingungen ist<br />

g ∗ = min<br />

x g(x) , mit x ∈ S , (1.6.8)<br />

d. h. es kommen nur Lösungen aus einer gegebenen Menge S in Frage; diese Einschränkung<br />

entfiel in (1.6.1).<br />

Definition 1.11 Ist g(x) eine konvexe Funktion und S eine konvexe Menge, so liegt ein Problem<br />

der konvexen Optimierung vor.<br />

Die Funktion g(x) ist konvex, wenn<br />

g(λx + (1 − λ)y) ≤ λg(x) + (1 − λ)g(y) , ∀x, y ∈ R n . (1.6.9)<br />

Die Menge S ⊆ R n ist konvex, wenn<br />

x, y ∈ S , λ, µ ≥ 0 , λ + µ = 1 ⇒ λx + µy ∈ S . (1.6.10)<br />

Die Menge S ist ein konvexer Kegel, wenn<br />

x, y ∈ S , λ, µ ≥ 0 ⇒ λx + µy ∈ S . (1.6.11)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!