21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

4.3. SUPPORT VEKTOR MASCHINEN (VA.1.1.3, 13.04.2004) 365<br />

Diese Definition eines optimalen Klassfikators vergleiche man mit der in (4.1.33), S. 314.<br />

Dort wurde als Optimierungskriterium die Minimierung der mittleren Kosten verwendet, hier<br />

die Maximierung des Abstandes der beiden oben eingeführten Ebenen.<br />

4.3.3 Zur Lösung des Optimierungsproblems<br />

Für die Lösung des in Definition 4.11 eingeführten Optimierungsproblems (4.3.14) mit den N<br />

Nebenbedingungen (4.3.15) werden positive LAGRANGE-Multiplikatoren ϑ = (ϑ1, . . . , ϑN) T<br />

eingeführt (s. Abschnitt 1.6). Dadurch werden die Nebenbedingungen reduziert auf Nebenbedingungen<br />

für die LAGRANGE-Multiplikatoren, die einfacher zu handhaben sind. Bei Nebenbedingungen<br />

ni > 0 werden diese mit positiven LAGRANGE-Multiplikatoren multipliziert und<br />

<strong>von</strong> der Optimierungsbedingung subtrahiert. Damit ergibt sich die LAGRANGE-Gleichung<br />

L(a, ϑ) = 1<br />

2 |a|2 −<br />

N<br />

ϱ=1<br />

<br />

ϑϱ yϱ<br />

<br />

ϱc<br />

T<br />

a + a0 − 1 , (4.3.17)<br />

die bezüglich a, a0 zu minimieren ist mit der Nebenbedingung, dass die Ableitungen nach ϑ<br />

verschwinden. Diese Aufgabe ist als konvexe quadratische Optimierung bekannt. Wegen Einzelheiten<br />

zu ihrer Lösung wird auf die in Abschnitt 4.11 zitierte Literatur verwiesen.<br />

Die KARUSH–KUHN–TUCKER-Bedingungen (s. Satz 1.3, S. 38) für die Optimierung <strong>von</strong><br />

L sind<br />

∂L<br />

∂a<br />

∂L<br />

∂a0<br />

= a −<br />

= −<br />

N<br />

ϑϱyϱ ϱ c = 0 , (4.3.18)<br />

ϱ=1<br />

N<br />

ϑϱyϱ = 0 , (4.3.19)<br />

ϱ=1<br />

0 ≤ ϑϱ , ϱ = 1, . . . , N (4.3.20)<br />

<br />

0 ≤<br />

ϱc<br />

T<br />

yϱ a + a0 − 1 , ϱ = 1, . . . , N (4.3.21)<br />

<br />

0 =<br />

ϱc T<br />

ϑϱ yϱ a + a0 − 1 , ϱ = 1, . . . , N . (4.3.22)<br />

Sie sind notwendig und hinreichend für die Lösung des Optimierungsproblems.<br />

Statt des primären Problems (4.3.17) kann auch ein duales Problem betrachtet werden, insbesondere<br />

wenn dieses einfacher lösbar ist; dieses ist die übliche Vorgehensweise bei SVM. Das<br />

duale Problem besteht darin, (4.3.17) zu maximieren mit der Nebenbedingung, dass die Ableitungen<br />

nach a verschwinden. Diese Ableitungen aus (4.3.18) und (4.3.19) in (4.3.17) eingesetzt<br />

ergeben das duale Problem<br />

Ld(ϑ) =<br />

N<br />

ϱ=1<br />

0 ≤ ϑϱ ,<br />

N<br />

0 =<br />

ϱ=1<br />

ϑϱ − 1<br />

2<br />

ϑϱyϱ .<br />

N<br />

N<br />

ϱ=1 σ=1<br />

ϑϱϑσyϱyσ<br />

ϱc Tσ c ,<br />

(4.3.23)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!