21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

4.3. SUPPORT VEKTOR MASCHINEN (VA.1.1.3, 13.04.2004) 367<br />

yϱ<br />

0 = ϑϱ<br />

<br />

ϱc<br />

T<br />

a + a0 − 1 + ξϱ , (4.3.31)<br />

∂L<br />

∂ξϱ<br />

= γ − ϑϱ − βϱ = 0 , (4.3.32)<br />

0 ≤ ξϱ , (4.3.33)<br />

0 ≤ βϱ , (4.3.34)<br />

0 = βϱξϱ , (4.3.35)<br />

jeweils für ϱ = 1, . . . , N .<br />

Auch hier ist das duale Problem nützlich; es lautet<br />

Ld(ϑ) =<br />

N<br />

ϱ=1<br />

ϑϱ − 1<br />

2<br />

N<br />

N<br />

ϱ=1 σ=1<br />

ϑϱϑσyϱyσ<br />

ϱc Tσ c , (4.3.36)<br />

0 ≤ ϑϱ ≤ γ , (4.3.37)<br />

N<br />

0 = ϑϱyϱ . (4.3.38)<br />

ϱ=1<br />

Es stimmt also mit (4.3.23) überein, nur die Nebenbedingungen ϑϱ ≤ γ kommen hinzu. Der<br />

Gewichtsvektor der Hyperebene ist mit (4.3.18)<br />

a =<br />

N<br />

ϑϱyϱ ϱ c . (4.3.39)<br />

ϱ=1<br />

Die Konstante a0 erhält man aus (4.3.31) und (4.3.35). Die optimale Hyperebene hat wie im<br />

Falle der linearen Separierbarkeit die Form<br />

H ∗ : d ea =<br />

N<br />

ϱ=1<br />

Tϱ<br />

ϑϱyϱ c c + a0 = 0 , (4.3.40)<br />

d. h. auch zu ihrer Berechnung sind nur Skalarprodukte der Merkmalsvektoren erforderlich.<br />

Natürlich wird man die Summe nur über die Support Vektoren erstrecken. Zur numerischen<br />

Berechnung der Support Vektoren wird auf die Anmerkungen in Abschnitt 4.11 verwiesen. Die<br />

<strong>Klassifikation</strong> erfolgt also nicht mit dem Parametervektor a und der Ebenengleichung (4.3.6)<br />

sondern mit der Entwicklung (4.3.39) des Parametervektors und (4.3.40). Die Entscheidungsregel<br />

ist (4.3.16).<br />

4.3.5 Nichtlineare Trennfunktionen<br />

Die bisherige Beschränkung auf Hyperebenen als Trennfunktionen lässt sich auf relativ einfache<br />

Weise wesentlich verallgemeinern. Der Schlüssel dafür ist die Beobachtung, dass sowohl beim<br />

Training, nämlich in (4.3.36) – (4.3.38), als auch bei der <strong>Klassifikation</strong>, nämlich in (4.3.40), nur<br />

Skalarprodukte der Merkmalsvektoren berechnet werden müssen.<br />

Wenn man den Merkmalsvektor c ∈ R n mit einer Abbildung φ in einen höherdimensionalen<br />

Raum c ∈ R en , n < n, transformiert, so können alle obigen Rechnungen in (4.3.25) –<br />

(4.3.40) statt mit c nun mit c durchgeführt werden; d. h. auch <strong>von</strong> dem neuen Merkmalsvektor<br />

c müssen bei Training und <strong>Klassifikation</strong> nur Skalarprodukte c T c berechnet werden. Statt einer

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!