30.10.2013 Aufrufe

Bildklassifikation unter Verwendung kompressionsbasierter Methoden

Bildklassifikation unter Verwendung kompressionsbasierter Methoden

Bildklassifikation unter Verwendung kompressionsbasierter Methoden

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

4.2. Standardmaße<br />

Beweis. Dies leiten wir direkt aus der Minkowskischen Ungleichung ab. Sei<br />

|x| = |y| = n, dann ist<br />

∑<br />

d E (x, z) = √ n ‖x i − z i ‖ 2<br />

i=1<br />

∑<br />

= √ n ‖(x i − y i ) + (y i − z i )‖ 2<br />

i=1<br />

∑<br />

√ n ∑<br />

‖x i − y i ‖ 2 + √ n ‖y i − z i ‖ 2<br />

i=1<br />

i=1<br />

= d E (x, y) + d E (y, z)<br />

Die Dreicksungleichung ist also erfüllt.<br />

Daraus folgt dann unmittelbar<br />

Satz 4.10. Der Euklidische Abstand ist eine Metrik.<br />

In gewisser Weise handelt es sich beim Euklidischen Abstand um eine Verallgemeinerung<br />

des Hammingabstands. Die Summanden zur Berechnung nach<br />

Definition 4.8 haben bei Binärstrings immer dann den Wert 1, wenn die beiden<br />

entsprechenden korrespondierenden Komponenten x i und y i verschieden<br />

sind ((0 − 1) 2 = (1 − 0) 2 = 1). Bei Gleichheit ist der Wert des Summanden<br />

(0 − 0) 2 = (1 − 1) 2 = 0. Die Summe entspricht also dem Hammingabstand.<br />

Seien x 1 , x 2 , y ∈ {0, 1} n , dann gilt<br />

d H (x 1 , y) > d H (x 2 , y) ⇔ √ d H (x 1 , y)<br />

> √ d H (x 2 , y) ⇔ d E (x 1 , y) > d E (x 2 , y).<br />

Im Rahmen der Klassifikation interessieren wir uns weniger für die absoluten<br />

Distanzen als für paarweise Vergleiche. Darum ist es für die Klassifikationsgüte<br />

bei Binärstrings unerheblich, ob wir den Hammingabstand oder den Euklidischen<br />

Abstand verwenden. Das Ergebnis ist identisch.<br />

Bei der Anwendung auf die Graubilder zeigen sich jedoch signifikante Unterschiede.<br />

Im Gegensatz zum Hammingabstand gewichtet der Euklidische Abstand<br />

die absoluten Differenzen der korrespondierenden Pixel implizit, d.h. kleine<br />

Differenzen zwischen korrespondierenden Pixeln wirken sich weniger auf den<br />

Euklidischen Abstand aus als große Differenzen. Dieser vermeintliche Vorteil<br />

bestätigt sich auch im Experiment. Mit k = 3 konnten wir bei der Klassifikation<br />

des gesamten MNIST-Datenbestands eine Fehlerrate von 2, 8% erreichen.<br />

Alle anderen Werte für k erzielten schlechtere Ergebnisse (siehe Abbildung 4.8).<br />

Die zugehörige Konfusionsmatrix ist in Tabelle 4.8 verzeichnet.<br />

Wie auch beim Hammingabstand befinden sich die häufigsten Klassifikationsfehler<br />

an den Stellen, die man auch intuitiv vermuten würde. So werden wiederum<br />

relativ viele Bilder der Ziffer 4 als 9 klassifiziert und Bilder der 7 als<br />

43

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!