Aufrufe
vor 2 Jahren

Skriptum zur Vorlesung “Mustererkennung” - Gernot A. Fink

Skriptum zur Vorlesung “Mustererkennung” - Gernot A. Fink

Skriptum zur Vorlesung “Mustererkennung” - Gernot A.

Skriptum zur Vorlesung “Mustererkennung”Gernot A. FinkWS 2012/13(Entwurf, 22. Januar 2013)Die Darstellung in diesem Skript orientiert sich in vielen Bereichen an dem grundlegenden Werk“Klassifikation von Mustern” von Heinrich Niemann (2003). Die vorliegende Ausgabe basiert auf einerfrüheren Version, die mit Beiträgen und unter Mitwirkung von Thomas Plötz entstand.

  • Seite 2 und 3: Inhaltsverzeichnis1 Einführung 41.
  • Seite 4 und 5: 4.4.4 Nichtlineare SVMs . . . . . .
  • Seite 6 und 7: ⇒ Philosophische Aspekte (,,Sind
  • Seite 8 und 9: • Mangelndes Verständnis des men
  • Seite 10 und 11: • Für sinnvolle Zerlegung von Ω
  • Seite 12 und 13: (H. Niemann, ca. Mitte der 80-er Ja
  • Seite 14 und 15: 1. Aufnahme: Ein Muster ϱ f(x) ∈
  • Seite 16 und 17: • Wie sind diese zu wählen? (d.h
  • Seite 18 und 19: Satz 2.3 Es gibt keine Funktion, di
  • Seite 20 und 21: • optimale Quantisierungskennlini
  • Seite 22 und 23: 2.2.2 (Grauwert-) HistogrammDie (ko
  • Seite 24 und 25: Der optimale Schwellwert, der σw(
  • Seite 26 und 27: Problem: Speicherung (der g jk,µν
  • Seite 28 und 29: Fläche unter dem Impuls ˆ=2a2b =
  • Seite 30 und 31: Frage: Was bedeutet dies für eine
  • Seite 32 und 33: • ÜberlagerungssatzFür eine Lin
  • Seite 34 und 35: • Somit ergibt sich folgende part
  • Seite 36 und 37: zu 2) Hervorhebung interessanter An
  • Seite 38 und 39: 2. Merkmale werden weitgehend unabh
  • Seite 40 und 41: Mit den Vektoren:ϕ ν=() TWM, 0 WM
  • Seite 42 und 43: - DCT: Spiegelung um [f j ] und per
  • Seite 44 und 45: Dabei ist ψ(t) als Basisfunktion z
  • Seite 46 und 47: Hinweise:• h/g: ideale Hoch- und
  • Seite 48 und 49: 3.4 Analytische Methoden3.4.1 Vorbe
  • Seite 50 und 51: Hauptachsentransformation ( ˆ= Opt
  • Seite 52 und 53:

    Annahme: Klassifizierte Stichprobe

  • Seite 54 und 55:

    Kapitel 4Numerische KlassifikationM

  • Seite 56 und 57:

    • Optimaler Klassifikator verwend

  • Seite 58 und 59:

    Definiert man:p(c) = (p 1 p(c|Ω 1

  • Seite 60 und 61:

    Wegen p z + p c + p f = 1 bedeutet

  • Seite 62 und 63:

    - Betrachtung von Kontext (z.B. Mar

  • Seite 64 und 65:

    man erhält:p(c|Ω k ) =1√(2πσ2

  • Seite 66 und 67:

    4.2.2 ParameterschätzungZiel: Best

  • Seite 68 und 69:

    • aber: Erwartungen über Ausprä

  • Seite 70 und 71:

    Parameterschätzung für Modelle mi

  • Seite 72 und 73:

    Für Mischverteilungen (Anzahl Basi

  • Seite 74 und 75:

    Nicht-parametrische Verfahren versu

  • Seite 76 und 77:

    • Rechteckfenster• Gauß-Funkti

  • Seite 78 und 79:

    4.4 Support Vector Maschinen (SVMs)

  • Seite 80 und 81:

    - Im Gegensatz dazu: V eumso kleine

  • Seite 82 und 83:

    ⎛ ⎞α 1⎜mit α = ⎝ .α k⎟

  • Seite 84 und 85:

    Einsetzen in Einschränkungsgleichu

  • Seite 86 und 87:

    Resultierende Lagrange-Gleichung:L(

  • Seite 88 und 89:

    Einschub: Skalarprodukte transformi

  • Seite 90 und 91:

    ⇒ Realisierung von Klassifikatore

  • Seite 92 und 93:

    • (einer oder mehreren) verborgen

  • Seite 94 und 95:

    Allerdings: AbleitungWir definieren

  • Seite 96 und 97:

    Satz 4.10 Ein MLP erlaubt1. Die Def

  • Seite 98 und 99:

    4.6 Hidden-Markov-ModelleZiel: Stat

  • Seite 100 und 101:

    ⇒ kontinuierliche HMMs (continuou

  • Seite 102 und 103:

    ) für jeden Pfad s die Produktions

  • Seite 104 und 105:

    Hinweis: s ∗ ist i.a. nicht einde

  • Seite 106 und 107:

    ¥©Forward-Backward-AlgorithmusMan

  • Seite 108 und 109:

    • (Startwahrscheinlichkeiten anal

  • Seite 110 und 111:

    ⇒ zur einfacheren Repräsentation

  • Seite 112 und 113:

    2. Für eine beliebige, feste Stich

  • Seite 114 und 115:

    Bagging[Bootstrap aggregation]Idee:

  • Seite 116 und 117:

    Literaturverzeichnis[Bän02] W. Bä

  • Seite 118 und 119:

    Anhang AErgänzungenA.1 Sequential

  • Seite 120 und 121:

    Variablenauswahl: Bestimmung der α

  • Seite 122 und 123:

    Abbildung 1: Handschriftlich ausgef

  • Seite 124 und 125:

    22. Januar 2013 123Abbildung 3: Fer

  • Seite 126 und 127:

    22. Januar 2013 125Abbildung 5: Ein

  • Seite 128 und 129:

    22. Januar 2013 127Abbildung 7: Mö

  • Seite 130 und 131:

    Abbildung 9: Beispiele für einfach

  • Seite 132 und 133:

    22. Januar 2013 131Abbildung 11: Be

  • Seite 134 und 135:

    22. Januar 2013 133Abbildung 13: Ab

  • Seite 136 und 137:

    Abbildung 15: Rekonstruktion einer

  • Seite 138 und 139:

    f2f2,maxb2,νf2,minKodebuch Bν b

  • Seite 140 und 141:

    Geg.: Trainingsmenge ω = { ϱ f|ϱ

  • Seite 142 und 143:

    22. Januar 2013 141Abbildung 21: Gr

  • Seite 144 und 145:

    22. Januar 2013 143Abbildung 23: Be

  • Seite 146 und 147:

    22. Januar 2013 145Abbildung 25: Di

  • Seite 148 und 149:

    Abbildung 27: Abtastung im 2-Dimens

  • Seite 150 und 151:

    Abbildung 29: Berechnungsschema der

  • Seite 152 und 153:

    22. Januar 2013 151Abbildung 31: Ch

  • Seite 154 und 155:

    22. Januar 2013 153Abbildung 33: Ve

  • Seite 156 und 157:

    22. Januar 2013 155Abbildung 35: Sp

  • Seite 158 und 159:

    Abbildung 37: Die Haar-Funktionen

  • Seite 160 und 161:

    22. Januar 2013 159Abbildung 39: Au

  • Seite 162 und 163:

    22. Januar 2013 161Abbildung 41: Te

  • Seite 164 und 165:

    202015151010550-5 0 5 10 15 20 25-2

  • Seite 166 und 167:

    30302525202015151010550-20 -15 -10

  • Seite 168 und 169:

    Abbildung 47: Einstellung der Rück

  • Seite 170 und 171:

    22. Januar 2013 169Abbildung 49: St

  • Seite 172 und 173:

    λu1(c)...Unterscheidungsfunktioncu

  • Seite 174 und 175:

    Abbildung 53: VC-Dimension orientie

  • Seite 176 und 177:

    22. Januar 2013 175Abbildung 55: XO

  • Seite 178 und 179:

    22. Januar 2013 177Abbildung 57: Ko

  • Seite 180 und 181:

    . . . . . . . . .f (L)1 f (L)f (L)i

  • Seite 182 und 183:

    to be completedAbbildung 61: Strukt

  • Seite 184 und 185:

    Man definiert:γ t (i) = P (S t = i

  • Seite 186 und 187:

    possiblelearning systems--a) b) c)-

  • Seite 188:

    • Gegeben ist eine Trainingmenge

Skriptum zur Vorlesung “Mustererkennung” - Pattern Recognition
Mustererkennung - Prinzipien, Methoden ... - Gernot A. Fink
Audiobasierte Impulslokalisierung und -erkennung ... - Gernot A. Fink
Audiobasierte Impulslokalisierung und -erkennung ... - Gernot A. Fink
Secure Candle - Klassifikation akustischer ... - Gernot A. Fink
DETEKTION HANDSCHRIFTLICHER TEXTE IN ... - Gernot A. Fink
Faltungsnetzwerke zur Gesichtsdetektion unter ... - Gernot A. Fink
Unüberwachtes Lernen von Handschriftstilen - Gernot A. Fink - TU ...
Approximative Indoor-Lokalisierung von RFID ... - Gernot A. Fink
Rechnerarchitektur SS 2012 - Gernot A. Fink - TU Dortmund
Skriptum für die Vorlesungen Methoden der Sozialwissenschaften
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik ...
Skriptum zur Vorlesung Dünnschichtchromatographie
Rechnerarchitektur SS 2012 - Gernot A. Fink - TU Dortmund
Mensch und Maschine verbinden - Gernot A. Fink - TU Dortmund
Rechnerarchitektur SS 2012 - Cluster - Gernot A. Fink - TU Dortmund
Rechnerarchitektur SS 2012 - Gernot A. Fink - TU Dortmund
Rechnerarchitektur SS 2012 - Gernot A. Fink - TU Dortmund
Skriptum für die Vorlesungen Statistik I und II 2006/2007
Skriptum für die Vorlesungen Statistik I und II 2009/2010
Finanzmanagement Skriptum zur Vorlesung
Skriptum zur Vorlesung Stahlbau
Skriptum zur Vorlesung (PDF) - Klaus Betzler - Universität Osnabrück
Skriptum zur Vorlesung Kapitalmarkttheorie - Universität Passau