21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

390 KAPITEL 4. NUMERISCHE KLASSIFIKATION (VK.2.3.3, 07.09.2005)<br />

Bild 4.5.4: Das Bild zeigt oben ein Sprachsignal, in der Mitte das Laryngograph Anregungssignal,<br />

unten das mit einem MLP rekonstruierte Anregungssignal (aus [Denzler, 1992])<br />

man mit der ersten Schicht eine Menge <strong>von</strong> Hyperebenen realisiert und mit der Nichtlinearität<br />

festlegt, auf welcher Seite der Hyperebene sich ein Muster befindet. In der zweiten Schicht<br />

werden Hyperebenen durch logisches UND zu einem konvexen Gebiet zusammengefasst, und<br />

in der dritten (bei Bedarf) mehrere konvexe Gebiete durch logisches ODER zu einem mehrfach<br />

zusammenhängenden Klassengebiet. Da die Zahl der Hyperebenen beliebig ist, kann man so beliebig<br />

viele mehrfach zusammenhängende Klassengebiete definieren. Für die Verwendung des<br />

MLP zur Approximation <strong>von</strong> Funktionen spricht, dass die Sigmoid Funktion – im Unterschied<br />

z. B. zu Polynomen – für betragsmäßig große Werte des Arguments nicht gegen Unendlich geht.<br />

Ein Beispiel für eine „Funktionsinversion“ zeigt Bild 4.5.4. Es handelt sich dabei um die<br />

Schätzung der sprecherunabhängigen inversen Abbildung eines Sprachsignals auf das Anregungssignal<br />

der Stimmbänder bei stimmhafter Sprache. Dieses ist nützlich für die Bestimmung<br />

der Sprachgrundfrequenz. Hier ist die Eingabe des neuronalen Netzes ein Sprachsignal und die<br />

gewünschte Ausgabe das mit einem Laryngographen gemessene Anregungssignal, das durch<br />

die tatsächlich beobachtete Ausgabe approximiert wird. Ein Netz wurde mit verschiedenen<br />

Sprachsignalen trainiert und dann mit Sprachsignalen getestet, die nicht in der Trainingsmenge<br />

enthalten waren. Man entnimmt der Abbildung, dass das Anregungssignal sehr gut durch das<br />

neuronale Netz approximiert wird.<br />

Von einem MLP mit zwei verborgenen Schichten lässt sich zeigen, dass es eine Stichprobe<br />

ω = {(c, t)}, c ∈ R n , t ∈ R m vom Umfang N mit sehr kleinem Fehler lernen kann, wenn das<br />

Netz in der ersten verborgenen Schicht L1 = (m + 2)N + 2 N/(m + 2), in der zweiten<br />

L2 = m N/(m + 2) Neuronen hat sowie m Ausgabeneuronen hat. Für Einzelheiten wird auf<br />

die Literatur verwiesen.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!