20.11.2013 Aufrufe

DWH-und-KDD--VL-18 - Informationssysteme - Universität Oldenburg

DWH-und-KDD--VL-18 - Informationssysteme - Universität Oldenburg

DWH-und-KDD--VL-18 - Informationssysteme - Universität Oldenburg

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Data Warehousing <strong>und</strong><br />

Knowledge Discovery in Databases<br />

Klassifikation VII<br />

Wintersemester 2003/2004<br />

<strong>18</strong><br />

Frank Köster<br />

<strong>Universität</strong> <strong>Oldenburg</strong><br />

Fachbereich Informatik<br />

Abteilung <strong>Informationssysteme</strong><br />

Escherweg 2<br />

26121 <strong>Oldenburg</strong><br />

eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de<br />

<strong>18</strong>


GLIEDERUNG FÜR HEUTE …<br />

→ Organisatorisches<br />

→ Einleitung – Data Warehousing <strong>und</strong> Knowledge Discovery in Databases<br />

→ Data Warehousing: erste Anschauung, Begriffe <strong>und</strong> Historie …<br />

→ Knowledge Discovery in Databases: Gr<strong>und</strong>lagen <strong>und</strong> Begriffe …<br />

→ DWS-Referenzarchitektur<br />

→ DWS-Entwicklungsprozess<br />

– sehr kurz (eine Folie!)<br />

→ Multidimensionales Datenmodell<br />

→ Extraktion • Transformation • Laden<br />

→ Metadaten <strong>und</strong> Datenqualität<br />

Data Warehousing<br />

→ Konzepte temporaler Datenbanken im DWS-Kontext (Arne Harren – OFFIS)<br />

→ Überleitung zum Knowledge Discovery in Databases I & II<br />

→ Exploration von Daten<br />

→ <strong>KDD</strong>-Prozesse<br />

→ Data Mining – Gr<strong>und</strong>lagen<br />

→ Segmentierung I & II<br />

→ Klassifikation I, II, III, IV, V, VI & VII<br />

→ Entscheidungsbäume<br />

→ Regelmengen<br />

→ Modellqualität<br />

→ Bayes-Klassifikation<br />

→ Neuronale Netze I & II<br />

Knowledge Discovery in Databases<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 2<br />

<strong>18</strong>


KLASSIFIKATION VII …<br />

Was wird uns in dieser Vorlesung begegnen … ?<br />

Ziele<br />

Was ist Lernen?<br />

Klassifikation<br />

I,II, III, IV, V, VI &<br />

VII<br />

Anwendungsbeispiel<br />

Gr<strong>und</strong>legendes<br />

(Wiederholung)<br />

Entscheidungsbäume<br />

Regelmengen<br />

künstliche<br />

Neuronale Netze II<br />

Lernen<br />

Modellqualität<br />

Bayes-Klassifikation<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 3<br />

<strong>18</strong>


DATA MINING<br />

Fragestellungen, Aufgaben & Methoden<br />

Geschäftsprozess-Analyse <strong>und</strong> Fragestellung Zieldefinition <strong>und</strong> Modellwahl Modellparametrisierung <strong>und</strong> Modellanwendung<br />

Analyse sachlicher Verb<strong>und</strong>beziehungen<br />

bei<br />

Transaktionen – z.B.: Welche<br />

Produkte werden im Zusammenhang<br />

gekauft?<br />

Einteilung in homogene<br />

Gruppen – z.B.: Zusammenfassung<br />

von K<strong>und</strong>en mit<br />

ähnlichem Einkaufsverhalten.<br />

Profilierung, Modellierung<br />

<strong>und</strong> Regeldefinition –z.B.:<br />

Beurteilung von K<strong>und</strong>enverhalten.<br />

Vorhersage im Sinne der<br />

Ergänzung von fehlender<br />

Merkmalswerte – z.B.:<br />

Vorhersage des K<strong>und</strong>enverhaltens.<br />

Assoziationsanalyse<br />

Segmentierung<br />

Klassifikation<br />

Prognose<br />

Abweichungsanalyse<br />

Zeitreihenanalyse<br />

Entscheidungsbäume<br />

Regelmengen<br />

Bayes Klassiifikation<br />

künstliche Neuronale Netze<br />

k-nearest neighbor<br />

Fuzzy-Datenanalyse<br />

Evolutionäre Algorithmen<br />

Numerische Vorhersagen –<br />

Regression<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 4<br />

<strong>18</strong>


KLASSIFIKATION VII …<br />

Was wird uns in dieser Vorlesung begegnen … ?<br />

Ziele<br />

Was ist Lernen?<br />

Klassifikation<br />

I,II, III, IV, V, VI &<br />

VII<br />

Anwendungsbeispiel<br />

Gr<strong>und</strong>legendes<br />

(Wiederholung)<br />

Entscheidungsbäume<br />

Regelmengen<br />

künstliche<br />

Neuronale Netze II<br />

Lernen<br />

Modellqualität<br />

Bayes-Klassifikation<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 5<br />

<strong>18</strong>


DATA MINING<br />

Künstliche Neuronale Netze – Gr<strong>und</strong>legendes I/V<br />

→ Künstliche Neuronale Netze (kNN) stellen eine Möglichkeit dar,<br />

auch komplizierte Funktionen auf der Gr<strong>und</strong>lage recht einfacher (dafür<br />

meist sehr vieler <strong>und</strong> hochgradig vernetzter) Basis-Einheiten zu<br />

realisieren.<br />

→ Diese Darstellungen können anhand von Beispielen trainiert werden.<br />

→ Vorbild für kNN sind biologische Neuronale Netze (bNN)<br />

a i<br />

ii n-1<br />

ii n-2<br />

wi n<br />

wi n+1<br />

wi n+2<br />

wi n-1<br />

wi n-2<br />

Σ<br />

z<br />

S(z)<br />

oi<br />

ii n<br />

ii n+1<br />

ii n+2<br />

b<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 6<br />

<strong>18</strong>


DATA MINING<br />

Künstliche Neuronale Netze – Gr<strong>und</strong>legendes II/V<br />

→ Beispiele<br />

Binäre Ausgabefkt., Stufenfkt. oder<br />

auch Schwellenwertfkt.<br />

Sigmoide Ausgabefkt., Quetschfkt. oder<br />

auch Sigma-Fkt.<br />

Begrenzt Lineare Fkt., Rampenfkt. bzw.<br />

lineariesierte Stufenfkt.<br />

→ Weitere Beispiele<br />

→ Lineare Schwellenwertfunktion<br />

→ Lineare Ausgangsfunktion<br />

→ Stochastische Ausgangsfunktion<br />

→ Wettbewerbs-Ausgangsfunktion<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 7<br />

<strong>18</strong>


DATA MINING<br />

Künstliche Neuronale Netze – Gr<strong>und</strong>legendes III/V<br />

→ Organisation in Layern<br />

→ Input-Layer<br />

→ Hidden-layer (einer oder mehrere)<br />

→ Output-Layer<br />

Input-Layer Hidden-Layer Output-Layer<br />

→ Gewichtsmatrix<br />

2 1<br />

0.2<br />

1.5<br />

1.5<br />

1.0<br />

1.5<br />

1.5<br />

5 4 3<br />

1.2<br />

0.3<br />

1.1<br />

0.4<br />

1.0<br />

8 7 6<br />

1<br />

2<br />

3<br />

4<br />

5<br />

6<br />

7<br />

1<br />

2<br />

3<br />

1,5<br />

0,2<br />

4<br />

1,5<br />

1,5<br />

5<br />

1,5<br />

1,0<br />

6<br />

1,2<br />

0,3<br />

7<br />

1,1<br />

0,4<br />

8<br />

1,0<br />

8<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 8<br />

<strong>18</strong>


DATA MINING<br />

Künstliche Neuronale Netze – Gr<strong>und</strong>legendes IV/V<br />

→ Ein kNN stellt einen gerichteten Graphen dar<br />

→ Die Kanten des Graphen sind zudem gewichtet <strong>und</strong> repräsentieren unterschiedlich<br />

starke Verbindungen zwischen den Neuronen des kNN<br />

→ Die Matrix zur Spezifikation der Verbindungen der Neuronen eines kNN<br />

untereinander wird als Gewichtsmatrix bezeichnet<br />

→ Meist werden die folgenden Topologien unterschieden …<br />

→ Feedforward-Netze (ff-Netze)<br />

→ ff-Netze 1. <strong>und</strong> 2. Ordnung<br />

→ Feedback-Netze (fb-Netze) – rekurrente Netze<br />

→ fb-Netze mit direkten Feedback<br />

→ fb-Netze mit indirektem Feedback<br />

→ fb-Netze mit Lateralverbindungen<br />

→ fb-Netze mit vollständiger Vermaschung<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 9<br />

<strong>18</strong>


DATA MINING<br />

Künstliche Neuronale Netze – Gr<strong>und</strong>legendes V/V<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 10<br />

<strong>18</strong><br />

→ Topologien – Übersicht<br />

ff-Netze 2. Ordnung<br />

fb-Netze mit<br />

indirektem Feedback<br />

fb-Netze mit<br />

vollständiger Vermaschung<br />

ff-Netze 1. Ordnung<br />

fb-Netze mit<br />

direktem Feedback<br />

fb-Netze mit<br />

lateralen Verbindungen


DATA MINING<br />

Künstliche Neuronale Netze – Lernen i.Allg. I/III<br />

→ Eine Lernregel ist eine Vorschrift, nach der ein kNN lernt<br />

→ Das Lernziel besteht gerade darin, für eine vorgegebene Eingabe eine<br />

gewünschte/passende Ausgabe zu erzeugen.<br />

→ Das Lernen erfolgt in Neuronalen Netzen dadurch, dass die Verbindungsgewichte<br />

solange geändert werden, bis das gewünschte Ausgangsmuster<br />

vom kNN generiert wird.<br />

→ Neben der Modifikation der Verbindungsgewichte basieren Lernstrategien<br />

gelegentlich auch auf dem Aufbauen <strong>und</strong> Löschen (bzw.<br />

Ausblenden) von Verbindungen <strong>und</strong> Neuronen sowie auf der Veränderung<br />

von Parametern innerhalb des Neurons.<br />

→ Prinzipiell wird nach überwachtem <strong>und</strong> unüberwachtem Lernen unterschieden<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 11<br />

<strong>18</strong>


DATA MINING<br />

Künstliche Neuronale Netze – Lernen i.Allg. II/III<br />

→ Überwachtes Lernen (supervised learning)<br />

→ Es wird ein Testvektor x p an den Eingang des kNN gelegt <strong>und</strong><br />

dessen Ausgangsvektor y mit dem korrespondierenden Sollvektor<br />

s p der Testdaten verglichen.<br />

→ Unter Verwendung der Lernregeln erfolgt mit dem Differenzvektor<br />

e=s-y die Bestimmung der Gewichtsänderungen ∆w.<br />

→ Dieser Vorgang wird solange wiederholt, bis e hinreichend bzw.<br />

wie gewünscht klein ist.<br />

Testdaten<br />

(x p<br />

,s p<br />

)<br />

s<br />

x<br />

Lernregel<br />

e<br />

+<br />

∆w<br />

w + ∆w<br />

kNN<br />

-y<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 12<br />

<strong>18</strong>


DATA MINING<br />

Künstliche Neuronale Netze – Lernen i.Allg. III/III<br />

→ Unüberwachtes Lernen (unsupervised learning)<br />

→ Beim unüberwachten Lernen erfolgt keine Konditionierung des<br />

kNN durch Minimierung des Antwortfehlers.<br />

→ Die Trainingsmenge besteht nur aus einer geringen Zahl von<br />

Mustervektoren. Der Lernalgorithmus versucht einen beliebigen<br />

Vektor einem der Mustervektoren zuzuordnen zu dem die größte<br />

Ähnlichkeit besteht.<br />

→ Nach Anlegen des zu klassifizierenden an die Eingänge des kNN<br />

werden die Neuronengewichte iterativ solange verändert, bis ein<br />

stabiler Zustand erreicht wird, der dann mit dem Mustervektor<br />

übereinstimmt, der ihm am ähnlichsten ist.<br />

→ Ziel dieses Verfahrens ist es eine Gruppenbildung (Cluster) ähnlicher<br />

Vektoren (Muster) zu erreichen.<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 13<br />

<strong>18</strong>


DATA MINING<br />

Künstliche Neuronale Netze – Überwachtes Lernen I/VIII<br />

→ Hebb‘sches Lernen I/II<br />

→ Die Hebb‘ sche Lernregel geht auf D. Hebb zurück. Sie basiert auf<br />

der Theorie, dass das die Funktion assoziativer Speichern in biologischen<br />

Systemen auf Prozessen basiert, welche die neuronalen<br />

Verbindungen zwischen den Nervenzellen verändern.<br />

→ Dieses Ende der 1940er Jahre formulierte Prinzip lässt sich auf<br />

einschichtige künstliche Neuronale Netze folgendermaßen anwenden:<br />

Wenn zwei miteinander verb<strong>und</strong>ene Neuronen n i <strong>und</strong> n j zur gleichen<br />

Zeit aktiv sind, so wird die Gewichtung ihrer Verbindung mit<br />

verstärkt.<br />

∆w ij = η·a i·o j<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 14<br />

<strong>18</strong>


DATA MINING<br />

Künstliche Neuronale Netze – Überwachtes Lernen II/VIII<br />

→ Hebb‘sches Lernen II/II<br />

→ Hierin ist ∆w ij die Veränderung des Verbindungsgewichtes von<br />

Neuron n i zu Neuron n j , a i die Aktivierung von Neuron n j , o i die<br />

Ausgabe von Neuron n i <strong>und</strong> η die Lernrate, die in geeigneter<br />

Weise einzustellen ist.<br />

→ Die Lernrate η bestimmt das Maß der Änderung des Verbindungsgewichts<br />

für einen Lernschritt.<br />

→ Die Hebb‘sche Lernregel erhalten wir, wenn in Abweichung vom<br />

neurophysiologischen Vorbild die tatsächlichen Ausgabewerte o j<br />

durch die Sollwerte s j ersetzt werden. Da ein einschichtiges kNN<br />

vorausgesetzt ist, lassen sich die Neuroneneingangswerte a i<br />

durch die Netzeingangswerte x i substituieren.<br />

∆w ij = η·x i·s j<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 15<br />

<strong>18</strong>


DATA MINING<br />

Künstliche Neuronale Netze – Überwachtes Lernen III/VIII<br />

→ Hebb‘sches Lernen – Beispiel I/V<br />

→ In der folgenden Beispielanwendung sollen mit der Hebb‘schen<br />

Lernregel die folgenden drei Ein-/Ausgabemuster gelernt<br />

werden:<br />

(x,s) = ( [+1,-1,+1,-1,+1,-1] , [+1,+1,-1,-1] )<br />

(x,s) = ( [+1,+1,+1,-1,-1,-1] , [+1,-1,+1,-1] )<br />

(x,s) = ( [-1,-1,+1,+1,-1,-1] , [+1,-1,-1,+1] )<br />

i=0 i=5<br />

Verbindungsgewichte w ij<br />

j=0 j=3<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 16<br />

<strong>18</strong>


DATA MINING<br />

Künstliche Neuronale Netze – Überwachtes Lernen IV/VIII<br />

→ Hebb‘sches Lernen – Beispiel II/V<br />

→ 1. Musterpaar:<br />

[+1,-1,+1,-1,+1,-1]<br />

i=0 i=5<br />

j=0 j=3<br />

w ij = 0; η = 1<br />

+1 -1 +1 -1 +1<br />

+1 -1 +1 -1 +1<br />

∆w ij = η·x i·s j<br />

-1 +1 -1 +1 -1 +1<br />

w ij ⇐ ∆w ij + w ij<br />

-1<br />

+1<br />

-1<br />

+1<br />

-1<br />

-1<br />

-1<br />

+1<br />

[+1,+1,-1,-1]<br />

-1<br />

+1 -1 +1 -1 +1 -1<br />

+1<br />

+1 -1 +1 -1 +1 -1<br />

-1<br />

-1 +1 -1 +1 -1 +1<br />

+1<br />

-1 +1 -1 +1 -1 +1<br />

-1<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 17<br />

+1<br />

a j<br />

o j<br />

+6<br />

+1<br />

+6<br />

+1<br />

-6<br />

-1<br />

-6<br />

-1<br />

= ⇒ f out (a j ,Θ j ) =<br />

<strong>18</strong>


DATA MINING<br />

Künstliche Neuronale Netze – Überwachtes Lernen V/VIII<br />

→ Hebb‘sches Lernen – Beispiel III/V<br />

→ 2. Musterpaar:<br />

[+1,+1,+1,-1,-1,-1]<br />

i=0 i=5<br />

j=0 j=3<br />

+1 -1 +1 -1 +1 -1<br />

+1 -1 +1 -1 +1 -1<br />

-1 +1 -1 +1 -1 +1<br />

∆w ij = η·x i·s j<br />

-1 +1 -1 +1 -1 +1<br />

w ij ⇐ ∆w ij + w ij<br />

+<br />

+1 +1 +1 -1 -1 -1<br />

-1 -1 -1 +1 +1 +1<br />

+1 +1 +1 -1 -1 -1<br />

-1 -1 -1 +1 +1 +1<br />

[+1,-1,+1,-1]<br />

+1<br />

+2 0 +2 -2 0 -2<br />

+1<br />

0 -2 0 0 +2 0<br />

-1<br />

0 +2 0 0 -2 0<br />

-1<br />

-2 0 -2 +2 0 +2<br />

-1<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de <strong>18</strong><br />

+1<br />

a j<br />

+6<br />

+1<br />

-4<br />

-1<br />

+4<br />

+1<br />

-8<br />

-1<br />

= ⇒ f out (a j ,Θ j ) =<br />

o j<br />

<strong>18</strong>


DATA MINING<br />

Künstliche Neuronale Netze – Überwachtes Lernen VI/VIII<br />

→ Hebb‘sches Lernen – Beispiel IV/V<br />

→ 3. Musterpaar:<br />

[-1,-1,+1,+1,-1,-1]<br />

i=0 i=5<br />

j=0 j=3<br />

[+1,-1,-1,+1]<br />

+1<br />

+1<br />

+1<br />

-3<br />

-1<br />

-1<br />

+3<br />

-1<br />

+3<br />

-1<br />

-1<br />

-1<br />

-1<br />

-1<br />

-1<br />

+3<br />

-1<br />

+3<br />

-1<br />

-1<br />

-3<br />

+1<br />

+1<br />

+1<br />

∆w ij = η·x i·s j<br />

w ij ⇐ ∆w ij + w ij<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 19<br />

-1<br />

-1<br />

+1<br />

+1<br />

-1<br />

-1<br />

+2<br />

-1<br />

+1<br />

+1<br />

-1<br />

-1<br />

+1<br />

+1<br />

-1<br />

a j<br />

+6<br />

+1<br />

-6<br />

-1<br />

-6<br />

-1<br />

+6<br />

+1<br />

= ⇒ f out (a j ,Θ j ) =<br />

0<br />

0<br />

-2<br />

0<br />

-2<br />

+2<br />

0<br />

+2<br />

0<br />

0<br />

-2<br />

0<br />

0<br />

0<br />

+2<br />

-2<br />

-2<br />

0<br />

0<br />

+2<br />

-2 +2 0<br />

o j<br />

+<br />

+1 +1 -1 -1<br />

-1 -1 +1 +1<br />

-1 -1 +1 +1<br />

+1 +1 -1 -1<br />

<strong>18</strong>


DATA MINING<br />

Künstliche Neuronale Netze – Überwachtes Lernen VII/VIII<br />

→ Hebb‘sches Lernen – Beispiel V/V<br />

→ Prüfen des 1. <strong>und</strong> 2. Musterpaars:<br />

1.<br />

+1<br />

+1<br />

+1<br />

-3<br />

-1<br />

-1<br />

+3<br />

-1<br />

+3<br />

-1<br />

-1<br />

-1<br />

-1<br />

-1<br />

-1<br />

+3<br />

-1<br />

+3<br />

-1<br />

-1<br />

-3<br />

+1<br />

+1<br />

+1<br />

+1<br />

-1<br />

+1<br />

-1<br />

+1<br />

-1<br />

a j<br />

o j<br />

+8<br />

+1<br />

+4<br />

+1<br />

-4<br />

-1<br />

-8<br />

-1<br />

= ⇒ f out (a j ,Θ j ) =<br />

2.<br />

+1<br />

+1<br />

+1<br />

-3<br />

-1<br />

-1<br />

+3<br />

-1<br />

+3<br />

-1<br />

-1<br />

-1<br />

-1<br />

-1<br />

-1<br />

+3<br />

-1<br />

+3<br />

-1<br />

-1<br />

-3<br />

+1<br />

+1<br />

+1<br />

+1<br />

+1<br />

+1<br />

-1<br />

-1<br />

-1<br />

a j<br />

o j<br />

+8<br />

+1<br />

-4<br />

-1<br />

+4<br />

+1<br />

-8<br />

-1<br />

= ⇒ f out (a j ,Θ j ) =<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 20<br />

<strong>18</strong>


DATA MINING<br />

Künstliche Neuronale Netze – Überwachtes Lernen VIII/VIII<br />

→ Delta-Lernregel<br />

→ Die von Widrow & Hoff entwickelte Delta-Lernregel ist für einstufige<br />

ff-Netze geeignet. Sie arbeitet nach dem folgenden<br />

Prinzip:<br />

→ Wird zur Trainingszeit eine Abweichung<br />

d j = s j -o j<br />

zwischen der Ziel- <strong>und</strong> der Sollausgabe eines Netzes festgestellt,<br />

so werden die Verbindungsgewichte zwischen<br />

den Neuronen n i <strong>und</strong> n j nach der Regel<br />

∆w ij = η·o j ·d j<br />

iterativ in Richtung des Sollwertes geändert.<br />

→ Der Algorithmus terminiert, wenn die Differenz d j ein<br />

lokales Minimum erreicht.<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 21<br />

<strong>18</strong>


LITERATUR<br />

M. Ester & J. Sander (2000). Knowledge Discovery in Databases – Techniken <strong>und</strong><br />

Anwendungen. Springer-Verlag.<br />

J. Han & M. Kamber (2000). Data Mining: Concepts and Techniques. Morgan<br />

Kaufmann.<br />

N. Hoffmann (1993). Neuronale Netze – kleines Handbuch. Vieweg Verlag.<br />

H. Ritter, T. Martinetz & K. Schulten (1991). Neuronale Netze – eine Einführung in<br />

die Neuroinformatik selbstorganisierender Netzwerke. 2. Auflage, Addison-<br />

Wesley.<br />

I.H. Witten & E. Frank (2001). Data Mining – Praktische Werkzeuge <strong>und</strong> Techniken<br />

für das maschinelle Lernen. Hanser.<br />

Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 22<br />

<strong>18</strong>


Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 23<br />

<strong>18</strong>

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!