DWH-und-KDD--VL-18 - Informationssysteme - Universität Oldenburg
DWH-und-KDD--VL-18 - Informationssysteme - Universität Oldenburg
DWH-und-KDD--VL-18 - Informationssysteme - Universität Oldenburg
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Data Warehousing <strong>und</strong><br />
Knowledge Discovery in Databases<br />
Klassifikation VII<br />
Wintersemester 2003/2004<br />
<strong>18</strong><br />
Frank Köster<br />
<strong>Universität</strong> <strong>Oldenburg</strong><br />
Fachbereich Informatik<br />
Abteilung <strong>Informationssysteme</strong><br />
Escherweg 2<br />
26121 <strong>Oldenburg</strong><br />
eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de<br />
<strong>18</strong>
GLIEDERUNG FÜR HEUTE …<br />
→ Organisatorisches<br />
→ Einleitung – Data Warehousing <strong>und</strong> Knowledge Discovery in Databases<br />
→ Data Warehousing: erste Anschauung, Begriffe <strong>und</strong> Historie …<br />
→ Knowledge Discovery in Databases: Gr<strong>und</strong>lagen <strong>und</strong> Begriffe …<br />
→ DWS-Referenzarchitektur<br />
→ DWS-Entwicklungsprozess<br />
– sehr kurz (eine Folie!)<br />
→ Multidimensionales Datenmodell<br />
→ Extraktion • Transformation • Laden<br />
→ Metadaten <strong>und</strong> Datenqualität<br />
Data Warehousing<br />
→ Konzepte temporaler Datenbanken im DWS-Kontext (Arne Harren – OFFIS)<br />
→ Überleitung zum Knowledge Discovery in Databases I & II<br />
→ Exploration von Daten<br />
→ <strong>KDD</strong>-Prozesse<br />
→ Data Mining – Gr<strong>und</strong>lagen<br />
→ Segmentierung I & II<br />
→ Klassifikation I, II, III, IV, V, VI & VII<br />
→ Entscheidungsbäume<br />
→ Regelmengen<br />
→ Modellqualität<br />
→ Bayes-Klassifikation<br />
→ Neuronale Netze I & II<br />
Knowledge Discovery in Databases<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 2<br />
<strong>18</strong>
KLASSIFIKATION VII …<br />
Was wird uns in dieser Vorlesung begegnen … ?<br />
Ziele<br />
Was ist Lernen?<br />
Klassifikation<br />
I,II, III, IV, V, VI &<br />
VII<br />
Anwendungsbeispiel<br />
Gr<strong>und</strong>legendes<br />
(Wiederholung)<br />
Entscheidungsbäume<br />
Regelmengen<br />
künstliche<br />
Neuronale Netze II<br />
Lernen<br />
Modellqualität<br />
Bayes-Klassifikation<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 3<br />
<strong>18</strong>
DATA MINING<br />
Fragestellungen, Aufgaben & Methoden<br />
Geschäftsprozess-Analyse <strong>und</strong> Fragestellung Zieldefinition <strong>und</strong> Modellwahl Modellparametrisierung <strong>und</strong> Modellanwendung<br />
Analyse sachlicher Verb<strong>und</strong>beziehungen<br />
bei<br />
Transaktionen – z.B.: Welche<br />
Produkte werden im Zusammenhang<br />
gekauft?<br />
Einteilung in homogene<br />
Gruppen – z.B.: Zusammenfassung<br />
von K<strong>und</strong>en mit<br />
ähnlichem Einkaufsverhalten.<br />
Profilierung, Modellierung<br />
<strong>und</strong> Regeldefinition –z.B.:<br />
Beurteilung von K<strong>und</strong>enverhalten.<br />
Vorhersage im Sinne der<br />
Ergänzung von fehlender<br />
Merkmalswerte – z.B.:<br />
Vorhersage des K<strong>und</strong>enverhaltens.<br />
Assoziationsanalyse<br />
Segmentierung<br />
Klassifikation<br />
Prognose<br />
Abweichungsanalyse<br />
Zeitreihenanalyse<br />
Entscheidungsbäume<br />
Regelmengen<br />
Bayes Klassiifikation<br />
künstliche Neuronale Netze<br />
k-nearest neighbor<br />
Fuzzy-Datenanalyse<br />
Evolutionäre Algorithmen<br />
Numerische Vorhersagen –<br />
Regression<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 4<br />
<strong>18</strong>
KLASSIFIKATION VII …<br />
Was wird uns in dieser Vorlesung begegnen … ?<br />
Ziele<br />
Was ist Lernen?<br />
Klassifikation<br />
I,II, III, IV, V, VI &<br />
VII<br />
Anwendungsbeispiel<br />
Gr<strong>und</strong>legendes<br />
(Wiederholung)<br />
Entscheidungsbäume<br />
Regelmengen<br />
künstliche<br />
Neuronale Netze II<br />
Lernen<br />
Modellqualität<br />
Bayes-Klassifikation<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 5<br />
<strong>18</strong>
DATA MINING<br />
Künstliche Neuronale Netze – Gr<strong>und</strong>legendes I/V<br />
→ Künstliche Neuronale Netze (kNN) stellen eine Möglichkeit dar,<br />
auch komplizierte Funktionen auf der Gr<strong>und</strong>lage recht einfacher (dafür<br />
meist sehr vieler <strong>und</strong> hochgradig vernetzter) Basis-Einheiten zu<br />
realisieren.<br />
→ Diese Darstellungen können anhand von Beispielen trainiert werden.<br />
→ Vorbild für kNN sind biologische Neuronale Netze (bNN)<br />
a i<br />
ii n-1<br />
ii n-2<br />
wi n<br />
wi n+1<br />
wi n+2<br />
wi n-1<br />
wi n-2<br />
Σ<br />
z<br />
S(z)<br />
oi<br />
ii n<br />
ii n+1<br />
ii n+2<br />
b<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 6<br />
<strong>18</strong>
DATA MINING<br />
Künstliche Neuronale Netze – Gr<strong>und</strong>legendes II/V<br />
→ Beispiele<br />
Binäre Ausgabefkt., Stufenfkt. oder<br />
auch Schwellenwertfkt.<br />
Sigmoide Ausgabefkt., Quetschfkt. oder<br />
auch Sigma-Fkt.<br />
Begrenzt Lineare Fkt., Rampenfkt. bzw.<br />
lineariesierte Stufenfkt.<br />
→ Weitere Beispiele<br />
→ Lineare Schwellenwertfunktion<br />
→ Lineare Ausgangsfunktion<br />
→ Stochastische Ausgangsfunktion<br />
→ Wettbewerbs-Ausgangsfunktion<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 7<br />
<strong>18</strong>
DATA MINING<br />
Künstliche Neuronale Netze – Gr<strong>und</strong>legendes III/V<br />
→ Organisation in Layern<br />
→ Input-Layer<br />
→ Hidden-layer (einer oder mehrere)<br />
→ Output-Layer<br />
Input-Layer Hidden-Layer Output-Layer<br />
→ Gewichtsmatrix<br />
2 1<br />
0.2<br />
1.5<br />
1.5<br />
1.0<br />
1.5<br />
1.5<br />
5 4 3<br />
1.2<br />
0.3<br />
1.1<br />
0.4<br />
1.0<br />
8 7 6<br />
1<br />
2<br />
3<br />
4<br />
5<br />
6<br />
7<br />
1<br />
2<br />
3<br />
1,5<br />
0,2<br />
4<br />
1,5<br />
1,5<br />
5<br />
1,5<br />
1,0<br />
6<br />
1,2<br />
0,3<br />
7<br />
1,1<br />
0,4<br />
8<br />
1,0<br />
8<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 8<br />
<strong>18</strong>
DATA MINING<br />
Künstliche Neuronale Netze – Gr<strong>und</strong>legendes IV/V<br />
→ Ein kNN stellt einen gerichteten Graphen dar<br />
→ Die Kanten des Graphen sind zudem gewichtet <strong>und</strong> repräsentieren unterschiedlich<br />
starke Verbindungen zwischen den Neuronen des kNN<br />
→ Die Matrix zur Spezifikation der Verbindungen der Neuronen eines kNN<br />
untereinander wird als Gewichtsmatrix bezeichnet<br />
→ Meist werden die folgenden Topologien unterschieden …<br />
→ Feedforward-Netze (ff-Netze)<br />
→ ff-Netze 1. <strong>und</strong> 2. Ordnung<br />
→ Feedback-Netze (fb-Netze) – rekurrente Netze<br />
→ fb-Netze mit direkten Feedback<br />
→ fb-Netze mit indirektem Feedback<br />
→ fb-Netze mit Lateralverbindungen<br />
→ fb-Netze mit vollständiger Vermaschung<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 9<br />
<strong>18</strong>
DATA MINING<br />
Künstliche Neuronale Netze – Gr<strong>und</strong>legendes V/V<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 10<br />
<strong>18</strong><br />
→ Topologien – Übersicht<br />
ff-Netze 2. Ordnung<br />
fb-Netze mit<br />
indirektem Feedback<br />
fb-Netze mit<br />
vollständiger Vermaschung<br />
ff-Netze 1. Ordnung<br />
fb-Netze mit<br />
direktem Feedback<br />
fb-Netze mit<br />
lateralen Verbindungen
DATA MINING<br />
Künstliche Neuronale Netze – Lernen i.Allg. I/III<br />
→ Eine Lernregel ist eine Vorschrift, nach der ein kNN lernt<br />
→ Das Lernziel besteht gerade darin, für eine vorgegebene Eingabe eine<br />
gewünschte/passende Ausgabe zu erzeugen.<br />
→ Das Lernen erfolgt in Neuronalen Netzen dadurch, dass die Verbindungsgewichte<br />
solange geändert werden, bis das gewünschte Ausgangsmuster<br />
vom kNN generiert wird.<br />
→ Neben der Modifikation der Verbindungsgewichte basieren Lernstrategien<br />
gelegentlich auch auf dem Aufbauen <strong>und</strong> Löschen (bzw.<br />
Ausblenden) von Verbindungen <strong>und</strong> Neuronen sowie auf der Veränderung<br />
von Parametern innerhalb des Neurons.<br />
→ Prinzipiell wird nach überwachtem <strong>und</strong> unüberwachtem Lernen unterschieden<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 11<br />
<strong>18</strong>
DATA MINING<br />
Künstliche Neuronale Netze – Lernen i.Allg. II/III<br />
→ Überwachtes Lernen (supervised learning)<br />
→ Es wird ein Testvektor x p an den Eingang des kNN gelegt <strong>und</strong><br />
dessen Ausgangsvektor y mit dem korrespondierenden Sollvektor<br />
s p der Testdaten verglichen.<br />
→ Unter Verwendung der Lernregeln erfolgt mit dem Differenzvektor<br />
e=s-y die Bestimmung der Gewichtsänderungen ∆w.<br />
→ Dieser Vorgang wird solange wiederholt, bis e hinreichend bzw.<br />
wie gewünscht klein ist.<br />
Testdaten<br />
(x p<br />
,s p<br />
)<br />
s<br />
x<br />
Lernregel<br />
e<br />
+<br />
∆w<br />
w + ∆w<br />
kNN<br />
-y<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 12<br />
<strong>18</strong>
DATA MINING<br />
Künstliche Neuronale Netze – Lernen i.Allg. III/III<br />
→ Unüberwachtes Lernen (unsupervised learning)<br />
→ Beim unüberwachten Lernen erfolgt keine Konditionierung des<br />
kNN durch Minimierung des Antwortfehlers.<br />
→ Die Trainingsmenge besteht nur aus einer geringen Zahl von<br />
Mustervektoren. Der Lernalgorithmus versucht einen beliebigen<br />
Vektor einem der Mustervektoren zuzuordnen zu dem die größte<br />
Ähnlichkeit besteht.<br />
→ Nach Anlegen des zu klassifizierenden an die Eingänge des kNN<br />
werden die Neuronengewichte iterativ solange verändert, bis ein<br />
stabiler Zustand erreicht wird, der dann mit dem Mustervektor<br />
übereinstimmt, der ihm am ähnlichsten ist.<br />
→ Ziel dieses Verfahrens ist es eine Gruppenbildung (Cluster) ähnlicher<br />
Vektoren (Muster) zu erreichen.<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 13<br />
<strong>18</strong>
DATA MINING<br />
Künstliche Neuronale Netze – Überwachtes Lernen I/VIII<br />
→ Hebb‘sches Lernen I/II<br />
→ Die Hebb‘ sche Lernregel geht auf D. Hebb zurück. Sie basiert auf<br />
der Theorie, dass das die Funktion assoziativer Speichern in biologischen<br />
Systemen auf Prozessen basiert, welche die neuronalen<br />
Verbindungen zwischen den Nervenzellen verändern.<br />
→ Dieses Ende der 1940er Jahre formulierte Prinzip lässt sich auf<br />
einschichtige künstliche Neuronale Netze folgendermaßen anwenden:<br />
Wenn zwei miteinander verb<strong>und</strong>ene Neuronen n i <strong>und</strong> n j zur gleichen<br />
Zeit aktiv sind, so wird die Gewichtung ihrer Verbindung mit<br />
verstärkt.<br />
∆w ij = η·a i·o j<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 14<br />
<strong>18</strong>
DATA MINING<br />
Künstliche Neuronale Netze – Überwachtes Lernen II/VIII<br />
→ Hebb‘sches Lernen II/II<br />
→ Hierin ist ∆w ij die Veränderung des Verbindungsgewichtes von<br />
Neuron n i zu Neuron n j , a i die Aktivierung von Neuron n j , o i die<br />
Ausgabe von Neuron n i <strong>und</strong> η die Lernrate, die in geeigneter<br />
Weise einzustellen ist.<br />
→ Die Lernrate η bestimmt das Maß der Änderung des Verbindungsgewichts<br />
für einen Lernschritt.<br />
→ Die Hebb‘sche Lernregel erhalten wir, wenn in Abweichung vom<br />
neurophysiologischen Vorbild die tatsächlichen Ausgabewerte o j<br />
durch die Sollwerte s j ersetzt werden. Da ein einschichtiges kNN<br />
vorausgesetzt ist, lassen sich die Neuroneneingangswerte a i<br />
durch die Netzeingangswerte x i substituieren.<br />
∆w ij = η·x i·s j<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 15<br />
<strong>18</strong>
DATA MINING<br />
Künstliche Neuronale Netze – Überwachtes Lernen III/VIII<br />
→ Hebb‘sches Lernen – Beispiel I/V<br />
→ In der folgenden Beispielanwendung sollen mit der Hebb‘schen<br />
Lernregel die folgenden drei Ein-/Ausgabemuster gelernt<br />
werden:<br />
(x,s) = ( [+1,-1,+1,-1,+1,-1] , [+1,+1,-1,-1] )<br />
(x,s) = ( [+1,+1,+1,-1,-1,-1] , [+1,-1,+1,-1] )<br />
(x,s) = ( [-1,-1,+1,+1,-1,-1] , [+1,-1,-1,+1] )<br />
i=0 i=5<br />
Verbindungsgewichte w ij<br />
j=0 j=3<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 16<br />
<strong>18</strong>
DATA MINING<br />
Künstliche Neuronale Netze – Überwachtes Lernen IV/VIII<br />
→ Hebb‘sches Lernen – Beispiel II/V<br />
→ 1. Musterpaar:<br />
[+1,-1,+1,-1,+1,-1]<br />
i=0 i=5<br />
j=0 j=3<br />
w ij = 0; η = 1<br />
+1 -1 +1 -1 +1<br />
+1 -1 +1 -1 +1<br />
∆w ij = η·x i·s j<br />
-1 +1 -1 +1 -1 +1<br />
w ij ⇐ ∆w ij + w ij<br />
-1<br />
+1<br />
-1<br />
+1<br />
-1<br />
-1<br />
-1<br />
+1<br />
[+1,+1,-1,-1]<br />
-1<br />
+1 -1 +1 -1 +1 -1<br />
+1<br />
+1 -1 +1 -1 +1 -1<br />
-1<br />
-1 +1 -1 +1 -1 +1<br />
+1<br />
-1 +1 -1 +1 -1 +1<br />
-1<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 17<br />
+1<br />
a j<br />
o j<br />
+6<br />
+1<br />
+6<br />
+1<br />
-6<br />
-1<br />
-6<br />
-1<br />
= ⇒ f out (a j ,Θ j ) =<br />
<strong>18</strong>
DATA MINING<br />
Künstliche Neuronale Netze – Überwachtes Lernen V/VIII<br />
→ Hebb‘sches Lernen – Beispiel III/V<br />
→ 2. Musterpaar:<br />
[+1,+1,+1,-1,-1,-1]<br />
i=0 i=5<br />
j=0 j=3<br />
+1 -1 +1 -1 +1 -1<br />
+1 -1 +1 -1 +1 -1<br />
-1 +1 -1 +1 -1 +1<br />
∆w ij = η·x i·s j<br />
-1 +1 -1 +1 -1 +1<br />
w ij ⇐ ∆w ij + w ij<br />
+<br />
+1 +1 +1 -1 -1 -1<br />
-1 -1 -1 +1 +1 +1<br />
+1 +1 +1 -1 -1 -1<br />
-1 -1 -1 +1 +1 +1<br />
[+1,-1,+1,-1]<br />
+1<br />
+2 0 +2 -2 0 -2<br />
+1<br />
0 -2 0 0 +2 0<br />
-1<br />
0 +2 0 0 -2 0<br />
-1<br />
-2 0 -2 +2 0 +2<br />
-1<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de <strong>18</strong><br />
+1<br />
a j<br />
+6<br />
+1<br />
-4<br />
-1<br />
+4<br />
+1<br />
-8<br />
-1<br />
= ⇒ f out (a j ,Θ j ) =<br />
o j<br />
<strong>18</strong>
DATA MINING<br />
Künstliche Neuronale Netze – Überwachtes Lernen VI/VIII<br />
→ Hebb‘sches Lernen – Beispiel IV/V<br />
→ 3. Musterpaar:<br />
[-1,-1,+1,+1,-1,-1]<br />
i=0 i=5<br />
j=0 j=3<br />
[+1,-1,-1,+1]<br />
+1<br />
+1<br />
+1<br />
-3<br />
-1<br />
-1<br />
+3<br />
-1<br />
+3<br />
-1<br />
-1<br />
-1<br />
-1<br />
-1<br />
-1<br />
+3<br />
-1<br />
+3<br />
-1<br />
-1<br />
-3<br />
+1<br />
+1<br />
+1<br />
∆w ij = η·x i·s j<br />
w ij ⇐ ∆w ij + w ij<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 19<br />
-1<br />
-1<br />
+1<br />
+1<br />
-1<br />
-1<br />
+2<br />
-1<br />
+1<br />
+1<br />
-1<br />
-1<br />
+1<br />
+1<br />
-1<br />
a j<br />
+6<br />
+1<br />
-6<br />
-1<br />
-6<br />
-1<br />
+6<br />
+1<br />
= ⇒ f out (a j ,Θ j ) =<br />
0<br />
0<br />
-2<br />
0<br />
-2<br />
+2<br />
0<br />
+2<br />
0<br />
0<br />
-2<br />
0<br />
0<br />
0<br />
+2<br />
-2<br />
-2<br />
0<br />
0<br />
+2<br />
-2 +2 0<br />
o j<br />
+<br />
+1 +1 -1 -1<br />
-1 -1 +1 +1<br />
-1 -1 +1 +1<br />
+1 +1 -1 -1<br />
<strong>18</strong>
DATA MINING<br />
Künstliche Neuronale Netze – Überwachtes Lernen VII/VIII<br />
→ Hebb‘sches Lernen – Beispiel V/V<br />
→ Prüfen des 1. <strong>und</strong> 2. Musterpaars:<br />
1.<br />
+1<br />
+1<br />
+1<br />
-3<br />
-1<br />
-1<br />
+3<br />
-1<br />
+3<br />
-1<br />
-1<br />
-1<br />
-1<br />
-1<br />
-1<br />
+3<br />
-1<br />
+3<br />
-1<br />
-1<br />
-3<br />
+1<br />
+1<br />
+1<br />
+1<br />
-1<br />
+1<br />
-1<br />
+1<br />
-1<br />
a j<br />
o j<br />
+8<br />
+1<br />
+4<br />
+1<br />
-4<br />
-1<br />
-8<br />
-1<br />
= ⇒ f out (a j ,Θ j ) =<br />
2.<br />
+1<br />
+1<br />
+1<br />
-3<br />
-1<br />
-1<br />
+3<br />
-1<br />
+3<br />
-1<br />
-1<br />
-1<br />
-1<br />
-1<br />
-1<br />
+3<br />
-1<br />
+3<br />
-1<br />
-1<br />
-3<br />
+1<br />
+1<br />
+1<br />
+1<br />
+1<br />
+1<br />
-1<br />
-1<br />
-1<br />
a j<br />
o j<br />
+8<br />
+1<br />
-4<br />
-1<br />
+4<br />
+1<br />
-8<br />
-1<br />
= ⇒ f out (a j ,Θ j ) =<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 20<br />
<strong>18</strong>
DATA MINING<br />
Künstliche Neuronale Netze – Überwachtes Lernen VIII/VIII<br />
→ Delta-Lernregel<br />
→ Die von Widrow & Hoff entwickelte Delta-Lernregel ist für einstufige<br />
ff-Netze geeignet. Sie arbeitet nach dem folgenden<br />
Prinzip:<br />
→ Wird zur Trainingszeit eine Abweichung<br />
d j = s j -o j<br />
zwischen der Ziel- <strong>und</strong> der Sollausgabe eines Netzes festgestellt,<br />
so werden die Verbindungsgewichte zwischen<br />
den Neuronen n i <strong>und</strong> n j nach der Regel<br />
∆w ij = η·o j ·d j<br />
iterativ in Richtung des Sollwertes geändert.<br />
→ Der Algorithmus terminiert, wenn die Differenz d j ein<br />
lokales Minimum erreicht.<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 21<br />
<strong>18</strong>
LITERATUR<br />
M. Ester & J. Sander (2000). Knowledge Discovery in Databases – Techniken <strong>und</strong><br />
Anwendungen. Springer-Verlag.<br />
J. Han & M. Kamber (2000). Data Mining: Concepts and Techniques. Morgan<br />
Kaufmann.<br />
N. Hoffmann (1993). Neuronale Netze – kleines Handbuch. Vieweg Verlag.<br />
H. Ritter, T. Martinetz & K. Schulten (1991). Neuronale Netze – eine Einführung in<br />
die Neuroinformatik selbstorganisierender Netzwerke. 2. Auflage, Addison-<br />
Wesley.<br />
I.H. Witten & E. Frank (2001). Data Mining – Praktische Werkzeuge <strong>und</strong> Techniken<br />
für das maschinelle Lernen. Hanser.<br />
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 22<br />
<strong>18</strong>
Dr. Frank Köster · <strong>Universität</strong> <strong>Oldenburg</strong> · Department für Informatik · Abteilung <strong>Informationssysteme</strong> · Escherweg 2 · 26121 <strong>Oldenburg</strong> · eMail: Frank.Koester@Informatik.Uni-<strong>Oldenburg</strong>.de 23<br />
<strong>18</strong>