2 Suchverfahren 2. sofortiges Aussterben 3. determ<strong>in</strong>istische o<strong>der</strong> zufällige Abän<strong>der</strong>ung des Individuums <strong>in</strong> e<strong>in</strong> erlaubtes E<strong>in</strong>e beispielhafte Verän<strong>der</strong>ung e<strong>in</strong>er Population für das 5-Damenproblem, wobei <strong>die</strong> Population nur aus 1-2 Elementen besteht: Population {[3, 2, 1, 4, 5]} Fitness ϕ([3, 2, 1, 4, 5]) = 4 Mutationen [3, 2, 1, 4, 5] → [5, 2, 1, 4, 3]; [3, 2, 1, 4, 5] → [3, 4, 1, 2, 5] Population {[5, 2, 1, 4, 3], [3, 4, 1, 2, 5]} Bewertung ϕ([5, 2, 1, 4, 3]) = 6, ϕ([3, 4, 1, 2, 5]) = 6 Mutationen [3, 4, 1, 2, 5] → [2, 5, 1, 4, 3], [5, 2, 1, 4, 3] → [5, 2, 4, 1, 3] Population {[5, 2, 1, 4, 3], [3, 4, 1, 2, 5], [2, 5, 1, 4, 3], [5, 2, 4, 1, 3]} Bewertung ϕ([2, 5, 1, 4, 3]) = 8, ϕ([5, 2, 4, 1, 3]) = 10 Selektion {[2, 5, 1, 4, 3], [5, 2, 4, 1, 3]} Die Ko<strong>die</strong>rung [5, 2, 4, 1, 3] ist e<strong>in</strong>e Lösung. Re<strong>in</strong>e Mutationsverän<strong>der</strong>ungen s<strong>in</strong>d analog zu Bergsteigen und Best-First. 2.5.2.1 Bemerkungen zu evolutionären Algorithmen: Wesentliche Unterschiede zu Standardsuchverfahren • Evolutionäre Algorithmen benutzen Co<strong>die</strong>rungen <strong>der</strong> Lösungen • Evolutionäre Algorithmen benutzen e<strong>in</strong>e Suche, <strong>die</strong> parallel ist und auf e<strong>in</strong>er Menge von Lösungen basiert. • Evolutionäre Algorithmen benutzen nur <strong>die</strong> Zielfunktion zum Optimieren • Evolutionäre Algorithmen benutzen probabilistische Übergangsregeln. Der Suchraum wird durchkämmt mit stochastischen <strong>Methoden</strong>. E<strong>in</strong>e gute Ko<strong>die</strong>rung erfor<strong>der</strong>t annähernde Stetigkeit. D.h. es sollte e<strong>in</strong>en annähernd stetigen Zusammenhang zwischen Bitfolge und Fitnessfunktion geben. D.h. optimale Lösungen s<strong>in</strong>d nicht s<strong>in</strong>guläre Punkte, son<strong>der</strong>n man kann sie durch Herantasten über gute, suboptimale Lösungen erreichen. Damit Crossover zur Optimierung wesentlich beiträgt, muss es e<strong>in</strong>en (vorher meist unbekannten) Zusammenhang geben zwischen Teilfolgen <strong>in</strong> <strong>der</strong> Ko<strong>die</strong>rung (Gene) und <strong>der</strong>en Zusammenwirken bei <strong>der</strong> Fitnessfunktion. Es muss so etwas wie „gute Gene “geben, <strong>der</strong>en Auswirkung auf <strong>die</strong> Fitness e<strong>in</strong>es Individuums sich ebenfalls als gut erweist. Bauste<strong>in</strong>-Hypothese (Goldberg, 1989) (zur Begründung des Crossover) (Build<strong>in</strong>g block hypothesis) Genetische Algorithmen verwenden e<strong>in</strong>fache Chromosomenbauste<strong>in</strong>e und sammeln und mischen <strong>die</strong>se um <strong>die</strong> eigene Fitness zu optimieren. Stand: 19. Oktober 2012 74 M. Schmidt-Schauß & D. Sabel, Skript KI, WS 2012/13
2.5 Evolutionäre (Genetische) Algorithmen Hypothese: das Zusammenmischen vieler guter (kle<strong>in</strong>er) Bauste<strong>in</strong>e ergibt das fitteste Individuum 2.5.2.2 Parameter e<strong>in</strong>er Implementierung Es gibt viele Varianten und Parameter, <strong>die</strong> man bei genetischen/evolutionären Algorithmen verän<strong>der</strong>n kann. • Welche Operatoren werden verwendet? (Mutation, Crossover, ...) • Welche Wahrsche<strong>in</strong>lichkeiten werden <strong>in</strong> den Operatoren verwendet? Wahrsche<strong>in</strong>lichkeit e<strong>in</strong>er Mutation, usw. • Welcher Zusammenhang soll zwischen Fitnessfunktion und Selektionswahrsche<strong>in</strong>lichkeit bestehen? • Wie groß ist <strong>die</strong> Population? Je größer, desto breiter ist <strong>die</strong> Suche angelegt, allerd<strong>in</strong>gs dauert es dann auch länger. • Werden Individuen ersetzt o<strong>der</strong> dürfen sie weiterleben? • Gibt es Kopien von Individuen <strong>in</strong> <strong>der</strong> Population? • ... 2.5.3 Statistische Analyse von Genetischen Algorithmen Vere<strong>in</strong>fachende Annahme: Fitness = Wahrsche<strong>in</strong>lichkeit, dass e<strong>in</strong> Individuum 1 Nachkommen <strong>in</strong> <strong>der</strong> nächsten Generation hat. Es soll <strong>die</strong> Frage untersucht werden: „wie wächst <strong>die</strong> Häufigkeit e<strong>in</strong>zelner Gene?“ von Generation zu Generation? D.h. wie ist <strong>die</strong> „genetische Drift“? Sei S <strong>die</strong> Menge <strong>der</strong> Individuen, <strong>die</strong> e<strong>in</strong> bestimmtes Gen G enthält. Die „Schema-theorie“ stellt <strong>die</strong>se mittels e<strong>in</strong>es Schemas dar: z.B. durch [∗ ∗ ∗ ∗ 1 0 1 0 1 ∗ ∗ ∗ ∗]. Die Folge 1 0 1 0 1 <strong>in</strong> <strong>der</strong> Mitte kann man als geme<strong>in</strong>sames Gen <strong>der</strong> Unterpopulation S ansehen. Die ebenfalls vere<strong>in</strong>fachende Annahme ist, dass das Gen vererbt wird: <strong>die</strong> Wahrsche<strong>in</strong>lichkeit <strong>der</strong> Zerstörung muss ger<strong>in</strong>g se<strong>in</strong>. Sei p() <strong>die</strong> Fitnessfunktion (und Wahrsche<strong>in</strong>lichkeit für Nachkommen), wobei man <strong>die</strong>se auch auf Mengen anwenden darf, und <strong>in</strong> <strong>die</strong>sem Fall <strong>die</strong> Fitness aller Individuen summiert wird. Sei V <strong>die</strong> Gesamtpopulation. Der Erwartungswert <strong>der</strong> Anzahl <strong>der</strong> Nachkommen aus <strong>der</strong> Menge S ist, wenn man annimmt, dass |V | mal unabhängig e<strong>in</strong> Nachkomme ermittelt wird. p(s 1 ) ∗ |V | + . . . + p(s |S| ) ∗ |V | = p(S) ∗ |V | M. Schmidt-Schauß & D. Sabel, Skript KI, WS 2012/13 75 Stand: 19. Oktober 2012
- Seite 1 und 2:
Einführung in die Methoden der Kü
- Seite 3 und 4:
Inhaltsverzeichnis 2.1.4 Prozeduren
- Seite 5 und 6:
Inhaltsverzeichnis 5.4.2.1 Lexikon
- Seite 7 und 8:
1 Einleitung 1.1 Themen und Literat
- Seite 9 und 10:
1.2 Was ist Künstliche Intelligenz
- Seite 11 und 12:
1.2 Was ist Künstliche Intelligenz
- Seite 13 und 14:
1.3 Philosophische Aspekte • Auto
- Seite 15 und 16:
1.3 Philosophische Aspekte durch Ge
- Seite 17 und 18:
1.4 KI-Paradigmen Die technische Hy
- Seite 19 und 20:
1.5 Bemerkungen zur Geschichte zur
- Seite 21 und 22:
1.6 Intelligente Agenten Agent Sens
- Seite 23 und 24:
1.6 Intelligente Agenten • Die ak
- Seite 25 und 26:
1.6 Intelligente Agenten Diese Besc
- Seite 27 und 28:
2 Suchverfahren 2.1 Algorithmische
- Seite 29 und 30: 2.1 Algorithmische Suche 1. Dame A-
- Seite 31 und 32: 2.1 Algorithmische Suche kommt, und
- Seite 33 und 34: 2.1 Algorithmische Suche 2.1.4 Proz
- Seite 35 und 36: 2.1 Algorithmische Suche Beachte, d
- Seite 37 und 38: 2.1 Algorithmische Suche bfs goal s
- Seite 39 und 40: 2.1 Algorithmische Suche Bemerkung
- Seite 41 und 42: 2.2 Informierte Suche, Heuristische
- Seite 43 und 44: 2.2 Informierte Suche, Heuristische
- Seite 45 und 46: 2.2 Informierte Suche, Heuristische
- Seite 47 und 48: 2.3 A ∗ -Algorithmus • Baum-Suc
- Seite 49 und 50: 2.3 A ∗ -Algorithmus Z S Rechnet
- Seite 51 und 52: 2.3 A ∗ -Algorithmus Dabei gehen
- Seite 53 und 54: 2.3 A ∗ -Algorithmus • Der Knot
- Seite 55 und 56: 2.3 A ∗ -Algorithmus dann nennt m
- Seite 57 und 58: 2.3 A ∗ -Algorithmus Beispiel 2.3
- Seite 59 und 60: 2.4 Suche in Spielbäumen 2.4 Suche
- Seite 61 und 62: 2.4 Suche in Spielbäumen Algorithm
- Seite 63 und 64: 2.4 Suche in Spielbäumen baum ab e
- Seite 65 und 66: 2.4 Suche in Spielbäumen 2.4.1 Alp
- Seite 67 und 68: 2.4 Suche in Spielbäumen Suche die
- Seite 69 und 70: 2.4 Suche in Spielbäumen Aktualisi
- Seite 71 und 72: 2.4 Suche in Spielbäumen Im Falle
- Seite 73 und 74: 2.4 Suche in Spielbäumen Allerding
- Seite 75 und 76: 2.5 Evolutionäre (Genetische) Algo
- Seite 77 und 78: 2.5 Evolutionäre (Genetische) Algo
- Seite 79: 2.5 Evolutionäre (Genetische) Algo
- Seite 83 und 84: 2.5 Evolutionäre (Genetische) Algo
- Seite 85 und 86: 2.5 Evolutionäre (Genetische) Algo
- Seite 87 und 88: 3 Aussagenlogik In diesem Kapitel w
- Seite 89 und 90: 3.1 Syntax und Semantik der Aussage
- Seite 91 und 92: 3.2 Folgerungsbegriffe es keine bes
- Seite 93 und 94: 3.3 Tautologien und einige einfache
- Seite 95 und 96: 3.4 Normalformen sind, so dass Vert
- Seite 97 und 98: 3.5 Lineare CNF Beispiel 3.4.7. ((A
- Seite 99 und 100: 3.5 Lineare CNF Bemerkung 3.5.4. Se
- Seite 101 und 102: 3.6 Resolution für Aussagenlogik o
- Seite 103 und 104: 3.6 Resolution für Aussagenlogik T
- Seite 105 und 106: 3.7 DPLL-Verfahren 3.6.1.3 Subsumti
- Seite 107 und 108: 3.7 DPLL-Verfahren Das Entfernen de
- Seite 109 und 110: 3.7 DPLL-Verfahren Dies ergibt eine
- Seite 111 und 112: 3.7 DPLL-Verfahren höchstens einer
- Seite 113 und 114: 3.7 DPLL-Verfahren [[-4,-8,-15,5,-1
- Seite 115 und 116: 3.8 Modellierung von Problemen als
- Seite 117 und 118: 3.8 Modellierung von Problemen als
- Seite 119 und 120: 3.9 Tableaukalkül für Aussagenlog
- Seite 121 und 122: 3.9 Tableaukalkül für Aussagenlog
- Seite 123 und 124: 3.9 Tableaukalkül für Aussagenlog
- Seite 125 und 126: 3.9 Tableaukalkül für Aussagenlog
- Seite 127 und 128: 4 Prädikatenlogik 4.1 Syntax und S
- Seite 129 und 130: 4.1 Syntax und Semantik der Prädik
- Seite 131 und 132:
4.1 Syntax und Semantik der Prädik
- Seite 133 und 134:
4.1 Syntax und Semantik der Prädik
- Seite 135 und 136:
4.1 Syntax und Semantik der Prädik
- Seite 137 und 138:
4.1 Syntax und Semantik der Prädik
- Seite 139 und 140:
4.2 Resolution oder in Mengenschrei
- Seite 141 und 142:
4.2 Resolution Satz 4.2.3. Die Grun
- Seite 143 und 144:
4.2 Resolution Die Operation auf ei
- Seite 145 und 146:
4.2 Resolution 4.2.3 Unifikation Di
- Seite 147 und 148:
4.2 Resolution f(s 1 , . . . , s n
- Seite 149 und 150:
4.4 Löschregeln: Subsumtion, Tauto
- Seite 151 und 152:
4.4 Löschregeln: Subsumtion, Tauto
- Seite 153 und 154:
4.5 Optimierungen und Varianten der
- Seite 155 und 156:
4.5 Optimierungen und Varianten der
- Seite 157 und 158:
4.5 Optimierungen und Varianten der
- Seite 159 und 160:
5.1 Von der Resolution zum Logische
- Seite 161 und 162:
5.1 Von der Resolution zum Logische
- Seite 163 und 164:
5.2 Semantik von Hornklauselprogram
- Seite 165 und 166:
5.2 Semantik von Hornklauselprogram
- Seite 167 und 168:
5.3 Implementierung logischer Progr
- Seite 169 und 170:
5.3 Implementierung logischer Progr
- Seite 171 und 172:
5.3 Implementierung logischer Progr
- Seite 173 und 174:
5.3 Implementierung logischer Progr
- Seite 175 und 176:
5.3 Implementierung logischer Progr
- Seite 177 und 178:
5.3 Implementierung logischer Progr
- Seite 179 und 180:
5.3 Implementierung logischer Progr
- Seite 181 und 182:
5.3 Implementierung logischer Progr
- Seite 183 und 184:
5.3 Implementierung logischer Progr
- Seite 185 und 186:
5.3 Implementierung logischer Progr
- Seite 187 und 188:
5.3 Implementierung logischer Progr
- Seite 189 und 190:
5.4 Sprachverarbeitung und Parsen i
- Seite 191 und 192:
5.4 Sprachverarbeitung und Parsen i
- Seite 193 und 194:
5.4 Sprachverarbeitung und Parsen i
- Seite 195 und 196:
5.4 Sprachverarbeitung und Parsen i
- Seite 197 und 198:
5.4 Sprachverarbeitung und Parsen i
- Seite 199 und 200:
5.4 Sprachverarbeitung und Parsen i
- Seite 201 und 202:
6.1 Allens Zeitintervall-Logik A1:
- Seite 203 und 204:
6.1 Allens Zeitintervall-Logik A
- Seite 205 und 206:
6.2 Darstellung Allenscher Formeln
- Seite 207 und 208:
6.3 Der Allensche Kalkül ≺ ≻ d
- Seite 209 und 210:
6.3 Der Allensche Kalkül • A R A
- Seite 211 und 212:
6.4 Untersuchungen zum Kalkül 6.4
- Seite 213 und 214:
6.4 Untersuchungen zum Kalkül Algo
- Seite 215 und 216:
6.5 Unvollständigkeiten des Allens
- Seite 217 und 218:
6.6 Einge Analysen zur Implementier
- Seite 219 und 220:
6.7 Komplexität Sei eine Instanz g
- Seite 221 und 222:
6.8 Eine polynomielle und vollstän
- Seite 223 und 224:
7.1 Ursprünge Ein Beispiel ist das
- Seite 225 und 226:
7.2 Attributive Konzeptbeschreibung
- Seite 227 und 228:
7.2 Attributive Konzeptbeschreibung
- Seite 229 und 230:
7.2 Attributive Konzeptbeschreibung
- Seite 231 und 232:
7.2 Attributive Konzeptbeschreibung
- Seite 233 und 234:
7.2 Attributive Konzeptbeschreibung
- Seite 235 und 236:
7.3 T-Box und A-Box • SNOMED CT (
- Seite 237 und 238:
7.3 T-Box und A-Box Da diese T-Box
- Seite 239 und 240:
7.3 T-Box und A-Box Als Graph wobei
- Seite 241 und 242:
7.3 T-Box und A-Box kommt aus Huhn
- Seite 243 und 244:
7.3 T-Box und A-Box Dabei sind Pete
- Seite 245 und 246:
7.3 T-Box und A-Box wobei a i Indiv
- Seite 247 und 248:
7.4 Inferenzen in Beschreibungslogi
- Seite 249 und 250:
7.4 Inferenzen in Beschreibungslogi
- Seite 251 und 252:
7.4 Inferenzen in Beschreibungslogi
- Seite 253 und 254:
7.4 Inferenzen in Beschreibungslogi
- Seite 255 und 256:
7.4 Inferenzen in Beschreibungslogi
- Seite 257 und 258:
7.5 Erweiterungen, weitere Frageste
- Seite 259 und 260:
7.5 Erweiterungen, weitere Frageste
- Seite 261 und 262:
7.6 OWL - Die Web Ontology Language
- Seite 263 und 264:
7.6 OWL - Die Web Ontology Language
- Seite 265 und 266:
8.1 Einführung: Maschinelles Lerne
- Seite 267 und 268:
8.1 Einführung: Maschinelles Lerne
- Seite 269 und 270:
8.2 Wahrscheinlichkeit und Entropie
- Seite 271 und 272:
8.3 Lernen mit Entscheidungsbäumen
- Seite 273 und 274:
8.3 Lernen mit Entscheidungsbäumen
- Seite 275 und 276:
8.3 Lernen mit Entscheidungsbäumen
- Seite 277 und 278:
8.3 Lernen mit Entscheidungsbäumen
- Seite 279 und 280:
8.3 Lernen mit Entscheidungsbäumen
- Seite 281:
LITERATUR Russell, S. J. & Norvig,