06.11.2013 Aufrufe

Schwarmintelligenz und evolutionäre Algorithmen in ...

Schwarmintelligenz und evolutionäre Algorithmen in ...

Schwarmintelligenz und evolutionäre Algorithmen in ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

2 Recommendersysteme<br />

s<strong>in</strong>d. Dieses Modell ist e<strong>in</strong> naiver Bayes’schen Klassifikator:<br />

Pr(C = u, r 1 · · · r n ) = Pr(C = u)<br />

n<br />

∏<br />

i=1<br />

Pr(r i |C = u)<br />

Der l<strong>in</strong>ke Teil der Formel beschreibt die Wahrsche<strong>in</strong>lichkeit, dass e<strong>in</strong> User u e<strong>in</strong>er Klasse C angehört<br />

<strong>und</strong> e<strong>in</strong> dazugehöriger kompletter Satz von Bewertungen. Die <strong>in</strong> Formel 2.6 benötigte<br />

Wahrsche<strong>in</strong>lichkeit lässt sich nun aus dieser Formel bestimmen. Die Parameter für den naiven<br />

Bayes-Klassifikator, Pr(U = u) <strong>und</strong> Pr(r i |C = u), werden mit e<strong>in</strong>em Tra<strong>in</strong><strong>in</strong>gsdatensatz<br />

geschätzt.<br />

Der zweite Modell, basiert auf Bayes’schen Netzen. Dabei ist jedes Item e<strong>in</strong> Knoten <strong>in</strong> e<strong>in</strong>em<br />

Bayes’schen Netz <strong>und</strong> der Zustand jedes Knoten entspricht den möglichen Werten der Bewertungsskala<br />

für jedes Item. Es wird auf e<strong>in</strong>em Tra<strong>in</strong><strong>in</strong>gsdatensatz e<strong>in</strong> Algorithmus für das<br />

Lernen von Bayes’schen Netzen angewandt [14]. Im daraus resultierenden Netz hat jedes Item<br />

die Knoten als Eltern, die die besten Vorhersagen über die Bewertung dieses Items treffen. E<strong>in</strong><br />

Problem bei diesem Verfahren ist, dass e<strong>in</strong> User nur <strong>in</strong> genau e<strong>in</strong> Cluster e<strong>in</strong>geteilt werden<br />

kann [1]. Es ist aber möglich, dass e<strong>in</strong> User sich für zwei vollkommen andere Themengebiete<br />

gleich <strong>in</strong>teressiert <strong>und</strong> e<strong>in</strong>e solche E<strong>in</strong>teilung daher problematisch ist.<br />

2.5.4 Latent Factor Models<br />

Latent Factor Models schließen aus dem Bewertungsmuster der Benutzer per Lernverfahren auf<br />

mehrere Faktoren (ab ca. 20 bis über 100), die die Items <strong>und</strong> die User charakterisieren. Jedes<br />

Item <strong>und</strong> jeder User wird über e<strong>in</strong>en Vektor charakterisiert, der diese Faktoren enthält. Jeder<br />

Faktor e<strong>in</strong>es Items beschreibt dessen Eigenschaften, für den Fall von Filmen beispielsweise<br />

Faktoren wie Menge an Action, Tiefe der Charaktere, Comedy vs. Drama, Eignung für K<strong>in</strong>der<br />

oder auch Faktoren, die direkt gar nicht vorherzusagen s<strong>in</strong>d. Für den Benutzer misst jeder<br />

Faktor den Grad, wie sehr dieser an den entsprechenden Eigenschaften <strong>in</strong>teressiert ist.<br />

E<strong>in</strong>e mögliche Durchführung von Latent Factor Models ist die Matrixfaktorisierung, die jedes<br />

Item <strong>und</strong> jeden Benutzer als Vektor von Faktoren darstellt [41]. E<strong>in</strong>e hohe Ähnlichkeit der<br />

beiden Vektoren führt zu e<strong>in</strong>er Empfehlung. Viele Recommendersysteme arbeiten auf expliziten<br />

Bewertungen von anderen Items, beispielsweise wenn die Benutzer konkrete Werte<br />

für e<strong>in</strong> Item auf e<strong>in</strong>er Skala von 1 bis 5 abgeben. Dies führt zu e<strong>in</strong>er sehr spärlich gefüllten<br />

User-Item-Matrix, da die meisten Benutzer im Vergleich zur gesamten Anzahl an Items<br />

nur sehr wenige bewertet haben. Der Vorteil der Matrixfaktorisierung ist, dass auch implizite<br />

Bewertungen bzw. Präferenzen der Benutzer <strong>in</strong> das Modell mit e<strong>in</strong>fließen können [41]. Dies<br />

wären z.B. D<strong>in</strong>ge wie die Art der besuchten Seiten e<strong>in</strong>er Webseite, Muster bei der Suche, das<br />

Kaufverhalten der Benutzer, etc.<br />

Die Matrixfaktorisierung bildet Items <strong>und</strong> Benutzer <strong>in</strong> e<strong>in</strong>en geme<strong>in</strong>samen latent factor Merkmalsraum<br />

ab, so dass man die Geme<strong>in</strong>samkeiten zwischen Items <strong>und</strong> Benutzern als Skalarprodukt<br />

der jeweiligen Vektoren beschreiben kann [39]. Die geschätzte Bewertung ˆr von<br />

16

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!