10.10.2013 Aufrufe

Kostenloser Download der gesamten Diplomarbeit - dotSource

Kostenloser Download der gesamten Diplomarbeit - dotSource

Kostenloser Download der gesamten Diplomarbeit - dotSource

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

KAPITEL 6. ZUSAMMENFASSUNG UND AUSBLICK 70<br />

Aussage getroffen werden kann. Im Gegensatz dazu hat Solr teilweise inadäquate Treffer<br />

ausgegeben o<strong>der</strong> relevante Dokumente ausgeschlossen, was durch die falsche bzw. unvollständige<br />

Konfiguration des Indexes erklärt werden kann.<br />

ImGesamtergebnis habenbeidePlattformen bezüglich <strong>der</strong>Anfor<strong>der</strong>ungenetwas zubieten.<br />

Wiegut dieeinzelnen Kriterien umgesetzt werden,kannaus <strong>der</strong>theoretischen Betrachtung<br />

heraus nicht klar gestellt werden. Zudem bestand die Hauptschwierigkeit darin, dass es zu<br />

FACT-Fin<strong>der</strong> kaum Informationen zu internen Abläufen gibt. Teilweise hätte die zusätzliche<br />

Information durch Tests einer praktischen Lösung validiert werden können. Was nur<br />

zum Teil durch die Integration und anschließenden Tests abgedeckt werden konnte. Für<br />

die vollständige Validierung von den Ergebnissen des theoretischen Vergleichs durch Tests<br />

einer praktischen Lösung war <strong>der</strong> zeitliche Rahmen dieser Arbeit nicht ausreichend.<br />

6.2 Ausblick<br />

Folgende Themen sind in Zusammenhang mit Suchplattformen sowie FACT-Fin<strong>der</strong> und<br />

Solr für weitere Betrachtungen von Interesse.<br />

Automatisierte Bewertung von Suchplattformen: Aus den Ergebnissen des praktischen<br />

Vergleichs resultiert die Anfor<strong>der</strong>ung nach einem Werkzeug, welches die Suchqualität<br />

automatisiert auswerten kann. Ein möglicher Ansatz ist, ein Test-System,<br />

welches aus dem Vergleich von Experten- und Suchmaschinenergebnis eine Bewertung<br />

für die Güte des Suchmaschinenergebnisses berechnet. Die Herausfor<strong>der</strong>ungen<br />

bestehen in <strong>der</strong> Aufstellung von Bewertungskriterien, welche die Suchqualität<br />

möglichst nah am menschlichen Beurteilungsverhalten beschreiben, <strong>der</strong> Beschaffung<br />

von Expertenergebnissen, welche qualitativ hochwertige Referenzwerte liefern, und<br />

<strong>der</strong> Implementierung des Prototypen, welcher die automatische Bewertung an konkreten<br />

Suchplattformen wie z.B. FACT-Fin<strong>der</strong> und Solr testet. In [Lew05] werden<br />

für die Qualitätsmessung bei Suchmaschinen Evaluationsmaße vorgestellt, welche als<br />

solche Bewertungskriterien verwendet werden können.<br />

Umfassen<strong>der</strong> Vergleich weiterer Plattformen: Neben dem Vergleich von Solr und<br />

FACT-Fin<strong>der</strong> gibt es die Möglichkeit weitere Suchplattformen anhand <strong>der</strong> im Kapitel<br />

3 gestellten Anfor<strong>der</strong>ungen gegenüberzustellen. Hierbei könnte ein umfassen<strong>der</strong><br />

Vergleich gleichzeitig mehrerer Suchplattformen insbeson<strong>der</strong>e aus <strong>der</strong> Sicht kleinerer<br />

Online-Shops interessant sein.<br />

Adaption <strong>der</strong> Implementierung auf Foren und Wikis: Die im Rahmen dieser Arbeit<br />

entstandene Implementierung kann auf weitere Komponenten ausgedehnt werden.<br />

Hierfür bieten sich Foren und Wikis an. Die Herausfor<strong>der</strong>ung könnte in <strong>der</strong><br />

Implementierung einer verallgemeinerten Herangehensweise liegen, wobei die Adoption<br />

für mehrere Ressourcen gleichzeitig durchgeführt wird.<br />

Volltextsuche in DBMS und IRS : Der Vergleich von DBMS und IRS im Bezug auf<br />

Freitextsuche wurde bereits im Abschnitt 5.3.4 erwähnt. Auf diesem Gebiet existieren<br />

zahlreiche Lösungen für DBMS-Produkte wie z.B. Oracle o<strong>der</strong> Microsoft SQL<br />

Server. Hierbei ist es interessant die Suchein Freitexten eines IRS mit <strong>der</strong> des DBMS<br />

zu vergleichen und auszuwerten. Die Evaluation für so einen Vergleich kann in einer<br />

praktischen Anwendung gefestigt werden.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!