14.01.2014 Aufrufe

Crawlen von GPX Dateien aus Sportstrecken ... - Userpage

Crawlen von GPX Dateien aus Sportstrecken ... - Userpage

Crawlen von GPX Dateien aus Sportstrecken ... - Userpage

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

11 Bewertung des Projektverlaufs Klingen, Dreßke<br />

11 Bewertung des Projektverlaufs<br />

Innerhalb des Projektverlaufs wurde <strong>von</strong> einer zunächst angedachten offline<br />

Anbindung eines Dumps des Datenbestandes <strong>von</strong> OpenStreetMap hin<br />

zu einer online Lösung gewechselt. Dadurch sind jederzeit die aktuellsten<br />

Daten der Datenquelle verfügbar, womit auf den wachsenden Datenbestand<br />

zugegriffen werden kann. Dadurch sind auch künftig eingepflegte Daten für<br />

das Projekt erschlossen. Leider war es nicht möglich, einen API-Key für das<br />

Strava-Projekt zu erhalten. Somit konnte diese Datenquelle nicht getestet<br />

werden. Jedoch wurde eine Anbindung hierzu mit Hilfe der API Dokumentation<br />

implementiert.<br />

12 Zusammenfassung<br />

Alle Anforderungen des Auftragsgebers wurden umgesetzt und konnten in<br />

einer Abschlusspräsentation demonstriert werden. Unter dem Punkt Literaturtests<br />

wurde gezeigt, dass der Crawler unter realistischen und praxisnahen<br />

Einsatzszenarios verwendbare und <strong>aus</strong>wertbare Daten sammelt, was<br />

die primäre Zielsetzung dieses Projektes dargestellt hat. Ebenso wird die<br />

Klassifikation <strong>von</strong> Streckendaten unterstützt, was eine Optimierung der Algorithmen<br />

zur Modellierung der weiterführenden Projekte ermöglicht.<br />

Auf Grundlage dessen kann <strong>von</strong> einer erfolgreichen Projektumsetzung gesprochen<br />

werden.<br />

13 Ausblick und mögliche Erweiterungen<br />

Es wurden zahlreiche externe Libraries in das Projekt eingebunden, was zur<br />

Folge hatte, dass die lauffähige Version des Crawlers eine etwas auffällige<br />

Größe erreicht hat (ca. 50MB). Dadurch ist ein etwas erhöhter Ressourcenverbrauch<br />

bei der Versionierung feststellbar gewesen. Es wäre denkbar, diesen<br />

Overhead zu reduzieren, indem möglicherweise auf einzelne Datenquellen<br />

verzichtet würde. Dies wäre durch Analyse der gelieferten Daten denkbar.<br />

Durch den Wegfall einzelner Libraries könnte die Applikation resourceneffizienter<br />

verwaltet werden.<br />

Darüber hin<strong>aus</strong> wäre eine Anbindung weiterer Datenquellen vorstellbar. Dies<br />

dazu notwendigen Überlegungen und implementationstechnischen Vorgehensweisen<br />

sind in der Kurzdokumentation näher <strong>aus</strong>geführt.<br />

10

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!