04.03.2013 Aufrufe

Künstliche Intelligenz fur ortsbasierte Dienste - Lehrstuhl für Mobile ...

Künstliche Intelligenz fur ortsbasierte Dienste - Lehrstuhl für Mobile ...

Künstliche Intelligenz fur ortsbasierte Dienste - Lehrstuhl für Mobile ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Es gibt verschiedene Ansätze und Methoden um Aktionen zu erkennen. Die meisten jedoch,<br />

wie beim Maschinenlernen üblich, nutzen die in Abschnitt 3 beschriebenen Methoden.<br />

Bestimmte High-Level-Aktivitäten anhand der Beobachtung von Low-Level-Aktivitäten<br />

zu erkennen, beschreibt die Arbeit von Blanke und Schiele (2009) [BS09]. Die Arbeit ist<br />

dabei hauptsächlich auf das Auswerten von Daten fokussiert. Hierbei kommen Boosting-<br />

Methoden zum Einsatz. Die Low-Level-Aktionen stellen in diesem Falle die schwachen<br />

Regeln dar, mithilfe derer eine Hypothese gefunden werden soll, die die High-Level-<br />

Aktivität beschreiben kann.<br />

Die Sensordaten auf die sie in ihrer Arbeit zurückgreifen repräsentieren Low-Level-Aktivitäten<br />

und deren Häufigkeit. Als ersten Schritt wenden sie auf die Sensordaten Unsupervised<br />

Learning-Methoden an um die Daten zu clustern. Damit können sie die Aktivitäten ihrem<br />

Aufkommen nach zusammenfassen. Diese werden dann zusätzlich in bestimmte Zeitfenster<br />

zusammengefasst, die dann als Input <strong>für</strong> das Boosting dienen. Sie versuchen hiermit<br />

die Aktivität anhand der in einem gewissen Zeitraum am häufigsten gemessenen Low-<br />

Level Aktionen festzustellen. In ihrer Arbeit stellen die Forscher fest, dass Joint Boosting<br />

in ihren Tests die Rechenleistung signifikant reduziert, da die schwachen Regeln klassenübergreifend<br />

geteilt werden können.<br />

Die Daten erfassen Blanke und Schiele (2009) über dreidimensionale Beschleunigungssensoren,<br />

welche die Probanden sieben Tage am Handgelenk und in ihrer Hosentasche<br />

trugen [BS09]. Dabei sollten die vier Routinen Abendessen, Pendeln, Mittagessen und<br />

Büroarbeiten erkannt werden. Diese sollten anhand von 34 gelabelten Low-Level-Aktionen,<br />

von denen 24 Teil der Routinen waren, erkannt werden. Zum Beispiel gehörten zur Routine<br />

Abendessen die Aktionen: Essen vorbereiten, Essen essen und Abwaschen. Sie kamen<br />

zu dem Schluss, dass diese Methode brauchbare Resultate liefert und, dass schon<br />

überraschend geringe Datenmengen zur Unterscheidung von Routinen wie Abendessen<br />

und Pendeln ausreichen.<br />

4.2 Aktionserkennung über Körper-Modell<br />

Im Gegensatz dazu legen Zinnen et al. (2009) ihren Fokus auf das Messen der Minimal-<br />

Aktionen [AZS09]. Sie stellen fest, dass mit den bisherigen Signal-basierten Methoden,<br />

wie der Messung mit Beschleunigungssensoren gerade kurze und seltene Bewegungen<br />

nur schwer erkannt werden können. Ihre Aktionserkennung basiert auf einem Modell des<br />

menschlichen Körpers und soll dadurch robuster sein, da die zu erkennenden Aktivitäten<br />

schließlich von Körperbewegungen abgeleitet sind. Neben den Körperbewegungen wie<br />

Hand heben, Körper drehen oder Arm drehen beziehen sie ebenfalls die Körperhaltung<br />

sowie Standortinformationen mit ein. Schließlich wollen sie ihre Methode anhand von<br />

Aktionen einer Autoinspektion wie Kofferraum öffnen oder Lack auf Kratzer untersuchen<br />

überprüfen.<br />

Sie plazieren dazu an mehreren Stellen des Körpers eines Probanden Sensoren. Während<br />

Beschleunigungssensoren nur Veränderungen in der Bewegung messen, also ob sich ein<br />

Sensor bewegt, können mit der Erfassung des ganzen Körpers absolute Bewegungen fest-

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!