Künstliche Intelligenz fur ortsbasierte Dienste - Lehrstuhl für Mobile ...
Künstliche Intelligenz fur ortsbasierte Dienste - Lehrstuhl für Mobile ...
Künstliche Intelligenz fur ortsbasierte Dienste - Lehrstuhl für Mobile ...
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Es gibt verschiedene Ansätze und Methoden um Aktionen zu erkennen. Die meisten jedoch,<br />
wie beim Maschinenlernen üblich, nutzen die in Abschnitt 3 beschriebenen Methoden.<br />
Bestimmte High-Level-Aktivitäten anhand der Beobachtung von Low-Level-Aktivitäten<br />
zu erkennen, beschreibt die Arbeit von Blanke und Schiele (2009) [BS09]. Die Arbeit ist<br />
dabei hauptsächlich auf das Auswerten von Daten fokussiert. Hierbei kommen Boosting-<br />
Methoden zum Einsatz. Die Low-Level-Aktionen stellen in diesem Falle die schwachen<br />
Regeln dar, mithilfe derer eine Hypothese gefunden werden soll, die die High-Level-<br />
Aktivität beschreiben kann.<br />
Die Sensordaten auf die sie in ihrer Arbeit zurückgreifen repräsentieren Low-Level-Aktivitäten<br />
und deren Häufigkeit. Als ersten Schritt wenden sie auf die Sensordaten Unsupervised<br />
Learning-Methoden an um die Daten zu clustern. Damit können sie die Aktivitäten ihrem<br />
Aufkommen nach zusammenfassen. Diese werden dann zusätzlich in bestimmte Zeitfenster<br />
zusammengefasst, die dann als Input <strong>für</strong> das Boosting dienen. Sie versuchen hiermit<br />
die Aktivität anhand der in einem gewissen Zeitraum am häufigsten gemessenen Low-<br />
Level Aktionen festzustellen. In ihrer Arbeit stellen die Forscher fest, dass Joint Boosting<br />
in ihren Tests die Rechenleistung signifikant reduziert, da die schwachen Regeln klassenübergreifend<br />
geteilt werden können.<br />
Die Daten erfassen Blanke und Schiele (2009) über dreidimensionale Beschleunigungssensoren,<br />
welche die Probanden sieben Tage am Handgelenk und in ihrer Hosentasche<br />
trugen [BS09]. Dabei sollten die vier Routinen Abendessen, Pendeln, Mittagessen und<br />
Büroarbeiten erkannt werden. Diese sollten anhand von 34 gelabelten Low-Level-Aktionen,<br />
von denen 24 Teil der Routinen waren, erkannt werden. Zum Beispiel gehörten zur Routine<br />
Abendessen die Aktionen: Essen vorbereiten, Essen essen und Abwaschen. Sie kamen<br />
zu dem Schluss, dass diese Methode brauchbare Resultate liefert und, dass schon<br />
überraschend geringe Datenmengen zur Unterscheidung von Routinen wie Abendessen<br />
und Pendeln ausreichen.<br />
4.2 Aktionserkennung über Körper-Modell<br />
Im Gegensatz dazu legen Zinnen et al. (2009) ihren Fokus auf das Messen der Minimal-<br />
Aktionen [AZS09]. Sie stellen fest, dass mit den bisherigen Signal-basierten Methoden,<br />
wie der Messung mit Beschleunigungssensoren gerade kurze und seltene Bewegungen<br />
nur schwer erkannt werden können. Ihre Aktionserkennung basiert auf einem Modell des<br />
menschlichen Körpers und soll dadurch robuster sein, da die zu erkennenden Aktivitäten<br />
schließlich von Körperbewegungen abgeleitet sind. Neben den Körperbewegungen wie<br />
Hand heben, Körper drehen oder Arm drehen beziehen sie ebenfalls die Körperhaltung<br />
sowie Standortinformationen mit ein. Schließlich wollen sie ihre Methode anhand von<br />
Aktionen einer Autoinspektion wie Kofferraum öffnen oder Lack auf Kratzer untersuchen<br />
überprüfen.<br />
Sie plazieren dazu an mehreren Stellen des Körpers eines Probanden Sensoren. Während<br />
Beschleunigungssensoren nur Veränderungen in der Bewegung messen, also ob sich ein<br />
Sensor bewegt, können mit der Erfassung des ganzen Körpers absolute Bewegungen fest-