19.01.2015 Aufrufe

Projektgruppe Visual Analytics - Medieninformatik und Multimedia ...

Projektgruppe Visual Analytics - Medieninformatik und Multimedia ...

Projektgruppe Visual Analytics - Medieninformatik und Multimedia ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

3.2 Mustererkennung <strong>und</strong> Protokolle 49<br />

Der Code der Touchlib ist im Großen <strong>und</strong> Ganzen relativ verständlich <strong>und</strong> überschaubar.<br />

Teilweise gibt es jedoch auch Code der vollkommen unkommentiert ist, <strong>und</strong> dessen<br />

Funktion nicht ohne weiteres nachvollzogen werden kann. Ein Beispiel hierfür stellt<br />

die Umsetzung der Blob-Verfolgung dar. Auf Effizienz wurde bei der Umsetzung<br />

nicht immer geachtet, so wird beispielsweise Bubblesort eingesetzt um Blobs, die<br />

sich in einem früheren Frame bef<strong>und</strong>en haben, nach ihrer Entfernung zu einem<br />

Blob aus dem aktuellen Frame zu sortieren. Aufgr<strong>und</strong> dieser Mängel erhält die<br />

Touchlib eine negative Bewertung für ihre Codequalität. Der ursprüngliche Mangel<br />

an Programmdokumentation wird übrigens seit kurzem zum Teil behoben, denn<br />

mittlerweile hat ein Mitglied der NUI-Group ein Doxygen-Projekt für die Touchlib<br />

angelegt [Moo08].<br />

Community Core Vision<br />

Am 22.10.2008 wurde Tbeta ([NGC08b]) als Nachfolger der Touchlib veröffentlicht.<br />

Kurze Zeit später wurde das Projekt unter dem Namen Community Core Vision (CCV)<br />

fortgesetzt. Die Verwendung des Programms ist ähnlich wie bei der Touchlib geblieben.<br />

Bisher wird die Verfolgung von Fiducials nicht unterstützt. Community Core Vision<br />

setzt auf eine einfachere Benutzungsoberfläche, welche intuitiver zu bedienen ist, als<br />

es beim Vorgänger der Fall war. Auch der Funktionsumfang wurde erweitert, unter<br />

anderem um einstellbare Filter, die z. B. auch einen dynamischen Backgro<strong>und</strong> Remove<br />

umfassen. Wie bereits der Backgro<strong>und</strong> Remove Filter der Touchlib entfernt dieser den<br />

Hintergr<strong>und</strong> aus dem Bild, der immer gleich ist. Dies ist in CCV jedoch auch dynamisch<br />

möglich, wodurch sich beispielsweise die Lichtverhältnisse während des Betriebs leicht<br />

ändern können, ohne dass die Blob Detection beeinträchtigt wird. Zudem können weitere<br />

Filter als Module eingefügt werden. Zusätzlich wird Unterstützung geboten, indem das<br />

Kamerabild horizontal oder vertikal gespiegelt werden kann. Auch die Kalibrierung<br />

wurde gegenüber dem Vorgänger stark verbessert (vgl. [NGC08b]).<br />

ReacTIVision<br />

ReacTIVision 6 wurde an der Universität Pompeu Fabra in Barcelona entwickelt. Dort<br />

dient es zur Mustererkennung für den sogenannten reacTable. Dieser multitouch-fähige<br />

Tisch ist ein Synthesizer, bei dem jegliche Kontrollmöglichkeit über eine Multitouch-<br />

Eingabefläche realisiert worden ist. Die unzähligen Dreh- <strong>und</strong> Schieberegler eines<br />

gewöhnlichen Synthesizers werden in diesem Fall durch Tangibles ersetzt. Daher liegt<br />

der Schwerpunkt der Mustererkennung von ReacTIVision in der Unterscheidung <strong>und</strong><br />

Verfolgung dieser Tangibles. Aber auch Finger werden als Eingabercursor erkannt. Im<br />

6 http://mtg.upf.es/reactable/software, zuletzt besucht: 20.09.2009

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!