Projektgruppe Visual Analytics - Medieninformatik und Multimedia ...
Projektgruppe Visual Analytics - Medieninformatik und Multimedia ...
Projektgruppe Visual Analytics - Medieninformatik und Multimedia ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
3.2 Mustererkennung <strong>und</strong> Protokolle 49<br />
Der Code der Touchlib ist im Großen <strong>und</strong> Ganzen relativ verständlich <strong>und</strong> überschaubar.<br />
Teilweise gibt es jedoch auch Code der vollkommen unkommentiert ist, <strong>und</strong> dessen<br />
Funktion nicht ohne weiteres nachvollzogen werden kann. Ein Beispiel hierfür stellt<br />
die Umsetzung der Blob-Verfolgung dar. Auf Effizienz wurde bei der Umsetzung<br />
nicht immer geachtet, so wird beispielsweise Bubblesort eingesetzt um Blobs, die<br />
sich in einem früheren Frame bef<strong>und</strong>en haben, nach ihrer Entfernung zu einem<br />
Blob aus dem aktuellen Frame zu sortieren. Aufgr<strong>und</strong> dieser Mängel erhält die<br />
Touchlib eine negative Bewertung für ihre Codequalität. Der ursprüngliche Mangel<br />
an Programmdokumentation wird übrigens seit kurzem zum Teil behoben, denn<br />
mittlerweile hat ein Mitglied der NUI-Group ein Doxygen-Projekt für die Touchlib<br />
angelegt [Moo08].<br />
Community Core Vision<br />
Am 22.10.2008 wurde Tbeta ([NGC08b]) als Nachfolger der Touchlib veröffentlicht.<br />
Kurze Zeit später wurde das Projekt unter dem Namen Community Core Vision (CCV)<br />
fortgesetzt. Die Verwendung des Programms ist ähnlich wie bei der Touchlib geblieben.<br />
Bisher wird die Verfolgung von Fiducials nicht unterstützt. Community Core Vision<br />
setzt auf eine einfachere Benutzungsoberfläche, welche intuitiver zu bedienen ist, als<br />
es beim Vorgänger der Fall war. Auch der Funktionsumfang wurde erweitert, unter<br />
anderem um einstellbare Filter, die z. B. auch einen dynamischen Backgro<strong>und</strong> Remove<br />
umfassen. Wie bereits der Backgro<strong>und</strong> Remove Filter der Touchlib entfernt dieser den<br />
Hintergr<strong>und</strong> aus dem Bild, der immer gleich ist. Dies ist in CCV jedoch auch dynamisch<br />
möglich, wodurch sich beispielsweise die Lichtverhältnisse während des Betriebs leicht<br />
ändern können, ohne dass die Blob Detection beeinträchtigt wird. Zudem können weitere<br />
Filter als Module eingefügt werden. Zusätzlich wird Unterstützung geboten, indem das<br />
Kamerabild horizontal oder vertikal gespiegelt werden kann. Auch die Kalibrierung<br />
wurde gegenüber dem Vorgänger stark verbessert (vgl. [NGC08b]).<br />
ReacTIVision<br />
ReacTIVision 6 wurde an der Universität Pompeu Fabra in Barcelona entwickelt. Dort<br />
dient es zur Mustererkennung für den sogenannten reacTable. Dieser multitouch-fähige<br />
Tisch ist ein Synthesizer, bei dem jegliche Kontrollmöglichkeit über eine Multitouch-<br />
Eingabefläche realisiert worden ist. Die unzähligen Dreh- <strong>und</strong> Schieberegler eines<br />
gewöhnlichen Synthesizers werden in diesem Fall durch Tangibles ersetzt. Daher liegt<br />
der Schwerpunkt der Mustererkennung von ReacTIVision in der Unterscheidung <strong>und</strong><br />
Verfolgung dieser Tangibles. Aber auch Finger werden als Eingabercursor erkannt. Im<br />
6 http://mtg.upf.es/reactable/software, zuletzt besucht: 20.09.2009