09.02.2013 Aufrufe

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

2.5 Virtuelle Realität und Robotik 41<br />

Start<br />

(a)<br />

Ziel<br />

(−)<br />

FO2<br />

FO1<br />

O1<br />

(−)<br />

F O2<br />

F Ziel<br />

F<br />

O3<br />

FZiel FO1<br />

F<br />

O3<br />

F O2<br />

FO3 F<br />

O2<br />

Abbildung 2.23: Subgoal Graphs (Probabilistic Roadmap) (links) und Potentialfelder (rechts).<br />

2.5 Virtuelle Realität und Robotik<br />

Der Einsatz von virtuellen Umgebungen ist in der Robotik immer mehr verbreitet. Sie dienen hauptsächlich<br />

zur Visualisierung und Teleoperation, wie in [BAH01] [HH00], [HHF + 95], [FD94], für die<br />

automatische Kinematik- und Aktionsplanung bzw. Simulation des Roboters [KBC + 02], [FR00],<br />

[GL02], [BBD + 00], [BAHK95] oder als Leitstand für das Aufgabenmanagement eines Roboters<br />

[Sch01], [HHF + 95], [STB99]. In diesen Fällen wird die virtuelle Umgebung benutzt, um die Roboterbewegungen<br />

und die Einsatzumgebung für einen Operateur zu visualisieren. Ansätze, die Aufnahmen<br />

von virtuellen Sensoren für die Robotersteuerung verwenden, sind eher Ausnahmefälle. Gracanin et<br />

al. [GVTM99] und Yeh et al. [YYW03] setzen z.B. simulierte abstandsmessende Sensoren ein, um<br />

das Navigationssystem von mobilen Robotern in einer virtuellen Umgebungen zu evaluieren bzw. zu<br />

erlernen.<br />

Virtuelle Umgebungen haben gegenüber 2D Simulationsumgebungen den großen Vorteil, dass sie<br />

die Simulation von virtuellen Kameras ermöglichen. Dies machen sich die optischen Lokalisierungsverfahren<br />

von Schmitt [Sch01] und Gracias [GSV01] zunutze. Sie vergleichen Aufnahmen virtueller<br />

Kameras aus einem Modell der Umgebung mit realen Aufnahmen, um die mit der Odometrie berechneten<br />

Roboterposition zu korrigieren.<br />

Einen Schritt weiter geht der Ansatz in [NRT95], der visuelle Information zur autonomen Steuerung<br />

von Avataren in einer virtuellen Umgebung einsetzt. Das Verfahren wird jedoch nicht in eine reale<br />

Umgebung transferiert. In eine ähnliche Richtung geht auch der Ansatz von Marchand [MC00],<br />

der Visual Servoing einsetzt, um die Bewegung einer freien Kamera in einer virtuellen Umgebung<br />

bezüglich eines im Bild sichtbaren Zieles zu steuern bzw. zu regeln. In diesem Ansatz kann die Kamera<br />

Hindernissen und Verdeckungen ausweichen. Da sie aber nicht auf einem Roboter montiert<br />

ist, werden keine Bild-Manipulator Transformationen berücksichtigt. Der Ansatz soll in Kinofilmen,<br />

Animationen und Spielen Einsatz finden und ist nur für Nutzung in virtuellen Umgebungen implementiert.<br />

Einsatz in einer realen Umgebung findet das Teleoperationsystem in [Nel01], das visuelles Feedback<br />

aus einer virtuellen Umgebung verwendet, um die Sollwerte für das Visual Servoing bei der Zielpositi-<br />

Start<br />

(b)<br />

F<br />

O1<br />

O2<br />

F<br />

Ziel<br />

(−)<br />

F O1<br />

FZiel<br />

F O3<br />

O3<br />

(−)<br />

FO1<br />

F Ziel<br />

Ziel<br />

(+)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!