09.02.2013 Aufrufe

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

32 2.3 Verfahren zur Koordination reaktiver Verhalten<br />

Command Fusion−Mechanismus<br />

Verhalten 1<br />

Verhalten 2<br />

Verhalten n<br />

Abbildung 2.19: Ansatz der Command Fusion-Mechanismen<br />

Context of Applicability assoziiert, das den Grad der Anwendbarkeit in einer bestimmten Situation<br />

vorgibt. Dieses Vorgehen entspricht einer gewichteten Koordinierung und damit der Bestimmung der<br />

Matrix G. Alternativ schlägt Bonarini [BILM03] vor, die Voraussetzung für die Aktivierungen von<br />

Verhalten und die Ziele von jedem Verhalten in zwei Regelsätzen darzustellen. Aus der Regelbasis der<br />

Voraussetzung werden diejenigen Verhalten aktiviert, deren Zugehörigkeitswert über einem Schwellenwert<br />

liegt. Ihre Ausgaben werden entsprechend der Regelbasis der Ziele gewichtet und interpoliert.<br />

Ähnliche Ansätze sind in [Has96], [PM99] und [ZK99] präsentiert.<br />

Neben der beschriebenen statischen Festlegung von Regeln sollte ein intelligenter Agent in der Lage<br />

sein, die Verhaltensselektion und -fusion zu erlernen. Eine Möglichkeit dies zu tun ist der Übergang zu<br />

so genannten Neurofuzzy Systemen [vA93], [NODP01]. Durch Rückführung des Fehlers zwischen<br />

Ist- und Sollausgabe während der Trainigsphase wird die Anpassung der Gewichte der Neuronen<br />

und dadurch die Anpassung der Parameter des Fuzzy Logik Systems ermöglicht. Eine Alternative zu<br />

Neurofuzzy bieten genetische Algorithmen, wie in [TLJ97].<br />

Die Verhaltenskoordinierung mit Hilfe von Fuzzy-Regeln erlaubt es, mehrere Zielsetzungen zugleich<br />

zu verfolgen. Für die gewünschte Bewegung brauchen die Verhalten keinen exakten Wert anzugeben,<br />

sondern können einen unscharfen Bereich vorschlagen und so dem Verhaltensselektor mehr Freiheit<br />

bei der Koordinierung geben. Jedoch können bei der Defuzzifizierung unerwünschte Effekte auftreten.<br />

Da das Training auf Basis von neuronalen Netzen erfolgt, ist es nicht möglich, ein trainiertes Netz<br />

nachträglich zu erweitern, ohne es neu zu trainieren. Deshalb hat bisher kein Fuzzy-based Ansatz<br />

Anwendung auf einem mobilen Manipulator gefunden.<br />

Voting-based Ansätze<br />

Bei Voting-based Ansätzen gibt jedes Verhalten, abhängig vom Zustand der Umgebung und dem Ziel<br />

des Gesamtsystems, eine Stimme zugunsten einer Aktion aus der Gesamtmenge der möglichen Aktionen<br />

ab. Die verteilten Stimmen werden als Gewichte zur Interpolation benutzt, um die auszuführende<br />

Aktion zu berechnen. In diesem Rahmen setzen Peterson und Kragic [PAKC00], [KC00], [KPC02]<br />

einen Voting-Mechanismus zum Verfolgen von Bildmerkmalen ein und Zalama et al. [ZGPP02] präsentiert<br />

eine Architektur mit mehreren Kohonen Netzen zum Erlernen der Verhaltenskoordination.<br />

Ein charakteristisches Beispiel eines Voting-based Mechanismus ist die Distributed Architecture for<br />

Mobile Navigation (DAMN) [Ros95]. Hier weist der so genannte Mode Manager jedem Verhalten eine<br />

Priorität zu, die von der Gesamtsituation und dem übergeordneten Ziel abhängt. Der Voter sammelt<br />

+

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!