14.01.2013 Aufrufe

3D/6D-Visionsysteme und Lasermessverfahren in der Robotik und ...

3D/6D-Visionsysteme und Lasermessverfahren in der Robotik und ...

3D/6D-Visionsysteme und Lasermessverfahren in der Robotik und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

J. Wollnack<br />

Die heute überwiegend <strong>in</strong> <strong>der</strong> <strong>Robotik</strong> e<strong>in</strong>gesetzten<br />

„Teach“-Verfahren s<strong>in</strong>d wirtschaftlich<br />

attraktiv bei ausreichend großen Losgrößen.<br />

Sowohl bei ger<strong>in</strong>gen Losgrößen als auch nicht<br />

vernachlässigbaren Fertigungstoleranzen <strong>der</strong><br />

Objekte werden die technologisch <strong>und</strong> wirtschaftlichen<br />

Grenzen dieser Konzepte mehr <strong>und</strong><br />

mehr sichtbar. E<strong>in</strong>e erhöhte Produktflexibilität<br />

bei entsprechenden großen Fertigungstoleranzen<br />

letztlich bis h<strong>in</strong>unter zum Unikat macht e<strong>in</strong>e<br />

<strong>in</strong>dividuelle dreidimensionale Messung von<br />

Geometriemerkmalen nötig. Hierdurch können<br />

die E<strong>in</strong>satzbereiche bestehen<strong>der</strong> Industrieroboter<br />

<strong>in</strong> den verschiedenen Wirtschaftszweigen<br />

wirtschaftlich attraktiv teilweise auch zu Lasten<br />

von Son<strong>der</strong>masch<strong>in</strong>en erweitert werden.<br />

1 Problemstellung <strong>und</strong> Zielsetzung<br />

Flexibilität <strong>und</strong> Automatisierung gew<strong>in</strong>nen <strong>in</strong> <strong>der</strong> roboterunterstützten<br />

Fertigungs<strong>in</strong>dustrie zunehmend an Bedeutung.<br />

Die dreidimensionale videometrische Messung<br />

<strong>3D</strong>/<strong>6D</strong>-<strong>Visionsysteme</strong> <strong>und</strong><br />

<strong>Lasermessverfahren</strong> <strong>in</strong> <strong>der</strong><br />

<strong>Robotik</strong> <strong>und</strong><br />

Fertigungstechnik <strong>der</strong><br />

Luftfahrt<strong>in</strong>dustrie<br />

von geometrischen Merkmalen sowie die Messung von<br />

Positions- <strong>und</strong> Orientierungsdaten <strong>der</strong> Handhabungs<strong>und</strong><br />

Montageobjekte stellen auf diesem Weg mögliche Lösungen<br />

dar. Die heute verwendeten roboterunterstützten<br />

Fertigungs- <strong>und</strong> Montageanlagen können diesen Anfor<strong>der</strong>ungen<br />

h<strong>in</strong>sichtlich <strong>der</strong> Produktflexibilität nur bed<strong>in</strong>gt gerecht<br />

werden, da <strong>der</strong> systematische Posefehler (Pose steht<br />

für Position <strong>und</strong> Orientierung <strong>in</strong> <strong>6D</strong>) gegenüber <strong>der</strong> Wie<strong>der</strong>holgenauigkeit<br />

(Nur bei Teach-Prozessen nutzbar) zumeist<br />

um e<strong>in</strong>e Größenordnung schlechter ausfällt.<br />

Diese systematischen Posefehler von Masch<strong>in</strong>en <strong>und</strong> Industrierobotern<br />

werden ihrerseits durch verschiedene E<strong>in</strong>flussfaktoren<br />

bestimmt. Bei technisch wirtschaftlicher<br />

s<strong>in</strong>nvoller Auslegung liegt typischerweise die <strong>in</strong> Abb. 1<br />

gezeigte Rangordnung vor.<br />

Bei gegenüber den angestrebten Prozessgenauigkeiten<br />

nicht mehr vernachlässigbaren Fertigungstoleranzen <strong>der</strong><br />

Fertigungs- <strong>und</strong> Montageobjekte wird e<strong>in</strong>e <strong>in</strong>dividuelle<br />

sensorielle Poseführung <strong>der</strong> Masch<strong>in</strong>en <strong>und</strong> Roboter<br />

zw<strong>in</strong>gend se<strong>in</strong>, damit e<strong>in</strong>e letztlich am Unikat orientierte<br />

Adaption erfolgen kann (z.B. Schw<strong>und</strong> bei CFK-Werkstoffen,<br />

CFK steht für Carbon faserverstärkte Kunststoffe).<br />

Dies kann zumeist ohne e<strong>in</strong>e Systemkalibration<br />

wirtschaftlich nicht umgesetzt werden. E<strong>in</strong>er Systemkalibration<br />

umfasst mehrere physikalische Modelle, wie z.B.<br />

Sensor-, Roboter-, Greifer- <strong>und</strong> Bauteilmodelle.<br />

Abb. 1: Systematische Lagefehler<br />

AVN 5/2009 175


J. Wollnack – <strong>3D</strong>/<strong>6D</strong>-<strong>Visionsysteme</strong> <strong>und</strong> <strong>Lasermessverfahren</strong> <strong>in</strong> <strong>der</strong> <strong>Robotik</strong> <strong>und</strong> Fertigungstechnik <strong>der</strong> Luftfahrt<strong>in</strong>dustrie<br />

Die Genauigkeitsanfor<strong>der</strong>ungen <strong>in</strong> <strong>der</strong> <strong>Robotik</strong> <strong>und</strong> Flugzeugmontage<br />

erzw<strong>in</strong>gen <strong>in</strong>sbeson<strong>der</strong>e bei Weitw<strong>in</strong>kelobjektiven<br />

e<strong>in</strong>e Modellierung <strong>der</strong> L<strong>in</strong>senverzerrungen. Zudem<br />

s<strong>in</strong>d die Modelle dreidimensionaler videometrischer<br />

Messsysteme sensibel h<strong>in</strong>sichtlich numerischer Rangdefekte,<br />

was bei e<strong>in</strong>er nicht strukturierten hierarchischen<br />

Systemkalibrationsstrategie typischerweise nicht zu den<br />

angestrebten Genauigkeiten führt. Trotz dieser schwierigen<br />

Randbed<strong>in</strong>gungen lässt sich e<strong>in</strong>e vollautomatische<br />

Systemkalibration realisieren.<br />

In <strong>der</strong> Praxis werden hierfür preiswerte <strong>und</strong> robuste Lösungen<br />

benötigt, die marktgängige Kamerasysteme e<strong>in</strong>setzen.<br />

Das Verfahren muss zudem „werkergerecht“<br />

<strong>und</strong> e<strong>in</strong>fach bedienbar se<strong>in</strong>.<br />

2 Ansatz<br />

In <strong>der</strong> videometrisch geführten roboterunterstützen Fertigungs-<br />

<strong>und</strong> Montagetechnik s<strong>in</strong>d e<strong>in</strong>e Reihe von Koord<strong>in</strong>atensystemen<br />

<strong>und</strong> Modellen entsprechend Abb. 2 heranzuziehen.<br />

Für die <strong>3D</strong>-Videometrie werden Multikameramodelle<br />

bzw. Zweikameramodelle e<strong>in</strong>gesetzt. Das diesen<br />

Modellen zugr<strong>und</strong>e liegende Kameramodell basiert auf<br />

den Arbeiten von Tsai <strong>und</strong> Lenz [19]. Die Relationen zwischen<br />

den kartesischen Koord<strong>in</strong>atensystemen werden mittels<br />

homogenen Koord<strong>in</strong>atentransformationen mit sechs<br />

Freiheitsgraden <strong>der</strong> Pose beschrieben. Drei <strong>in</strong> <strong>der</strong> Position<br />

<strong>und</strong> drei <strong>in</strong> <strong>der</strong> Orientierung.<br />

Das Robotermodell sollte mittels Denavit-Hartenberg-<br />

Achsmodellen o<strong>der</strong> an<strong>der</strong>en je nach Achsübergang geeigneten<br />

Modellen charakterisiert werden [1, 6, 12, 15, 17,<br />

29, 30, 33]. Anstatt serieller lassen sich auch parallele<br />

K<strong>in</strong>ematiken e<strong>in</strong>setzen. Bei ihnen erfolgt die Kalibration<br />

jedoch über die k<strong>in</strong>ematische <strong>in</strong>verse Transformation.<br />

Ausgehend von <strong>der</strong> Problemstellung liegt somit folgende<br />

Situation vor:<br />

– <strong>3D</strong>-Kamerasystem unkalibriert (Zweikamerasystem)<br />

– Mess- zu TCP-KOS unbekannt (TCP: ¼ Tool Center<br />

Po<strong>in</strong>t, KOS: ¼ Koord<strong>in</strong>atensystem)<br />

– Greifer- zu TCP-KOS unbekannt<br />

– Objekt- zu Roboter-KOS unbekannt<br />

– Pose lokaler Objektmerkmale unbekannt (Fertigungstoleranzen)<br />

o<strong>der</strong> Pose des Objekt unbekannt<br />

– Robotersteuerung teil- o<strong>der</strong> unkalibriert<br />

Abb. 2: Sensor-Roboter-Weltmodell<br />

Unbekannt bzw. unkalibriert bedeutet <strong>in</strong> diesem Zusammenhang,<br />

dass die Parameter des Modells nicht mit <strong>der</strong><br />

erfor<strong>der</strong>lichen Genauigkeit aus konstruktiven Daten ableitbar<br />

s<strong>in</strong>d. Im Allgeme<strong>in</strong>en ist e<strong>in</strong>e Verr<strong>in</strong>gerung <strong>der</strong><br />

Fertigungstoleranzen sowohl technisch als auch wirtschaftlich<br />

nicht zielführend.<br />

Aus diesem Gr<strong>und</strong>e ist e<strong>in</strong>e Kalibration <strong>der</strong> parametrischen<br />

Modelle erfor<strong>der</strong>lich. Hierzu wird die nicht l<strong>in</strong>eare<br />

Parameteridentifikationsaufgabe als M<strong>in</strong>imierungsproblem<br />

formuliert. Die L<strong>in</strong>earisierung des vektoriellen Residuums<br />

führt unmittelbar auf das allgeme<strong>in</strong>e Newton-<br />

Verfahren. Die numerische Umsetzung dieses Algorithmus<br />

kann z.B. mit dem Powell-Verfahren geschehen<br />

[24, 25]. Diese Verfahren s<strong>in</strong>d jedoch so zu modifizieren,<br />

dass man über e<strong>in</strong>e Indextabelle auswählen kann, über<br />

welche Parameter die M<strong>in</strong>imierung vollzogen werden<br />

soll [33].<br />

Zu optimierende Parameter werden dabei mit (konstruktiven)<br />

Nom<strong>in</strong>alwerten o<strong>der</strong> mit Werten aus e<strong>in</strong>em vorherigen<br />

M<strong>in</strong>imierungslauf <strong>in</strong>itialisiert <strong>und</strong> nicht zu optimierende<br />

Parameter werden mit Nom<strong>in</strong>alwerten belegt.<br />

Dieses Konzept ermöglicht e<strong>in</strong>e strukturierte hierarchische<br />

Kalibration <strong>der</strong> Modelle. Man kann so schrittweise<br />

die Strukturen des Systemmodells erweitern <strong>und</strong> dieses<br />

hierarchisch kalibrieren. Die hierarchische Kalibration<br />

kommt dann zum E<strong>in</strong>satz, wenn nicht vollständige Modelle<br />

mit schlechter Kondition bzw. numerischen Rangdefekten<br />

vorliegen (Kamera-/Sensormodell). Man m<strong>in</strong>imiert<br />

hierbei zunächst die l<strong>in</strong>ear unabhängigen Parameter,<br />

die den größten E<strong>in</strong>fluss auf das Modellverhalten nehmen<br />

<strong>und</strong> gibt dann schrittweise weitere Parameter frei. Vollständige<br />

Modelle spielen hierbei letztlich e<strong>in</strong>e untergeordnete<br />

Rolle, da man nicht sämtliche (systematischen) physikalischen<br />

Effekte modellieren kann <strong>und</strong> deshalb pr<strong>in</strong>zipiell<br />

strukturelle Modellfehler vorliegen werden.<br />

Das F<strong>in</strong>den <strong>der</strong> erfolgreichen Strategie erfor<strong>der</strong>t e<strong>in</strong>e Mischung<br />

aus systematischem Vorgehen <strong>und</strong> heuristischem<br />

Ansatz. Man zieht hierbei sowohl das Wissen über die<br />

Modelle, die nach <strong>der</strong> Empf<strong>in</strong>dlichkeit geordneten Parameter<br />

<strong>und</strong> die SVD-Werte (S<strong>in</strong>gular-Value-Decomposition)<br />

<strong>der</strong> Jacobi-Matrix <strong>der</strong> Modellparameter als auch die<br />

gesammelte Erfahrung beim hierarchischen M<strong>in</strong>imieren<br />

zu Rate (Wichtige Parameter ohne Rangdefekte zuerst<br />

m<strong>in</strong>imieren, dann wichtige Parameter mit Rangdefekten<br />

zusätzlich m<strong>in</strong>imieren <strong>und</strong> folgend weitere Parameter<br />

nach <strong>der</strong> Signifikanz geordnet sukzessive <strong>in</strong> die M<strong>in</strong>imierung<br />

mit e<strong>in</strong>beziehen) [33]. Die erfolgreiche Strategie<br />

kann dann ohne weiteres auf e<strong>in</strong>e Serie von Systemen<br />

bzw. <strong>in</strong> <strong>der</strong> Praxis angewendet werden, so dass die <strong>in</strong>nere<br />

Problematik dem Anwen<strong>der</strong> verborgen bleiben kann.<br />

Variiert <strong>der</strong> Anwen<strong>der</strong> das Kalibrationsszenario, so kann<br />

man mit Hilfe <strong>der</strong> numerischen Ranguntersuchung feststellen,<br />

ob das modifizierte Szenarium zielführend ist<br />

o<strong>der</strong> nicht <strong>und</strong> vollautomatisch entsprechende H<strong>in</strong>weise<br />

geben<br />

3Stationäres Systemmodell<br />

Zur Beschreibung des <strong>3D</strong>-videometrischen Sensor-Roboter-Systems<br />

<strong>in</strong> e<strong>in</strong>er stationären Messpose muss das Ge-<br />

176 AVN 5/2009


samtsystem entsprechend Abb. 2 mathematisch beschrieben<br />

werden. Sowohl das Roboter- als auch Sensormodell<br />

lassen sich h<strong>in</strong>sichtlich geometrischer Aspekte durch<br />

parametrische vektorielle Funktionen charakterisieren.<br />

Diese Systemgleichungen s<strong>in</strong>d Ausgangspunkt für die<br />

M<strong>in</strong>imierungsansätze <strong>der</strong> strukturierten hierarchischen<br />

Parameteridentifikation. Das Robotermodell umfasst dabei<br />

sowohl geometrische als auch elastische Effekte.<br />

Bei diesen Ansätzen geht man davon aus, dass sich mit<br />

dem videometrischen Messsystem drei o<strong>der</strong> mehrere<br />

<strong>3D</strong>-Positionen <strong>in</strong> verschiedenen TCP-Posen messen lassen.<br />

Letztlich ließe sich analog zur Koord<strong>in</strong>atenmesstechnik<br />

e<strong>in</strong>e beliebige Merkmalsmessung heranziehen, mittels<br />

<strong>der</strong>er entwe<strong>der</strong> mehrere <strong>3D</strong>-Positionsmessungen vollzogen<br />

o<strong>der</strong> e<strong>in</strong>deutig e<strong>in</strong> Objektkoord<strong>in</strong>atensystem festgelegt<br />

werden kann (Komb<strong>in</strong>ationen von Bohrungen, Ebenen,<br />

Zyl<strong>in</strong><strong>der</strong>n usw.).<br />

Damit erhält man für e<strong>in</strong>e Roboter- bzw. Messpose die<br />

Systemgleichung:<br />

Tðp TCP<br />

A Þ¼TðpR AÞT 1 ðp R MÞT 1 ðp M TCPÞ; p R M p R MðpC; xC1; xC2; xC3Þ ð1Þ<br />

Robotermodell<br />

p TCP<br />

A<br />

¼ fAðp A; xAÞ; Tðp TCP<br />

Sensormodell<br />

J. Wollnack – <strong>3D</strong>/<strong>6D</strong>-<strong>Visionsysteme</strong> <strong>und</strong> <strong>Lasermessverfahren</strong> <strong>in</strong> <strong>der</strong> <strong>Robotik</strong> <strong>und</strong> Fertigungstechnik <strong>der</strong> Luftfahrt<strong>in</strong>dustrie<br />

A Þ¼Y<br />

g<br />

r M m ¼ fCðpC; xCmÞ; mit xCm ¼ r rt<br />

0m ; rrt 1m<br />

Tðp Ag; xgÞ ð2Þ<br />

t <strong>und</strong><br />

m 2f1; ...; Mg; M 3 ð3Þ<br />

xCm : ¼ korrespondierende Markerpixelkoord<strong>in</strong>aten im<br />

RAM-KOS<br />

xA : ¼ Masch<strong>in</strong>enkoord<strong>in</strong>aten<br />

pC :<br />

pA :<br />

m :<br />

¼ Sensormodellparameter<br />

¼ Robotermodellparameter<br />

¼ Marker<strong>in</strong>dizes<br />

TCP : ¼ Tool-Center-Po<strong>in</strong>t-KOS<br />

R: ¼ Referenz-KOS am Markersystem<br />

(drei <strong>3D</strong>-Positionen)<br />

M: ¼ Sensor-KOS<br />

A: ¼ Robotersteuerungs-KOS<br />

Hierbei s<strong>in</strong>d Tðpa bÞ2


J. Wollnack – <strong>3D</strong>/<strong>6D</strong>-<strong>Visionsysteme</strong> <strong>und</strong> <strong>Lasermessverfahren</strong> <strong>in</strong> <strong>der</strong> <strong>Robotik</strong> <strong>und</strong> Fertigungstechnik <strong>der</strong> Luftfahrt<strong>in</strong>dustrie<br />

Verfahren <strong>in</strong> <strong>der</strong> Regel sehr empf<strong>in</strong>dlich gegenüber<br />

Fremdlichte<strong>in</strong>flüssen.<br />

Deshalb sollten bei automatisierten Applikationen <strong>in</strong> <strong>in</strong>dustriellen<br />

Bereichen entwe<strong>der</strong> passiv retroreflektierende<br />

o<strong>der</strong> aktiv leuchtende Referenzmarken verwendet werden.<br />

Beim E<strong>in</strong>satz aktiver Referenzmarken können zur<br />

Kontrasterhöhung getriggerte, pulsartig leuchtende Lichtquellen<br />

e<strong>in</strong>gesetzt werden o<strong>der</strong> <strong>der</strong> Wellenlängenbereich<br />

<strong>der</strong> aktiven Zielmarken durch optische Filter im Kamerasystem<br />

selektiert werden (z.B. Infrarotbereich). Auch e<strong>in</strong>e<br />

Komb<strong>in</strong>ation <strong>der</strong>artiger Maßnahmen ist möglich.<br />

Die aktiven Triangulationsverfahren unterscheiden sich<br />

von passiven <strong>in</strong> <strong>der</strong> Verwendung e<strong>in</strong>er strukturierten Objektbeleuchtung,<br />

<strong>der</strong>en optische <strong>und</strong> geometrische Eigenschaften<br />

bekannt s<strong>in</strong>d. Dieser Informationsgew<strong>in</strong>n vere<strong>in</strong>facht<br />

das F<strong>in</strong>den <strong>der</strong> Korrespondenzen erheblich. Die Abbildungsmuster<br />

werden <strong>in</strong> punktförmige, l<strong>in</strong>ienförmige<br />

<strong>und</strong> codierte Systeme e<strong>in</strong>geteilt. Mit punktförmigen Projektionen<br />

lassen sich <strong>3D</strong>-Positionsdaten, mit l<strong>in</strong>ienförmigen<br />

Projektionen <strong>3D</strong>-Konturl<strong>in</strong>ien <strong>und</strong> mit codierten Systemen<br />

<strong>3D</strong>-Konturdaten messen.<br />

Zur <strong>3D</strong>-Positionsmessung können Sensoren <strong>in</strong> Form von<br />

CCD/CMOS-Arrays (Charge Coupled Device/Complementary<br />

Metal Oxide Semiconductor) o<strong>der</strong> drei CCD-Zeilen<br />

herangezogen werden, soweit diese <strong>in</strong> e<strong>in</strong>er Ebene liegen<br />

(zwei orthogonal <strong>und</strong> zwei parallel zue<strong>in</strong>an<strong>der</strong> ausgerichtet).<br />

Hiermit lassen sich relativ kostengünstig sehr<br />

hohe Auflösungen verwirklichen. E<strong>in</strong> 1D-Laserabstandssensor<br />

kann als Spezialfall dieser Messsysteme gedeutet<br />

werden; er besteht aus e<strong>in</strong>er Punktlichtquelle <strong>und</strong> e<strong>in</strong>er<br />

CCD-Zeile o<strong>der</strong> e<strong>in</strong>em PSD-Sensor (Position Sens<strong>in</strong>g Detector).<br />

Durch def<strong>in</strong>ierte Ablenkung von punktförmigen<br />

o<strong>der</strong> l<strong>in</strong>ienförmigen Projektionen über Spiegel-Servo-<br />

Kreise lassen sich <strong>3D</strong>-Punkt- o<strong>der</strong> L<strong>in</strong>ienscanner zu topographischen<br />

Messsystemen erweitern. Bei Systemen mit<br />

hohen Anfor<strong>der</strong>ungen an die Messgenauigkeit s<strong>in</strong>d <strong>in</strong><br />

<strong>der</strong> Regel monochromatische Laserprojektoren vorzuziehen.<br />

Am Beispiel e<strong>in</strong>es Multi- bzw. Zweikamerasystems mit<br />

retroreflektierenden Kugelmarkern sei das pr<strong>in</strong>zipielle<br />

Vorgehen verdeutlicht. Hierbei werden sowohl geometrische<br />

als auch videometrische Effekte zu berücksichtigen<br />

se<strong>in</strong>. Letztere sollen nicht Gegenstand dieser Erörterungen<br />

se<strong>in</strong>. Ebenso wird auf e<strong>in</strong>e detaillierte Darstellung<br />

<strong>der</strong> Bildverarbeitungsverfahren verzichtet. Hierfür sei<br />

Abb. 3: <strong>3D</strong>-Videometrie<br />

auf die e<strong>in</strong>schlägige Literatur [7, 8, 10, 11, 22, 33] verwiesen.<br />

Die Idee <strong>der</strong> dreidimensionalen Positionsmessung geht<br />

von korrespondierenden Messmarkenkoord<strong>in</strong>aten m<strong>in</strong>destens<br />

zweier Kamerasysteme aus, <strong>der</strong>en Sehstrahlenschnittpunkt<br />

die <strong>3D</strong>-Koord<strong>in</strong>ate angibt (siehe Abb. 3).<br />

Mit steigenden Genauigkeitsanfor<strong>der</strong>ungen unterhalb<br />

1/5 bis 1/10 Pixel werden <strong>in</strong> zunehmendem Maße die E<strong>in</strong>flussfaktoren<br />

des nicht l<strong>in</strong>earen geometrischen Kameramodels<br />

zum Tragen kommen, weshalb dann die unverzerrten,<br />

kippw<strong>in</strong>kelfehlerfreien Sensorkoord<strong>in</strong>aten über<br />

die Inversen des geometrischen Kameramodells aus den<br />

RAM-Koord<strong>in</strong>aten zu berechnen s<strong>in</strong>d. Dies gilt analog bereits<br />

beim E<strong>in</strong>satz von Weitw<strong>in</strong>kelobjektiven, <strong>der</strong>en L<strong>in</strong>senverzerrungen<br />

am Rand des Sichtbereiches auch bei<br />

nicht m<strong>in</strong><strong>der</strong>wertigen Objektiven <strong>in</strong> <strong>der</strong> Größenordnung<br />

von 6 Pixel liegen. Aus diesem Gr<strong>und</strong>e lassen sich die<br />

relativ e<strong>in</strong>fachen l<strong>in</strong>earen Kameramodelle <strong>in</strong> <strong>der</strong> Praxis<br />

zumeist nicht e<strong>in</strong>setzen [33].<br />

Zur Vere<strong>in</strong>fachung <strong>der</strong> Korrespondenzsuche bedient man<br />

sich <strong>der</strong> epipolaren L<strong>in</strong>ie. Die epipolare L<strong>in</strong>ie stellt den<br />

virtuellen Sehstrahl e<strong>in</strong>er Kamera <strong>in</strong> <strong>der</strong> „RAM-Ebene“<br />

(Random Access Memory) e<strong>in</strong>er an<strong>der</strong>en Kamera dar.<br />

In <strong>der</strong> Standardanordnung, bei <strong>der</strong> die Zeilen <strong>der</strong> Bildpaare<br />

parallel zur Verb<strong>in</strong>dungsgeraden zwischen den optischen<br />

Zentren (Ursprung Kameras-KOS) liegen o<strong>der</strong><br />

die Bildkoord<strong>in</strong>atensysteme so def<strong>in</strong>iert s<strong>in</strong>d, dass zue<strong>in</strong>an<strong>der</strong><br />

kol<strong>in</strong>eare Bildzeilen gleiche Zeilenkoord<strong>in</strong>aten aufweisen,<br />

beschränkt sich die Korrespondenzsuche <strong>der</strong> epipolaren<br />

L<strong>in</strong>ie auf die Suche längs e<strong>in</strong>er Zeilen bzw. e<strong>in</strong>es<br />

Bandes um die Zeilen. Dieser e<strong>in</strong>fache Fall kann <strong>in</strong> <strong>der</strong><br />

Regel nicht umgesetzt werden, da e<strong>in</strong> möglichst großer<br />

Basisabstand für e<strong>in</strong>e hohe z-Genauigkeit <strong>und</strong> die notwendige<br />

Überlappung <strong>der</strong> Bildbereiche, die für die Existenz<br />

von Korrespondenzen zw<strong>in</strong>gend ist, nur durch e<strong>in</strong>e zue<strong>in</strong>an<strong>der</strong><br />

gerichtete Drehung um die y-Achsen <strong>der</strong> Kamerakoord<strong>in</strong>atensysteme<br />

zu verwirklichen ist. E<strong>in</strong>e Drehung<br />

<strong>der</strong> Kamerasysteme hat zur Folge, dass die Bildebenen<br />

nicht mehr parallel s<strong>in</strong>d.<br />

Zur Bewertung <strong>der</strong> Plausibilität e<strong>in</strong>er Projektanfor<strong>der</strong>ung<br />

im H<strong>in</strong>blick auf den E<strong>in</strong>satz subpixelgenauer videometrische<br />

Messsysteme haben sich die Beziehungen<br />

178 AVN 5/2009


0<br />

B<br />

0 1 B<br />

jdxj B<br />

@ jdyj A ¼ B<br />

jdzj B<br />

@ z<br />

B<br />

J. Wollnack – <strong>3D</strong>/<strong>6D</strong>-<strong>Visionsysteme</strong> <strong>und</strong> <strong>Lasermessverfahren</strong> <strong>in</strong> <strong>der</strong> <strong>Robotik</strong> <strong>und</strong> Fertigungstechnik <strong>der</strong> Luftfahrt<strong>in</strong>dustrie<br />

0<br />

B<br />

@<br />

Mx<br />

qxPx<br />

My<br />

qyPy<br />

Mx<br />

qxPx<br />

1<br />

C<br />

A<br />

þ My<br />

qyPy<br />

1<br />

C<br />

C;<br />

mit<br />

C<br />

A<br />

Mxy : ¼ Sichtfeldgröße im Weltkoord<strong>in</strong>atenmaßstab<br />

Pxy : ¼ Sensorpixelzahl<br />

qxy : ¼ Subpixelmessgenauigkeit ð4Þ<br />

bewährt. E<strong>in</strong>e „echte“ subpixelgenaue Positionsmessung<br />

beruht letztlich auf <strong>der</strong> Bestimmung des Wendepunktes<br />

e<strong>in</strong>es geeigneten Grauwertkantenmodells. Die Lage dieses<br />

Wendepunkts ist <strong>in</strong>variant gegenüber <strong>der</strong> optischen<br />

Bandbreite des Systems, weshalb nicht e<strong>in</strong>e maximale optische<br />

Bandbreite bzw. Bildschärfe, son<strong>der</strong>n e<strong>in</strong>e Verschleifung<br />

<strong>der</strong> optischen Sprungantwort auf 2–4 Pixel<br />

für die subpixelgenaue Kantenschätzung von Vorteil ist.<br />

Wird bei <strong>der</strong> Kantenschätzung e<strong>in</strong>e Interpolation <strong>der</strong><br />

Grauwerte auf Subpixelorten vorgenommen, so ist e<strong>in</strong>e<br />

alias<strong>in</strong>garme Ortsdiskretisierung <strong>und</strong> damit maximale<br />

Blendenzahl anzustreben. Die Genauigkeit <strong>der</strong> Positionsmessung<br />

wird bei PLL-synchronisiertem System auf ca.<br />

1/20 Pixel begrenzt. Unterhalb von 1/20 Pixel ist e<strong>in</strong>e<br />

digitale Datenübertragung, die heute Stand <strong>der</strong> Technik<br />

ist, erfor<strong>der</strong>lich. Die Genauigkeiten digitaler Systeme<br />

werden aufgr<strong>und</strong> von Inhomogenitäten <strong>der</strong> Beleuchtungsquellen<br />

<strong>und</strong> <strong>der</strong> optischen Eigenschaften <strong>der</strong> Materialien<br />

auf ca. 1/100 Pixel begrenzt. E<strong>in</strong>e weitere Genauigkeitssteigerung<br />

<strong>der</strong> Messung durch Anwendung von Rauschfilterverfahren<br />

lässt sich nur bei diesen Systemen vollziehen.<br />

Jedoch lassen sich bereits mit e<strong>in</strong>fachen <strong>und</strong> schnellen<br />

Flächenschwerpunktverfahren Subpixelgenauigkeiten<br />

von 1/10 bis zu e<strong>in</strong>em 1/25 Pixel umsetzen, sofern die Objektflächen<br />

nicht unter ca. 16 Pixel 2 geraten. Auch hier<br />

wird e<strong>in</strong>e Limitierung <strong>der</strong> optischen Bandbreite e<strong>in</strong>e Genauigkeitssteigerung<br />

bewirken. E<strong>in</strong>e möglichst genaue<br />

Positionsmessung bed<strong>in</strong>gt ebenso e<strong>in</strong>e weitgehende Nutzung<br />

<strong>der</strong> Grauwertdynamik des Bildaufnahmesystems.<br />

H<strong>in</strong>sichtlich <strong>der</strong> mechanischen Stabilität <strong>der</strong> Sensoren<br />

s<strong>in</strong>d für die <strong>in</strong>nere <strong>und</strong> äußere Geometrie über den Abbildungsmaßstab<br />

letztlich analoge technologische Anfor<strong>der</strong>ungen<br />

umzusetzen. Bei e<strong>in</strong>em nach <strong>der</strong> Kalibration auftretenden<br />

systematischen „Driftfehler“ von maximal<br />

e<strong>in</strong>em 1/10 Pixel muss bei CCD/CMOS Zellenabständen<br />

von 10 lm e<strong>in</strong>e <strong>in</strong>nere mechanische Stabilität von ca.<br />

1 lm vorliegen. Die äußere Stabilität kann <strong>in</strong> etwa um<br />

den Abbildungsmaßstab vergrößert angesetzt werden. Unterhalb<br />

von 1/20 Pixel können selbst <strong>in</strong>dustrietaugliche<br />

Kamerasysteme <strong>und</strong> Objektive, die nicht im H<strong>in</strong>blick<br />

auf diese Anfor<strong>der</strong>ungen konzipiert wurden, nur bed<strong>in</strong>gt<br />

zur Anwendung kommen. Auch dies macht deutlich, dass<br />

e<strong>in</strong>e vollautomatische Kalibration von Systemmodellen<br />

für die Praxis attraktiv ist.<br />

Für e<strong>in</strong>e <strong>3D</strong>-Positionsmessung müssen <strong>in</strong> <strong>der</strong> Videometrie<br />

die korrespondierenden idealen unverzerrten Sensorkoor-<br />

d<strong>in</strong>aten <strong>der</strong> Kamerasysteme aus den RAM-Koord<strong>in</strong>aten<br />

über das <strong>in</strong>verse <strong>in</strong>nere Kameramodell<br />

– Inverse Skalierungsfaktoren <strong>und</strong> Hauptkoord<strong>in</strong>aten<br />

x S<br />

y S<br />

¼<br />

Sxðx r HxÞ<br />

Syðy r HyÞ<br />

; ð5:1Þ<br />

– Inverse Kippw<strong>in</strong>kelfehler <strong>der</strong> realen Sensorebene<br />

ðx v y v Þ t ¼ðy I Sx yISyÞt ; mit y I S ¼ pI1 þ ðpI1 eIz ÞðpI1 ðpI 2<br />

p I 1 ¼ Dxð axÞDyð ayÞy<br />

0 v<br />

S<br />

; yv 0<br />

S ¼ðxS ; y S ; 0Þ t <strong>und</strong><br />

pI 2Þ; pI 1ÞeI ;<br />

z<br />

p I 2 ¼ð0; 0; bÞt ; ð5:2Þ<br />

– Inverse radiale L<strong>in</strong>senverzerrungen erster Ordnung<br />

xu yu 1<br />

¼<br />

1 þ vðrvÞ 2<br />

xv yv ; mit r e ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi<br />

¼ ðxeÞ 2 þðyeÞ 2<br />

q<br />

;<br />

e 2fu; vg; mit<br />

Hx; Hy : ¼ Hauptwerte<br />

Sx; Sy : ¼ Skalierungsfaktoren<br />

ax; ay : ¼ Kippw<strong>in</strong>kelfehler des Sensors<br />

v : ¼ Radiale L<strong>in</strong>senverzerrungen erster Ordnung<br />

b : ¼ Bildweite<br />

ð5:3Þ<br />

ermittelt werden. Mit den korrespondierenden idealen<br />

unverzerrten Sensorkoord<strong>in</strong>aten ðu mÞk ðxu uÞk ,<br />

k 2f1; ...; Kg, K 2 des Multikamerasystems lassen<br />

sich die Sehstrahlgleichungen<br />

r k ¼ðu m bÞ t<br />

ksk; k 2f1; ...; Kg; K 2 ð6Þ<br />

<strong>der</strong> <strong>3D</strong>-Geraden des k-ten Sensors im k-ten Sensorkoord<strong>in</strong>atensystem<br />

aufstellen. Nach Transformation dieser Koord<strong>in</strong>aten<br />

<strong>in</strong>s Referenzkoord<strong>in</strong>atensystem erhält man für<br />

den k-ten Sensor im Referenzkoord<strong>in</strong>atensystem R<br />

r R k ¼ DkR ðu m bÞt ksk þ t R k ; ð7Þ<br />

wor<strong>in</strong> D k R <strong>und</strong> tR k<br />

die Koord<strong>in</strong>atentransformation <strong>in</strong>s Referenzkoord<strong>in</strong>atensystem<br />

beschreiben. Für die Anwendung<br />

ist es zweckmäßig, e<strong>in</strong> Kamerakoord<strong>in</strong>atensystem<br />

zum Referenzkoord<strong>in</strong>atensystem zu erklären. Dessen<br />

Drehmatrix ist dann die E<strong>in</strong>heitsmatrix <strong>und</strong> dessen Translationsvektor<br />

ist null.<br />

Die überbestimmten Schnittpunktgleichungen lassen sich<br />

nicht analytisch lösen. Es muss daher e<strong>in</strong> M<strong>in</strong>imierungsansatz<br />

herangezogen werden. Geht man hierzu von den<br />

Schnittpunktgleichung des i,j-ten Kamerapaars im Referenzkoord<strong>in</strong>atensystem<br />

D i 0 1<br />

u<br />

@<br />

R m A D<br />

b<br />

j<br />

0<br />

0 1 1<br />

u<br />

B<br />

@<br />

@<br />

R m A C<br />

A<br />

b<br />

si<br />

¼ t<br />

sj<br />

R j t R j ;<br />

i<br />

j<br />

i; j 2f1; ...; Kg ð8Þ<br />

t<br />

aus, so kann <strong>der</strong> Lösungsvektor si sj des überbestimmten<br />

Gleichungssystems (8) mit <strong>der</strong> Pseudo<strong>in</strong>versen o<strong>der</strong><br />

<strong>der</strong> numerisch stabileren SVD-Zerlegung<br />

AVN 5/2009 179


J. Wollnack – <strong>3D</strong>/<strong>6D</strong>-<strong>Visionsysteme</strong> <strong>und</strong> <strong>Lasermessverfahren</strong> <strong>in</strong> <strong>der</strong> <strong>Robotik</strong> <strong>und</strong> Fertigungstechnik <strong>der</strong> Luftfahrt<strong>in</strong>dustrie<br />

si<br />

sj<br />

¼ D i 0 0<br />

B<br />

@ @<br />

R<br />

1<br />

u<br />

m A<br />

b<br />

i<br />

D j @<br />

R<br />

0<br />

1 1<br />

u<br />

m A C<br />

A<br />

b<br />

j<br />

1<br />

SVD<br />

ðt R i<br />

t R j<br />

Þ ð9Þ<br />

berechnet werden. Man erhält somit die <strong>3D</strong>-Koord<strong>in</strong>ate<br />

im Referenzkoord<strong>in</strong>atensystem zu:<br />

r R i ¼ Di Rðu m bÞt isi þ t R i<br />

o<strong>der</strong><br />

r R j<br />

¼ DjR<br />

ðu m bÞt jsj þ t R j<br />

bzw. <strong>in</strong> homogenisierter Form:<br />

r R ijH ¼ rR i þ rR j<br />

ð10:1Þ<br />

ð10:2Þ<br />

2<br />

: ð10:3Þ<br />

k : ¼ Kamera<strong>in</strong>dex<br />

bk :<br />

D<br />

¼ Bildweite<br />

k R : ¼ Rotationsmatrix vom Sensor- <strong>in</strong>s Referenzkoord<strong>in</strong>atensystem<br />

tR k : ¼ Translationsvektor vom Sensor- <strong>in</strong>s Referenzkoord<strong>in</strong>atensystem<br />

ðu mÞ t<br />

k : ¼ korrespondierende ideale, unverzerrte CCD/<br />

CMOS-Sensorkoord<strong>in</strong>ate<br />

Bei e<strong>in</strong>em Lichtstrahlprojektions- <strong>und</strong> Kamerasystem<br />

kann man den Sehstrahl des i-ten Kamerasystems durch<br />

den Projektionsstrahl im S<strong>in</strong>ne <strong>der</strong> <strong>in</strong>versen Kamera ersetzen.<br />

Dies gilt analog auch für Lichtebenen <strong>und</strong> projektive<br />

Systeme.<br />

Die <strong>3D</strong>-Positionsmessung korrespondieren<strong>der</strong> Messmarken<br />

x e<strong>in</strong>es Multikamerasystems kann somit als parametrische<br />

Vektorabbildung<br />

r R ¼ fCðp C; xCÞ; xC ¼ x r i yr i xr j yr j<br />

t<br />

C<br />

<strong>und</strong><br />

p C ¼ ðpt R Hx Hy Sx Sy ax ay b vÞ t<br />

i<br />

ðp t R Hx Hy Sx Sy ax ay b vÞ t<br />

j<br />

M<strong>in</strong>p C<br />

!<br />

ð11Þ<br />

gedeutet werden. Der Parametervektor pC des Sensormodells<br />

setzt sich aus den <strong>in</strong>ternen <strong>und</strong> externen Kameraparametern<br />

zusammen. Die externen Parameter s<strong>in</strong>d die<br />

Posen <strong>der</strong> Kamera- zum Referenz-KOS pk R <strong>und</strong> die <strong>in</strong>ternen<br />

s<strong>in</strong>d die Hauptwerte, Skalierungsfaktoren, Sensorkippw<strong>in</strong>kelfehler,<br />

Bildweite <strong>und</strong> radiale L<strong>in</strong>senverzerrungen<br />

erster Ordnung. Dies s<strong>in</strong>d 14 skalare Parameter pro<br />

Kamera. Bei e<strong>in</strong>em Zweikamerasystem, bei dem das<br />

Sensor-KOS <strong>in</strong> e<strong>in</strong>es <strong>der</strong> Kamerasysteme gelegt wird,<br />

s<strong>in</strong>d es somit 22 skalare Parameter.<br />

Die Kalibration des Sensormodells kann über e<strong>in</strong>e M<strong>in</strong>imierung<br />

( )<br />

X<br />

;<br />

m;n;p<br />

kfCðp C; xC mpÞ fCðp C; xC npÞk 2<br />

E<br />

D2 mn<br />

mit kyk 2<br />

E ¼ yty <strong>und</strong><br />

m; n : ¼ Marker<strong>in</strong>dizes<br />

p : ¼ Posen<strong>in</strong>dizes ð12Þ<br />

von im Referenz-KOS bekannten Distanzen Dmn m<strong>in</strong>destens<br />

zweier Messmarken erfolgen. In diesem Fall ist die<br />

Positioniergenauigkeit <strong>der</strong> Pose des Roboters ohne Bedeutung,<br />

weil die Distanzen <strong>in</strong>variant gegenüber Koord<strong>in</strong>atentransformationen<br />

s<strong>in</strong>d. Mit e<strong>in</strong>er re<strong>in</strong>en Distanzkalibration<br />

lassen sich jedoch nicht die maximalen Genauigkeiten<br />

erreichen, weil die systematischen Fehler des zu<br />

kalibrierenden Modells nur differenziell <strong>in</strong> das Gütemaß<br />

e<strong>in</strong>gehen.<br />

Bei <strong>der</strong> Verwendung von drei nicht auf e<strong>in</strong>er Geraden<br />

liegenden Messmarken lässt sich die Roboterpose als<br />

Referenzpose heranziehen, so dass sich die Fehlerpose<br />

Tð pÞ ¼T 1<br />

R TM zwischen Systemmodell <strong>und</strong> Roboter<br />

im S<strong>in</strong>ne von<br />

M<strong>in</strong> p t f pg<br />

mit TM ¼ Tðp TCP<br />

A Þ <strong>und</strong> TR ¼ Tðp TCP<br />

A SollÞ: ð13Þ<br />

m<strong>in</strong>imieren lässt. Hierbei werden die systematischen <strong>und</strong><br />

zufälligen Positionierfehler des Roboters die Genauigkeit<br />

<strong>der</strong> Sensorkalibration limitieren, sofern <strong>der</strong> Roboter nicht<br />

<strong>in</strong> die Kalibration mit e<strong>in</strong>bezogen wird. E<strong>in</strong>e M<strong>in</strong>imierung<br />

<strong>der</strong> Fehlerpose (13) anstatt <strong>der</strong> homogenen Fehlermatrix<br />

bietet den Vorteil, dass man sowohl auf e<strong>in</strong>fache Weise die<br />

Orthogonalität <strong>der</strong> Drehmatrix erzw<strong>in</strong>gt als auch die<br />

Mehrdeutigkeiten <strong>der</strong> Orientierung h<strong>in</strong>sichtlich <strong>der</strong> Periodizität<br />

<strong>in</strong> m2p <strong>und</strong> <strong>der</strong> existierenden zwei Lösungen<br />

umgeht.<br />

E<strong>in</strong>e Reduktion <strong>der</strong> zufälligen Messfehler kann man<br />

durch e<strong>in</strong>e überbestimmte Kalibration erzielen. Dabei<br />

wird bei näherungsweise normalverteilten Störungen<br />

die Überbestimmtheit quadratisch mit dem reziproken<br />

Vertrauens<strong>in</strong>tervall <strong>der</strong> Parameter wachsen. E<strong>in</strong>e nicht<br />

überbestimmte Kalibration erfor<strong>der</strong>t <strong>in</strong> diesen Fällen m<strong>in</strong>destens<br />

22 bzw. 6 unterschiedliche Roboterposen.<br />

Die geometrischen Kameramodelle s<strong>in</strong>d im allgeme<strong>in</strong>en<br />

h<strong>in</strong>sichtlich <strong>der</strong> Parameteridentifikation numerisch<br />

schlecht konditioniert, weil bei den typisch vorliegenden<br />

ger<strong>in</strong>gen (<strong>in</strong>ternen) Sensorkippw<strong>in</strong>kelfehlern (< 0,1 ) relativ<br />

starke Korrelationen zwischen <strong>der</strong> äußeren <strong>und</strong> <strong>in</strong>neren<br />

Orientierung, äußeren <strong>und</strong> <strong>in</strong>neren Positionen sowie<br />

dem z-Abstand, <strong>der</strong> Bildweite <strong>und</strong> den Skalenfaktoren bestehen.<br />

H<strong>in</strong>zukommt, dass die Pseudo<strong>in</strong>verse (9) letztlich<br />

e<strong>in</strong>e Least-Square-Schätzung vollzieht, weshalb Orientierungsän<strong>der</strong>ungen<br />

<strong>der</strong> Kamerasysteme zue<strong>in</strong>an<strong>der</strong> teilweise<br />

e<strong>in</strong>en relativ ger<strong>in</strong>gen E<strong>in</strong>fluss auf die <strong>3D</strong>-Positionsmessung<br />

nehmen.<br />

Diese Probleme lassen sich nur mit Hilfe <strong>der</strong> anfangs diskutierten<br />

strukturierten hierarchischen Kalibration entschärfen.<br />

Des Weiteren müssen die m<strong>in</strong>imalen Sehstrahlenabstände<br />

<strong>der</strong> <strong>3D</strong>-Koord<strong>in</strong>aten mit <strong>in</strong> das Gütekriterium<br />

<strong>der</strong> M<strong>in</strong>imierung e<strong>in</strong>bezogen werden.<br />

5 Vollautomatische Sensor-, Sensor-Greifer<strong>und</strong><br />

Roboter-Kalibration<br />

Die vollautomatische Sensor-, Sensor-Greifer- <strong>und</strong> Roboter-Kalibration<br />

nutzt die Möglichkeiten <strong>der</strong> strukturierten<br />

hierarchischen Modellkalibration sukzessive aus. Ausgehend<br />

von e<strong>in</strong>er ausreichenden Anzahl von Roboter- bzw.<br />

Messposen kann man das Gesamtsystem vollautomatisch<br />

kalibrieren, wobei man mit Hilfe <strong>der</strong> numerischen Ranga-<br />

180 AVN 5/2009


J. Wollnack – <strong>3D</strong>/<strong>6D</strong>-<strong>Visionsysteme</strong> <strong>und</strong> <strong>Lasermessverfahren</strong> <strong>in</strong> <strong>der</strong> <strong>Robotik</strong> <strong>und</strong> Fertigungstechnik <strong>der</strong> Luftfahrt<strong>in</strong>dustrie<br />

nalysen den Anwen<strong>der</strong> ohne tieferes Verständnis von den<br />

Zusammenhängen zu e<strong>in</strong>er s<strong>in</strong>nvollen Bewegungsstrategie<br />

führen kann.<br />

Damit lässt sich folgen<strong>der</strong> vollautomatischer Ablauf umsetzen:<br />

1. Nach Betätigung <strong>der</strong> Kalibrationstaste fährt <strong>der</strong> Roboter<br />

<strong>in</strong> die zur Kalibration def<strong>in</strong>ierten o<strong>der</strong> „ge-teachten“<br />

Posen. Die Robotersteuerung setzt nach Abschluss <strong>der</strong><br />

Bewegung e<strong>in</strong>en Messbefehl an das Sensorsystem ab,<br />

wodurch die Messmarkenkoord<strong>in</strong>aten im RAM-KOS<br />

gemessen werden. Die Daten <strong>der</strong> TCP-Sollposen,<br />

Messmarkenkoord<strong>in</strong>aten im RAM-KOS <strong>und</strong> die Masch<strong>in</strong>enkoord<strong>in</strong>aten<br />

e<strong>in</strong>schließlich <strong>der</strong> Roboter- <strong>und</strong><br />

Sensornamen <strong>und</strong> <strong>der</strong>en e<strong>in</strong>deutige Identifikationsbezeichnungen<br />

werden zur Kalibration <strong>und</strong> für die Dokumentation<br />

<strong>in</strong> e<strong>in</strong>em Datenfile gesichert. Die ersten zwei<br />

Bewegungen s<strong>in</strong>d so zu vollziehen, dass die analytische<br />

Identifikation im 3. Schritt möglich wird (Translation<br />

<strong>und</strong> zwei nicht l<strong>in</strong>ear abhängige Drehungen).<br />

2. Anschließend wird die hierarchische Identifikation <strong>in</strong>nerer<br />

Kameraparameter <strong>der</strong> Kamera C0 sowie <strong>in</strong>nerer<br />

<strong>und</strong> äußerer Kameraparameter <strong>der</strong> Kamera C1 mittels<br />

Distanzmaßen (Startwerte s<strong>in</strong>d konstruktive Nom<strong>in</strong>alwerte)<br />

dreier nicht auf e<strong>in</strong>er Geraden liegenden Messmarken<br />

gestartet. Nach Ablauf dieses Prozesses lässt<br />

sich e<strong>in</strong>e <strong>3D</strong>-Positionsmessung <strong>in</strong> Kamera C0 M verwirklichen.<br />

Kann man <strong>in</strong> <strong>der</strong> Anwendung mit <strong>der</strong> erreichten<br />

Genauigkeit dieses Verfahrens arbeiten, so<br />

ist e<strong>in</strong>e weitere strukturelle Variation des Kalibrationsmodells<br />

nicht erfor<strong>der</strong>lich, so dass man den 5. <strong>und</strong> 6.<br />

Prozessschritt auslassen kann.<br />

3. Mit den vorherigen Prozessschritten lassen sich die<br />

Messmarkenkoord<strong>in</strong>aten im Sensorkoord<strong>in</strong>atensystem<br />

M berechnen. An den drei nicht auf e<strong>in</strong>er Geraden liegenden<br />

o<strong>der</strong> mehreren Messmarken lässt sich e<strong>in</strong>e Posemessung<br />

umsetzen, womit die analytische Identifikation<br />

<strong>der</strong> Transformation Mess- zu TCP-KOS über die<br />

ersten zwei TCP-Soll-Bewegungen bzw. drei TCP-<br />

Soll-Posen möglich wird [37, 40]. Hierbei dient <strong>der</strong> Roboter<br />

letztlich als Referenzsystem.<br />

4. Nach Ausführung des vorherigen Schrittes lässt sich<br />

über die TCP-Soll-Pose e<strong>in</strong>e analytische Identifikation<br />

<strong>der</strong> Transformation Referenz- zu Robotersteuerungs-<br />

KOS bereits aus e<strong>in</strong>er Messstellung über TðpR AÞ¼ TðpTCP A ÞTðpM TCPÞTðpR MÞ berechnen. Der Roboter dient<br />

auch hier analog zu Schritt vier als Referenzsystem.<br />

5. Nach dem sämtliche Koord<strong>in</strong>atentransformationen bekannt<br />

s<strong>in</strong>d, lässt sich das Sensormodell mittels Posemessung<br />

anhand dreier Messmarken kalibrieren. Dabei<br />

können die <strong>in</strong> den vorherigen Prozessschritten identifizierten<br />

Parameter als hochwertige Schätzungen <strong>der</strong><br />

Startwerte des M<strong>in</strong>imierers herangezogen werden, weshalb<br />

e<strong>in</strong>e hierarchische Nachkalibration des Sensorsystems<br />

mit dem Roboter als Referenzsystem möglich<br />

wird. Typischerweise determ<strong>in</strong>ieren hierbei die systematischen<br />

Positionerfehler des Roboters die Kalibrationsgüten<br />

des Sensorsystems (Zufällige Positionierfehler<br />

fallen zumeist um e<strong>in</strong>e Größenordnung ger<strong>in</strong>ger<br />

aus).<br />

6. Nach Bedarf ließe sich <strong>in</strong> diesem Schritt das Robotermodell<br />

(2) mit <strong>in</strong> den Kalibrationsprozess <strong>in</strong>tegrieren.<br />

Abb. 4: Sensor-, TCP- Greif- <strong>und</strong> Referenz-KOS<br />

(G: ¼ Greif-KOS)<br />

Verzichtet man hierauf, so werden im Idealfall die systematischen<br />

Sensormessfehler <strong>in</strong> <strong>der</strong> Größenordnung<br />

<strong>der</strong> systematischen Positionierfehler des Robotersystems<br />

liegen [33]. Die <strong>in</strong> den vorherigen Schritten identifizierten<br />

Modellparameter können als hochwertige<br />

Schätzungen <strong>der</strong> Startwerte des M<strong>in</strong>imierers betrachtet<br />

werden, weshalb e<strong>in</strong>e hierarchische Nachkalibration<br />

des Gesamtsystems möglich wird, was im allgeme<strong>in</strong>en<br />

zu e<strong>in</strong>er deutlichen Genauigkeitssteigerung h<strong>in</strong>sichtlich<br />

systematischer Fehler führt. Hierbei entstünde jedoch<br />

e<strong>in</strong>e Mehrdeutigkeit im S<strong>in</strong>ne e<strong>in</strong>es Maßstabsfaktors,<br />

wenn man nicht die Distanzenfehler zwischen den Markern<br />

im Weltkoord<strong>in</strong>atenmaßstab mit <strong>in</strong> das Gütekriterium<br />

aufnimmt.<br />

7. Für die analytische Identifikation <strong>der</strong> TCP-Greiferbzw.<br />

Sensor-Greifer-Relation kann e<strong>in</strong> preiswerter Kalibrierkörper<br />

ebenfalls mit drei Messmarken e<strong>in</strong>gesetzt<br />

werden (siehe Abb. 4). Nachdem <strong>der</strong> Roboter den Kalibrierkörper<br />

aufgenommen hat, wird e<strong>in</strong>e Messung<br />

mit dem kalibrierten Sensorsystem vollzogen. Damit<br />

lässt sich dann die gesuchte Pose über T G TCP ¼<br />

T M TCP TR M TR G Þ 1 berechnen. Hierbei ließen sich ferner<br />

vorliegende Symmetrien berücksichtigen. In analoger<br />

Weise können an<strong>der</strong>e Werkzeuge vollautomatisch e<strong>in</strong>gemessen<br />

werden.<br />

Die Integration sowohl von <strong>3D</strong>-Positionsmesssystemen<br />

als auch die für die Kalibration <strong>und</strong> Roboterführung erfor<strong>der</strong>lichen<br />

Algorithmen ließe sich entwe<strong>der</strong> <strong>in</strong> <strong>der</strong> Robotersteuerung<br />

o<strong>der</strong> über Client-Server Applikation auf externen<br />

Rechnersysteme umsetzen (siehe Abb. 5). Ebenso<br />

s<strong>in</strong>d hybride Formen realisierbar. Die Kommunikation <strong>der</strong><br />

Systeme untere<strong>in</strong>an<strong>der</strong> kann z.B. auf Basis von XML-Protokollen,<br />

„Remote Procedure Calls“ o<strong>der</strong> speziell von den<br />

Roboterherstellern angebotenen Kommunikations-Interfacen<br />

(z.B: KUKA via XML <strong>und</strong> Fanuc via Fanuc Robot<br />

Server) verwirklicht werden.<br />

Mit dem vermehrten E<strong>in</strong>zug von PC-basierten Robotersteuerungssystemen<br />

wird mehr <strong>und</strong> mehr e<strong>in</strong>e Integration<br />

direkt <strong>in</strong> die Robotersteuerung im Bereich des Möglichen<br />

liegen. Letztlich ist dies sowohl wirtschaftlich als auch<br />

technologisch die attraktivste Lösung. Offene Steuerungssysteme<br />

sollten <strong>in</strong> diesem S<strong>in</strong>ne mehr als Chance für e<strong>in</strong>e<br />

AVN 5/2009 181


J. Wollnack – <strong>3D</strong>/<strong>6D</strong>-<strong>Visionsysteme</strong> <strong>und</strong> <strong>Lasermessverfahren</strong> <strong>in</strong> <strong>der</strong> <strong>Robotik</strong> <strong>und</strong> Fertigungstechnik <strong>der</strong> Luftfahrt<strong>in</strong>dustrie<br />

weitere Verbreitung <strong>der</strong> Robotertechnologien als e<strong>in</strong>e Gefahr<br />

gesehen werden. Für die Roboterhersteller wichtiges<br />

System-Know-how muss damit nicht preisgegeben werden.<br />

Im diesem S<strong>in</strong>ne kann die Initiative von Bill Gates auf<br />

dem Gebiet <strong>der</strong> <strong>Robotik</strong> e<strong>in</strong>en signifikanten Entwicklungsschub<br />

<strong>in</strong>duzieren [9], den etablierte Roboterhersteller<br />

rechtzeitig mit <strong>in</strong> ihre Überlegungen <strong>und</strong> Entwicklungen<br />

e<strong>in</strong>beziehen sollten. Bedenkt man, dass vermutlich <strong>in</strong><br />

ca. 5 bis 10 Jahren auf e<strong>in</strong>em Chip preiswert Rechnerleistungen<br />

zur Verfügung stehen [5], die heutigen Großrechnern<br />

vorbehalten s<strong>in</strong>d, so wird die Systemkalibration<br />

selbst hochkomplexer Systeme, iterative Inversenberechnung<br />

<strong>der</strong> k<strong>in</strong>ematischen Transformation des mit Achsw<strong>in</strong>kelfehlern<br />

behafteten k<strong>in</strong>ematischen Modells im Zusammenhang<br />

mit <strong>der</strong> Echtzeitbahn<strong>in</strong>terpolation bis h<strong>in</strong> zur<br />

Berechnung <strong>der</strong> k<strong>in</strong>ematischen Inversen an praxisrelevanten<br />

S<strong>in</strong>gularitäten <strong>der</strong> Masch<strong>in</strong>enkoord<strong>in</strong>aten, um nur e<strong>in</strong>iges<br />

zu nennen, unter den jeweils spezifischen Echtzeitanfor<strong>der</strong>ungen<br />

umgesetzt werden können.<br />

6 Technisch <strong>und</strong> wirtschaftliche Potenziale<br />

Nach Ausführung <strong>der</strong> o.g. Prozessschritte können sämtliche<br />

Modellparameter <strong>und</strong> Koord<strong>in</strong>atentransformationen<br />

des stationären Systemmodells als h<strong>in</strong>reichend genau bekannt<br />

betrachtet werden, womit das Robotersystem sensoriell<br />

<strong>in</strong> <strong>6D</strong> bzw. <strong>der</strong> Pose exakt zu führen ist.<br />

Mit e<strong>in</strong>em <strong>der</strong>art kalibrierten System lassen sich sowohl<br />

globale als auch lokale Objektposen messen <strong>und</strong> <strong>in</strong> Bezug<br />

auf e<strong>in</strong> Objekt def<strong>in</strong>ierte Bewegungsaufgaben mit <strong>der</strong> für<br />

die Praxis erfor<strong>der</strong>lichen Genauigkeit <strong>in</strong> das Roboter-<br />

Steuerungs-KOS überführen. Somit können entwe<strong>der</strong> aufwendige<br />

Teach-Vorgänge entfallen, was zu e<strong>in</strong>er hohen<br />

Produktflexibilität führt o<strong>der</strong> bereits „ge-teachte“ Prozesse<br />

auf e<strong>in</strong>fache Weise auf an<strong>der</strong>e Roboter o<strong>der</strong> roboterunterstützte<br />

Fertigungssysteme übertragen werden.<br />

Zudem können <strong>in</strong>dividuelle Fertigungstoleranzen <strong>der</strong> Objekte<br />

erfasst <strong>und</strong> im S<strong>in</strong>ne e<strong>in</strong>es Pose-Regelkreises ausgeglichen<br />

werden, womit e<strong>in</strong> adaptives Positionierverhalten<br />

erschlossen wird. Letztlich können auch temperatur-,<br />

schwerkraft- bzw. kraft- <strong>und</strong> momentenbed<strong>in</strong>gte Verfor-<br />

Abb. 5: Integrationsszenario<br />

mungen sowohl <strong>der</strong> Objekte als auch <strong>der</strong> Roboterk<strong>in</strong>ematik<br />

erfasst <strong>und</strong> ausgeglichen werden. Dies gilt bis h<strong>in</strong> zu<br />

Verän<strong>der</strong>ungen <strong>der</strong> Geometrierelationen zwischen den<br />

Anlagenteilen, wodurch e<strong>in</strong>e preiswerte F<strong>und</strong>amentierung<br />

<strong>und</strong> Leichtbauweise im Bereich des Möglichen liegt<br />

[34, 35, 36, 38, 39, 40].<br />

Die flexible, automatisierte Montage von Großbauteilen<br />

<strong>in</strong> <strong>der</strong> Luftfahr<strong>in</strong>dustrie erfor<strong>der</strong>t sowohl e<strong>in</strong>e Bauteilform-<br />

<strong>und</strong> Lagekorrektur als auch <strong>in</strong>dividuelle Erfassung<br />

<strong>der</strong> Bauteilgeometrien [35, 38]. Dies wird bei e<strong>in</strong>em zunehmenden<br />

E<strong>in</strong>satz von CFK-Bauteilen mehr <strong>und</strong> mehr<br />

an Bedeutung gew<strong>in</strong>nen. Zur Informationsbeschaffung<br />

werden verschiedene lokale <strong>und</strong> globale Sensoren e<strong>in</strong>gesetzt<br />

(siehe Abb. 6). Mit Hilfe dieser Sensoren wird e<strong>in</strong>e<br />

Form- <strong>und</strong> Lagekorrektur verwirklicht, wobei für die<br />

Formkorrektur überwiegend das globale Messsystem (Laser-Tracker)<br />

herangezogen wird.<br />

Lokale Sensoren (videometrische Messsysteme) werden<br />

<strong>in</strong> <strong>der</strong> letzten Phase <strong>der</strong> Posebahnführung e<strong>in</strong>gesetzt,<br />

Abb. 6: Flexible Flugzeugmontagezelle (Bauteilform- <strong>und</strong><br />

Lagekorrektur)<br />

182 AVN 5/2009


J. Wollnack – <strong>3D</strong>/<strong>6D</strong>-<strong>Visionsysteme</strong> <strong>und</strong> <strong>Lasermessverfahren</strong> <strong>in</strong> <strong>der</strong> <strong>Robotik</strong> <strong>und</strong> Fertigungstechnik <strong>der</strong> Luftfahrt<strong>in</strong>dustrie<br />

Abb. 7: Großbauteilhandl<strong>in</strong>g mit kooperierenden seriellen Robotern (Fotos: Roman Jupitz)<br />

um e<strong>in</strong>en Best-Fit-Ausgleich zwischen benachbarten Bauteilen<br />

bzw. <strong>der</strong>en Schnittstellen herstellen zu können. Um<br />

lokale Messmerkmale <strong>in</strong> e<strong>in</strong> geme<strong>in</strong>sames Koord<strong>in</strong>atensystem<br />

überführen zu können, müssen die Posebeziehungen<br />

<strong>der</strong> lokalen Sensoren zum Referenz-KOS bekannt<br />

se<strong>in</strong>. Diese Beziehungen können gezielt e<strong>in</strong>gemessen<br />

o<strong>der</strong> durch bekannte Bewegungen <strong>der</strong> Messmerkmale ermittelt<br />

werden. Die Messmerkmale repräsentieren hierbei<br />

geometrisch dreidimensionale Objekte, an dieser Stelle<br />

überwiegend <strong>3D</strong>-Raumpunkte bzw. <strong>der</strong>en Ortsvektoren.<br />

Obwohl kalibrierte Aktuatoren o<strong>der</strong> Roboter für iterativ<br />

lernende Ansätze ke<strong>in</strong>eswegs zw<strong>in</strong>gend s<strong>in</strong>d, führen diese<br />

zu e<strong>in</strong>er Beschleunigung iterativer Verfahren. Diese können<br />

durch Messung realer Bewegungen, wie oben gezeigt,<br />

kalibriert werden. Es können dabei serielle, parallele o<strong>der</strong><br />

serielle kartesische K<strong>in</strong>ematiken auch <strong>in</strong> hybri<strong>der</strong> Form<br />

zum E<strong>in</strong>satz kommen.<br />

Je nach Genauigkeitsanfor<strong>der</strong>ungen <strong>und</strong> Umweltbed<strong>in</strong>gungen<br />

müssen Eigenschaften verwendeter Systemmodelle<br />

als stark o<strong>der</strong> schwach zeitvariant betrachtet werden.<br />

Man denke hier z.B. an Temperaturschwankungen, lastbed<strong>in</strong>gte<br />

Verformungen <strong>der</strong> Anlagenteile o<strong>der</strong> auch tidenhubabhängige<br />

Bewegungen von Hallenf<strong>und</strong>amenten. Deshalb<br />

kann entwe<strong>der</strong> e<strong>in</strong>e E<strong>in</strong>messung <strong>der</strong> Systemmodelle<br />

nach dem Aufbau e<strong>in</strong>er Anlage vor dem E<strong>in</strong>takten e<strong>in</strong>es<br />

zu montierenden Bauteils o<strong>der</strong> onl<strong>in</strong>e während des Montageprozesses<br />

notwendig se<strong>in</strong>. In diesem Zusammenhang<br />

ist <strong>in</strong>sbeson<strong>der</strong>e e<strong>in</strong>e gezielte Kalibration ausschließlich<br />

sich verän<strong>der</strong>n<strong>der</strong> Parameter von wirtschaftlichem Interesse.<br />

Mit diesen Ansätzen wurde e<strong>in</strong>e flexible Großbauteilmontagezelle<br />

zusammen mit KUKA im Rahmen e<strong>in</strong>es 2004<br />

veranstalteten Symposiums demonstriert (siehe Abb. 7),<br />

e<strong>in</strong> Versuchstand zur Bauteilform- <strong>und</strong> Lagekorrektur<br />

(siehe Abb. 8), e<strong>in</strong>e Roboterkalibration <strong>und</strong> e<strong>in</strong>e sensoriell<br />

geführte Roboterzelle umgesetzt (siehe Abb. 9).<br />

Insgesamt liegen dezidierte Erfahrungen vor, die e<strong>in</strong>e<br />

Umsetzung <strong>in</strong> wirtschaftlich attraktive Produkte <strong>und</strong> Systemlösungen<br />

zulassen. Die oben erörterten Ansätze können<br />

sowohl für Sensoren am TCP als auch für im Raum<br />

stehende Sensorsysteme herangezogen werden. Lediglich<br />

die Messpose des Sensorsystems ist dann als <strong>in</strong>verse<br />

Transformation heranzuziehen. Letzteres ist mehr für<br />

die Luftfahrt<strong>in</strong>dustrie von Interesse.<br />

Insgesamt können die systematischen Posefehler typischerweise<br />

um e<strong>in</strong>e Größenordnung reduziert werden.<br />

Im Zusammenhang mit dem Pose-Regelkreis werden<br />

die systematischen Posefehler <strong>in</strong> die Größenordnung<br />

<strong>der</strong> Wie<strong>der</strong>holgenauigkeit streben [33, 40]. Das Konvergenzverhalten<br />

h<strong>in</strong>sichtlich <strong>der</strong> systematischen <strong>und</strong> zufälligen<br />

Fehler kommt den Anfor<strong>der</strong>ungen <strong>der</strong> Praxis entgegen<br />

[39]. Dies gilt <strong>in</strong> analoger Weise für die systematischen<br />

bzw. absoluten Posefehler des kalibrierten Robotermodells<br />

bzw. Gesamtsystems. Damit können bei nicht zu<br />

extremen Genauigkeitsanfor<strong>der</strong>ungen die E<strong>in</strong>satzbereiche<br />

von Industrierobotern sowohl zu Lasten <strong>der</strong> Son<strong>der</strong>- als<br />

auch Werkzeugmasch<strong>in</strong>en erweitert werden. Ebenso<br />

kann <strong>der</strong> Montageautomatisierung im Kontext mit e<strong>in</strong>er<br />

montagegerechten Konstruktion sowie dem zumeist bewusst<br />

e<strong>in</strong>geplanten Greiferspiel bzw. den Greiferelastizitäten<br />

e<strong>in</strong>e gewisse Konkurrenz durch sensoriell ergänzte<br />

Robotersysteme erwachsen. Diese Systemkalibration löst<br />

ebenso die Problematik, die bei „Walk<strong>in</strong>g Mach<strong>in</strong>es“ auftritt,<br />

da auch bei ihnen <strong>der</strong> Zusammenhang zwischen Bewegung,<br />

Sensor <strong>und</strong> Werkzeug hergestellt werden muss.<br />

E<strong>in</strong>e Erweiterung des videometrischen <strong>3D</strong>-Positionsmesssystems<br />

um Laser-Po<strong>in</strong>ter-, Laser-L<strong>in</strong>ien- (Light<br />

Amplification by Stimulated Emission of Radiation)<br />

<strong>und</strong> Muster-Projektoren lässt sich leicht bewerkstelligen,<br />

wenn man die Projektionse<strong>in</strong>heit nicht als <strong>in</strong>verse Kamera<br />

heranzieht (siehe Abb. 10).<br />

Man kann so auf e<strong>in</strong>fache <strong>und</strong> preiswerte Weise robuste<br />

topographische Geometriemessungen an Objekten vollziehen.<br />

Optische Verzerrungen <strong>der</strong> Projektionse<strong>in</strong>heit<br />

s<strong>in</strong>d dabei ohne Belang <strong>und</strong> e<strong>in</strong>e Kalibration des Projektormodells<br />

ist so nicht erfor<strong>der</strong>lich. Die Korrespondenz-<br />

Abb. 8: Versuchsstand Bauteilform- <strong>und</strong> Lagekorrektur<br />

(Fotos: Roman Jupitz)<br />

AVN 5/2009 183


J. Wollnack – <strong>3D</strong>/<strong>6D</strong>-<strong>Visionsysteme</strong> <strong>und</strong> <strong>Lasermessverfahren</strong> <strong>in</strong> <strong>der</strong> <strong>Robotik</strong> <strong>und</strong> Fertigungstechnik <strong>der</strong> Luftfahrt<strong>in</strong>dustrie<br />

Abb. 9: Videometrie <strong>und</strong> <strong>Robotik</strong> (Systemkalibration)<br />

Abb. 10: <strong>3D</strong>-Videoemetrie mit Multi-Kamera <strong>und</strong> Projektor<br />

bestimmung lässt sich über die Epipolare des kalibrierten<br />

Multikameramodells im Zusammenhang mit <strong>der</strong> Sehstrahlenabstandsberechnung<br />

sowohl evident beschleunigen<br />

als auch e<strong>in</strong>deutig lösen.<br />

Derartige Technologien werden mit hoher Wahrsche<strong>in</strong>lichkeit<br />

<strong>in</strong> den nächsten Jahren sowohl generell für die<br />

Automatisierung als auch speziell für die Weiterentwicklung<br />

des roboterunterstützten Laser-Remote-Schweißens<br />

bis h<strong>in</strong> zur Remote Schweißnahtverfolgung bedeutsam<br />

se<strong>in</strong> (siehe Abb. 11). Hiervon wird nicht zuletzt auch<br />

die Automobil- <strong>und</strong> Luftfahrt<strong>in</strong>dustrie profitieren können.<br />

Iteration <strong>und</strong> Lernvorgänge s<strong>in</strong>d auf e<strong>in</strong>er abstrakten Ebene<br />

äquivalent, weshalb man vermutlich sowohl <strong>in</strong> <strong>der</strong> belebten<br />

Natur als auch beim Menschen für das Lernen das<br />

Pr<strong>in</strong>zip <strong>der</strong> Wie<strong>der</strong>holung genutzt wird. Er<strong>in</strong>nern wir uns<br />

daran, wie oft wir e<strong>in</strong>en Ball fangen mussten, bis unsere<br />

Hand-Augen-Koord<strong>in</strong>ation e<strong>in</strong>igermaßen gut tra<strong>in</strong>iert<br />

war. Letztlich machen wir dies bei <strong>der</strong> Systemkalibration<br />

<strong>in</strong> gewisser Weise auch. Es liegt daher <strong>der</strong> E<strong>in</strong>satz e<strong>in</strong>es<br />

neuronalen Netzes als Systemmodell nahe. Dies macht <strong>in</strong><br />

<strong>der</strong> Technik <strong>in</strong> <strong>der</strong> Regel jedoch nur dann S<strong>in</strong>n, wenn zudem<br />

e<strong>in</strong> Struktur-Identifikationsproblem vorliegt.<br />

7 Empirisches Genauigkeitsverhalten<br />

Die Genauigkeitskontrolle des Gesamtsystems bestehend<br />

aus Industrieroboter <strong>und</strong> <strong>3D</strong>-Sensor kann durch e<strong>in</strong>en Vergleich<br />

mit e<strong>in</strong>em Referenzmesssystem, Referenznormalen<br />

o<strong>der</strong> Prüfkörpern erfolgen. Dabei lassen sich (äquidistant)<br />

im Messvolumen verteilte Messpunkte o<strong>der</strong> im<br />

Messvolumen def<strong>in</strong>ierte Messl<strong>in</strong>ien o<strong>der</strong> -ebenen heranziehen<br />

an bzw. auf denen das Verhalten des Systems charakterisiert<br />

wird. Durch den Vergleich von Ist- <strong>und</strong> Sollwerten<br />

können dann die das System beschreibenden Genauigkeitskenngrößen<br />

ermittelt werden.<br />

Abb. 11: Roboterunterstütztes<br />

Remote-Laser-Schweißen<br />

184 AVN 5/2009


J. Wollnack – <strong>3D</strong>/<strong>6D</strong>-<strong>Visionsysteme</strong> <strong>und</strong> <strong>Lasermessverfahren</strong> <strong>in</strong> <strong>der</strong> <strong>Robotik</strong> <strong>und</strong> Fertigungstechnik <strong>der</strong> Luftfahrt<strong>in</strong>dustrie<br />

Abb. 12: Positionierfehler D <strong>der</strong> Kugelradien (Sensor<strong>und</strong><br />

Roboterkalibration bzw. Systemkalibration mittels Referenzmarken)<br />

Für die Charakterisierung des Positionierverhaltens des<br />

unkalibrierten Industrieroboters wurde als Referenzsystem<br />

e<strong>in</strong> Laser-Tracker von Leica herangezogen. Da dessen<br />

Unsicherheiten um e<strong>in</strong>e Größenordnung ger<strong>in</strong>ger als<br />

die Genauigkeit des zu bewertenden Systems ausfallen,<br />

können diese <strong>in</strong> erster Näherung als sicher betrachtet werden<br />

(Unsicherheiten Kugelradien um Messpunkt:<br />

L 0 ¼ 5 l=m; r ¼ 5 lm; ca. 10 %-tigen Fehleranteil hat<br />

die Referenz). Die Posemessung erfolgte mittels dreier<br />

am Tool Center Po<strong>in</strong>t applizierten Tripelspiegeln.<br />

Zur Charakterisierung des absoluten Positionierverhaltens<br />

wurden im Raum liegende Diagonalen, die sich <strong>in</strong> <strong>der</strong> vor<strong>der</strong>en<br />

Sphäre des Arbeitsraumes des Industrieroboters bef<strong>in</strong>den,<br />

gewählt. Für die Berechnung des Fehlerverhaltens<br />

müssen die Soll- <strong>und</strong> gemessenen Ist-werte <strong>in</strong> e<strong>in</strong>em geme<strong>in</strong>samen<br />

Koord<strong>in</strong>atensystem beschrieben werden. Die<br />

hierfür zu bestimmende Koord<strong>in</strong>atentranformation wurde<br />

über e<strong>in</strong> M<strong>in</strong>imierungsansatz, <strong>der</strong> sämtliche Fehler zwischen<br />

den Ist- <strong>und</strong> Sollkoord<strong>in</strong>aten <strong>der</strong> Messpunkte m<strong>in</strong>imiert,<br />

ermittelt. Der mittlere systematische Positionsfehler<br />

<strong>der</strong> Kugelradien des ab Werk ausgelieferten Industrie-<br />

roboters lag je nach Lage <strong>der</strong> Geraden <strong>in</strong> <strong>der</strong> Größenordnung<br />

von 3–5 mm.<br />

Die Wie<strong>der</strong>holgenauigkeit des Industrieroboters wurde<br />

mit <strong>in</strong> <strong>der</strong> vor<strong>der</strong>en Sphäre des Arbeitsraumes liegenden<br />

55 Posen, die jeweils <strong>in</strong> Masch<strong>in</strong>enkoord<strong>in</strong>aten mit positiver<br />

<strong>und</strong> negativer Anfahrrichtung 10 mal angefahren<br />

wurden, über <strong>in</strong>sgesamt 550 Messungen ermittelt. Die<br />

Streuung <strong>der</strong> Kugelradien ergab sich zu r ¼ 77 lm <strong>und</strong><br />

entspricht von <strong>der</strong> Größenordnung <strong>der</strong> Spezifikation<br />

des Herstellers.<br />

Zur Charakterisierung des Positionierverhaltens des mit<br />

e<strong>in</strong>em Multikamerasystem ausgestatten Industrieroboters<br />

wurde e<strong>in</strong> Messvolumen von ca. 1 m 3 herangezogen (siehe<br />

auch Abb. 9). Die Systemkalibration erfolgte über 56<br />

im Messvolumen verteilte Aktuatorposen. E<strong>in</strong>e Kontrolle<br />

des Positionerverhaltens wurde zwischen diesen Posen<br />

vollzogen. Die Ergebnisse <strong>in</strong> Abb. 12 zeigen, dass die absoluten<br />

Positionerfehler um mehr als e<strong>in</strong>e Größenordnung<br />

abnehmen. Der mittlere systematische Positionsfehler <strong>der</strong><br />

Kugelradien liegt bei ca. 300 lm. Dieses Verhalten gilt<br />

analog auch für die W<strong>in</strong>kelfehler des TCP, die <strong>in</strong>sbeson<strong>der</strong>e<br />

bei größeren Greifergeometrien bzw. größeren zu<br />

handhabenden Objekten bedeutsam werden.<br />

Bei dem e<strong>in</strong>gesetzten LED-Beleuchtungssystem (Light<br />

Emitt<strong>in</strong>g Diode) besteht e<strong>in</strong> nicht zu vernachlässigendes<br />

Optimierungspotenzial im H<strong>in</strong>blick auf e<strong>in</strong>e verbesserte<br />

(homogenere) Ausleuchtung <strong>in</strong>sbeson<strong>der</strong>e auch <strong>in</strong> den<br />

Randbereichen <strong>der</strong> Kamerasichtfel<strong>der</strong> (LED-Beleuchtungs-<br />

auf Objektivöffnungsw<strong>in</strong>kel abstimmen). Es lässt<br />

sich absehen, dass man dann mit hoher Wahrsche<strong>in</strong>lichkeit<br />

bis <strong>in</strong> den Genauigkeitsbereich von ca. 200 lm vorstoßen<br />

kann.<br />

8 Zusammenfassung <strong>und</strong> Ausblick<br />

Die Videometrie, <strong>Robotik</strong>, Fertigungs- <strong>und</strong> Montagetechnik<br />

hat <strong>und</strong> wird von <strong>der</strong> Entwicklung <strong>der</strong> Elektronik <strong>und</strong><br />

<strong>der</strong>en Bauste<strong>in</strong>en auch <strong>in</strong> Zukunft profitieren. Neben den<br />

hochauflösenden videometrischen Messsystemen ließen<br />

sich aber auch bei nicht zu hohen Anfor<strong>der</strong>ungen an<br />

Abb. 13: Positionierfehler D <strong>in</strong> <strong>der</strong><br />

Ebene (Roboter-Kalibration mittels<br />

Laser-Tracker)<br />

AVN 5/2009 185


J. Wollnack – <strong>3D</strong>/<strong>6D</strong>-<strong>Visionsysteme</strong> <strong>und</strong> <strong>Lasermessverfahren</strong> <strong>in</strong> <strong>der</strong> <strong>Robotik</strong> <strong>und</strong> Fertigungstechnik <strong>der</strong> Luftfahrt<strong>in</strong>dustrie<br />

die Messgenauigkeit Low-Cost-CCD/CMOS-Kamera-<br />

Systeme (z.B. Internet-Kamera) durch e<strong>in</strong>e Kamerabzw.<br />

Systemkalibration essenziell <strong>in</strong> ihrer Genauigkeit<br />

verbessern <strong>und</strong> somit für Messaufgaben mit mittleren Genauigkeitsanfor<strong>der</strong>ungen<br />

heranziehen. Mit den videometrischen<br />

Messsystemen können roboterunterstützte Topographie-<br />

<strong>und</strong> Konturvermessung von Komponenten <strong>und</strong><br />

Werkzeugen auf Maßhaltigkeit im Masch<strong>in</strong>enbau <strong>und</strong><br />

<strong>der</strong> Elektronik realisiert werden. E<strong>in</strong>e Fertigungs- <strong>und</strong><br />

Montageautomatisierung auch für kle<strong>in</strong>e Losgrößen<br />

o<strong>der</strong> <strong>in</strong>dividuelle zu berücksichtigen Fertigungs- <strong>und</strong> Lagetoleranzen<br />

<strong>in</strong> <strong>3D</strong> bzw. <strong>6D</strong> liegt damit preiswert im Bereich<br />

des Möglichen. Ebenso lassen sich mittels e<strong>in</strong>er videometrischen<br />

Fugen- o<strong>der</strong> Schweißnahtvermessung semiautonome<br />

Schweißroboter bis h<strong>in</strong> zu flexiblen Laser<br />

Remote Schweißsystemen realisieren. Nicht zuletzt können<br />

von diesen Konzepten sowohl die Navigation als auch<br />

mediz<strong>in</strong>ische Roboteranwendungen profitieren.<br />

Insgesamt liegt hier e<strong>in</strong> attraktives technisch, wirtschaftliches<br />

Potenzial vor, welches mit hoher Wahrsche<strong>in</strong>lich<br />

e<strong>in</strong>e nicht unwichtige Technologie für die <strong>in</strong>ternationale<br />

Wettbewerbsfähigkeit <strong>der</strong> europäischen Fertigungs<strong>in</strong>dustrie<br />

speziell auch <strong>der</strong> Luftfahrt<strong>in</strong>dustrie spielen wird.<br />

Literatur<br />

[1] BERG, J. O.: E<strong>in</strong> Meß- <strong>und</strong> Berechnungsverfahren zur Bestimmung<br />

<strong>und</strong> Verbesserung spezieller Kenngrößen beliebiger<br />

Industrieroboter : Dissertation am Fachbereich<br />

Masch<strong>in</strong>enbau <strong>der</strong> Universität <strong>der</strong> B<strong>und</strong>eswehr Hamburg.<br />

Hamburg : 1990<br />

[2] BORGELT, C.; KLAWONN, F.; KRUSE, R.; NAUCK, D.: Neuro-<br />

Fuzzy-Systeme. Vieweg & Sohn Verlagsgesellschaft/<br />

GWV Fachverlag GmbH, 3. Auflage 2003<br />

[3] BOYER, K. L.; KAK, A. C.: Color-Encoded Structured<br />

Light for Rapid Active Rang<strong>in</strong>g. IEEE Transactions on<br />

PAMI, Vol. PAMI-9, 1987, Seiten 24–28<br />

[4] BREUCKMANN, B.: Optische <strong>3D</strong>-Meßsysteme für Onl<strong>in</strong>e-<br />

Anwendungen. tm 10/1990, R. Oldenbourg Verlag<br />

GmbH, 1990<br />

[5] Chip Onl<strong>in</strong>e: Details zum Prozessor-Prototyp mit 80 Kernen.<br />

http://www.chip.de/news/c1_news_24211637.html,<br />

März 2007<br />

[6] DENAVIT, J.; HARTENBERG, R. S.: A K<strong>in</strong>ematic Notation for<br />

Lower-Pair Mechanisms Based on Matrices. ASME J. of<br />

Applied Mechanics, June 1955, Seiten 215–221<br />

[7] JIANG, X.; BUNKE, H.: Dreidimensionales Computersehen.<br />

Spr<strong>in</strong>ger Verlag GmbH & Co. KG, Berl<strong>in</strong> Heidelberg<br />

New York, 1997<br />

[8] FÖHR, R.: Photogrammetrische Erfassung räumlicher Informationen<br />

aus Videobil<strong>der</strong>n. Friedr. Vieweg Verlag &<br />

Sohn Verlagsgesellschaft mbH, Wiesbaden, 1990<br />

[9] GATES, B.: Roboter für je<strong>der</strong>mann. Spektrum <strong>der</strong> Wissanschaft,<br />

März 2007, Seiten 36–45<br />

[10] GERDES, R.; OTTERBACH, R.; KAMMÜLLER, R.: Kalibrierung<br />

e<strong>in</strong>es digitalen Bildverarbeitungssystems mit CCD-Kamera.<br />

Technisches Messen R. Oldenbourg Verlag<br />

GmbH, 60, 6 <strong>und</strong> 7/8, 1993, Teil I Seiten 255–261<br />

<strong>und</strong> Teil II Seiten 283–288<br />

[11] GERDES, SIEGEN R.: Dreidimensionales Messen mit e<strong>in</strong>er<br />

Videokamera unter Ausnutzung geometrischer Randbed<strong>in</strong>gungen.<br />

Düsseldorf : VDI-Verlag GmbH, 1994<br />

[12] GOSSEL, O.: Steigerung <strong>der</strong> Genauigkeit von Industrierobotern<br />

basierend auf e<strong>in</strong>er durchgängigen Genauigkeitsanalyse.<br />

Dissertation am Arbeitsbereich Werkzeugmasch<strong>in</strong>en<br />

<strong>und</strong> Automatisierungstechnik FT II <strong>der</strong> Technischen<br />

Universität Hamburg-Harburg, Hamburg, 1996<br />

[13] GOSWANNI, A.; QUAID, A.; PESHKIN, M.: Complete Parameter<br />

Identification of a Robot from partial Pose Information.<br />

Proc. IEEE Int. Conf. On Robotics and Automation,<br />

1993, Seiten 169–173<br />

[14] HELLENDORN, H.; DRIANKOV, D.: Fuzzy Model Identification,<br />

Spr<strong>in</strong>ger Verlag, Berl<strong>in</strong> Heidelberg New York, 1997<br />

[15] HOLLERBACH, J. M.: A Survey of K<strong>in</strong>ematics Calibration.<br />

The Robotics Review MIT Press, 1988, Seiten 207–242<br />

[16] IZQUIERDO, M. A. G.; SANCHEZ, M. T.; IBANEZ, A.; ULLATE, L. G.:<br />

Sub-pixel measurement of <strong>3D</strong> surfaces by laser scann<strong>in</strong>g.<br />

Sensors and Actuators A: Physical, 76, 1999, Seiten 1–8<br />

[17] KÜHN, W.: Untersuchung von Evolutionsstrategien zur<br />

Identifikation des nichtl<strong>in</strong>earen Systemverhaltens 6-achsiger<br />

Gelenkarmroboter, Dissertation am Fachbereich<br />

Produktionstechnik <strong>der</strong> Universität Bremen, Reihe 8.<br />

Nr. 267. Düsseldorf : VDI-Verlag GmbH, 1991<br />

[18] LAWSON, C. L.; HANSON, R. J.: Solv<strong>in</strong>g Least Squares Problems.<br />

Englewood Cliffs: Prentice-Hall International<br />

Inc., 1974<br />

[19] LENZ, R.; TSAI, R. Y.: Techniques for Calibration of the<br />

Scale Factor and Image Center for High Accuracy <strong>3D</strong><br />

Mach<strong>in</strong>e Vision Metrology. IBM Research Report RC<br />

54867, 1986<br />

[20] LENZ, R.: Videometrie mit CCD-Sensoren <strong>und</strong> Ihre Anwendung<br />

<strong>in</strong> <strong>der</strong> <strong>Robotik</strong>, Habilitation am Lehrstuhl für<br />

Nachrichtentechnik <strong>der</strong> Technischen Universität München.<br />

München, 1988<br />

[21] LOTZE, W.: Beste<strong>in</strong>passung von geometrischen Formelementen<br />

<strong>und</strong> Bohrbil<strong>der</strong>n mit def<strong>in</strong>ierten Toleranzzonen.<br />

Technisches Messen 67, Oldenbourg Verlag, 2000<br />

[22] LUHMANN, T.: E<strong>in</strong> hochauflösendes automatisches Bildmeßsystem.<br />

Dissertation, Wissenschaftliche Arbeiten<br />

<strong>der</strong> Fachrichtung Vermessungswesen <strong>der</strong> Universität<br />

Hannover, 1988<br />

[23] MALZ, R. W.: Codierte Lichtstrukturen für 3-D-Meßtechnik<br />

<strong>und</strong> Inspektion. Stuttgart : Dissertation, 1992<br />

[24] PAUL, R. P.: Robot Manipulators : Mathematics, Programm<strong>in</strong>g,<br />

and Control. Seventh pr<strong>in</strong>t<strong>in</strong>g Cambridge:<br />

The MIT Press, 1986<br />

[25] PRESS, W. H.; FLANNERY, B. P.; TEUKOLSKY, S. A.; VETTER-<br />

LING, W. T.: Numerical Recipes <strong>in</strong> C. Cambridge New<br />

York: Cambridge University Press, 1990<br />

[26] RALL, K.; WOLLNACK, J.; GOSSEL, O.: K<strong>in</strong>ematische Ketten:<br />

Schnelle <strong>und</strong> exakte Differentiation. Automatisierungstechnik,<br />

Oldenbourg Verlag GmbH, München, at<br />

1/95, 1995, Seiten 14–23<br />

[27] ROTH, Z. S.; MOORING, B. W.; RAVANI, B.: An Overview of<br />

Robot Calibration. IEEE J. Robotics and Automation<br />

Vol. RA-5 No. 5, 1987, Seiten 377–385<br />

[28] SARH, B.: Beitrag zur Optimierung von Prozeßparametern<br />

für Endeffektoren von flexibel automatisierten Montagesystemen<br />

des Flugzeugbaus. Dissertation, Technische<br />

Universität Hamburg-Harburg, 1992<br />

[29] SCHRÖER, K.: Identifikation von Kalibrationsparametern<br />

k<strong>in</strong>ematischer Ketten, Dissertation, Produktionstechnik-Berl<strong>in</strong>,<br />

Forschungsberichte für die Praxis 126. München<br />

Wien : Carl Hanser Verlag GmbH & Co., 1993<br />

[30] TANG, G.-R.; MOORING, B. W.: Plane Motion Approach to<br />

Manipulator Calibration. Int. Journal of Advanced Manufactur<strong>in</strong>g<br />

Technology, 1992, Seiten 21–28<br />

186 AVN 5/2009


J. Wollnack – <strong>3D</strong>/<strong>6D</strong>-<strong>Visionsysteme</strong> <strong>und</strong> <strong>Lasermessverfahren</strong> <strong>in</strong> <strong>der</strong> <strong>Robotik</strong> <strong>und</strong> Fertigungstechnik <strong>der</strong> Luftfahrt<strong>in</strong>dustrie<br />

[31] TSAI, R. Y.: AVersatile Camera Calibration Technique for<br />

High Accuracy <strong>3D</strong> Mach<strong>in</strong>e Vision Metrology us<strong>in</strong>g Offthe-Shelf<br />

Cameras and Lenses. IBM Res. Rep. RC<br />

54867, 1985<br />

[32] TSAI, D. M.: A Mach<strong>in</strong>e Vision Approach for Detect<strong>in</strong>g<br />

and Inspect<strong>in</strong>g Circular parts. The International Journal<br />

of Advanced Manufactur<strong>in</strong>g Technology, 1999, Seiten<br />

217–221<br />

[33] WOLLNACK, J.: Videometrische Verfahren zur Genauigkeitssteigerung<br />

von Industrierobotern, Habilitation, Forschungsschwerpunkt<br />

Werkstoffe – Konstruktion – Fertigung<br />

<strong>der</strong> Technischen Universität Hamburg-Harburg,<br />

Technischen Universität Hamburg-Harburg, März<br />

2000, Shaker Verlag 2001<br />

[34] WOLLNACK, J.: Precision Increase of Industrial Robots.<br />

Second Asian Symposium Industrial Automation and<br />

Robotics, 17–18 May 2001, pp. 16–24<br />

[35] WOLLNACK, J.; RALL, K.; QUELLMALZ, W.: Flexibilisierte,<br />

automatisierte Großbauteilmontage, VDI-Z WT Werkstattstechnik<br />

onl<strong>in</strong>e, Spr<strong>in</strong>ger Verlag, 12/2001,<br />

www.technikwissen.de/wt/2001/12/16.htm<br />

[36] WOLLNACK, J.; RALL, K.; QUELLMALZ, W.: Videometrische<br />

Messverfahren für die Flugzeugmontage, VDI-Z WT Integrierte<br />

Produktion, Spr<strong>in</strong>ger Verlag, 4/2002, Seiten<br />

60–61<br />

[37] WOLLNACK, J.: Positions- <strong>und</strong> Orientierungsbestimmung<br />

auf <strong>der</strong> Basis von Positions<strong>in</strong>formationen, Technisches<br />

Imag<strong>in</strong>g with Synthetic Aperture Radar<br />

DIDIER MASSONET &JEAN-<br />

CLAUDE SOUYRIS, 2008,<br />

EPFL Press, 280 Seiten,<br />

ISBN 8978-2-940222-15-5;<br />

CRC Press<br />

ISBN 978-0-8493-8239-0.<br />

Die Bedeutung von Synthetic<br />

Aperture Radar (SAR) fürdie<br />

Geowissenschaften wird alle<strong>in</strong><br />

schon durch die große<br />

Anzahl von Neuersche<strong>in</strong>ungen<br />

<strong>in</strong> den letzten Jahren<br />

auf diesem Gebiet dokumentiert.<br />

Beson<strong>der</strong>s die Möglichkeit,<br />

großräumig vom Satelliten<br />

<strong>und</strong>/o<strong>der</strong> vom Flugzeug<br />

aus zu je<strong>der</strong> Tages- <strong>und</strong><br />

Nachtzeit <strong>und</strong> allen Wetterbed<strong>in</strong>gungen<br />

die Erdoberfläche<br />

<strong>und</strong> <strong>der</strong>en zeitlichen<br />

Än<strong>der</strong>ungen mit hoher Genauigkeit<br />

flächenhaft zu beobachten,<br />

macht dieses Messverfahren<br />

für Geodäten <strong>und</strong><br />

Geophysiker so reizvoll.<br />

Will man SAR, se<strong>in</strong>en Aufbau<br />

<strong>und</strong> Wirkungsweise ver-<br />

stehen <strong>und</strong> se<strong>in</strong>e Möglichkeiten<br />

voll ausschöpfen, ist<br />

umfangreiches Gr<strong>und</strong>lagenwissen<br />

nötig, das über den<br />

Rahmen <strong>der</strong> Ausbildung <strong>in</strong><br />

Geodäsie o<strong>der</strong> Geophysik<br />

weit h<strong>in</strong>ausgeht. Dieses<br />

musste man sich aus Artikeln<br />

<strong>in</strong> Fachzeitschriften <strong>und</strong><br />

Fachbücher <strong>der</strong> Elektrotechnik,<br />

– im speziellen <strong>der</strong> Radartechnologie<br />

– <strong>und</strong> <strong>der</strong><br />

Fernerk<strong>und</strong>ung, zusammensuchen.<br />

Dieses Problem löst jetzt das<br />

Buch „Imag<strong>in</strong>g with Synthetic<br />

Aperture Radar“ von Didier<br />

Massonet <strong>und</strong> Jean-<br />

Claude Souyris, zwei ausgewiesenen<br />

Experten auf dem<br />

Gebiet des SAR. Auf 280<br />

Seiten werden das nötige<br />

Gr<strong>und</strong>lagenwissen vermittelt<br />

<strong>und</strong> die <strong>der</strong>zeitigen Prozessierungsmethoden<br />

behandelt,<br />

um SAR selbst, die Erzeugung<br />

von SAR-Szenen <strong>und</strong><br />

<strong>der</strong>en Interpretation erfolg-<br />

Messen (tm), Veröffentlichung Heft 06.2002, Seiten<br />

308–316<br />

[38] WOLLNACK, J.; STEPANEK, P.: Formkorrektur <strong>und</strong> Lageführung<br />

für e<strong>in</strong>e flexible <strong>und</strong> automatisierte Großbauteilmontage,<br />

VDI-Z WT Werkstattstechnik onl<strong>in</strong>e, Spr<strong>in</strong>ger<br />

Verlag, 2004<br />

[39] WOLLNACK, J.: Lehrunterlagen <strong>Robotik</strong> (Analyse, Modellierung<br />

<strong>und</strong> Identifikation), http://www.tu-harburg.de/<br />

ft2/wo/, 2007<br />

[40] STEPANEK, P.: Flexibel automatisierte Montage von leicht<br />

verformbaren großvolumigen Bauteilen, Shaker Verlag,<br />

Januar 2007<br />

[41] ZHUANG, H.; ROTH, X.XU; WANG, K.: Camera Calibrations<br />

Issues <strong>in</strong> Robot Calibration with Eye-On-hand Configuration.<br />

Int. J. Robotics and Computer-Integrated Manufactur<strong>in</strong>g,<br />

Vol. 10, No. 6, 1993, Seiten 401–412<br />

Anschrift des Verfassers:<br />

Dr.-Ing. habil. JÖRG WOLLNACK, Technische Universität<br />

Hamburg-Harburg, Institut für Werkzeugmasch<strong>in</strong>en,<br />

Roboter <strong>und</strong> Montageanlagen, Denickestraße 17,<br />

21073 Hamburg, Tel. 49-(0) 40-4 28 78-34 94,<br />

E-Mail: wollnack@tu-harburg.de<br />

reich zu verstehen <strong>und</strong> anwenden<br />

zu können.<br />

Das Buch ist <strong>in</strong> 5 Kapitel geglie<strong>der</strong>t.<br />

Jedes Kapitel wird<br />

mit e<strong>in</strong>em Literaturverzeichnis<br />

abgeschlossen, das die relevante<br />

zitierten <strong>und</strong> weiterführenden<br />

Artikel <strong>und</strong> Fachbücher<br />

auflistet. Das Buch<br />

wird mit e<strong>in</strong>em umfangreichen<br />

Indexverzeichnis abgeschlossen.<br />

Das Buch behandelt vor allem<br />

die Erzeugung von<br />

SAR-Szenen aus Radarsignalen.<br />

Diese wird vor allem<br />

durch die rasante Entwicklung<br />

<strong>der</strong> heutigen Rechner<br />

<strong>und</strong> Speichermöglichkeiten<br />

bestimmt. Entsprechend dazu<br />

werden <strong>in</strong> dem Buch vor<br />

allem Methoden behandelt,<br />

die früher nur mit Hochleistungsrechnern<br />

<strong>in</strong> Großrechenzentren<br />

wirtschaftlich<br />

gelöst werden konnten. Kapitel<br />

1 überschrieben mit „A<br />

Theoretical Emergency Kit<br />

BUCHBESPRECHUNGEN<br />

. . . . . . . . . . . . . . . . . . .<br />

for SAR Imagery“ stellt die<br />

wichtigsten physikalischen<br />

<strong>und</strong> mathematischen Gr<strong>und</strong>lagen<br />

<strong>der</strong> Radartechnologie<br />

<strong>und</strong> <strong>der</strong> SAR-Szenenprozessierung<br />

– wie Maxwell-Gleichungen,<br />

SAR Antennen,<br />

Rückstrahlverhalten <strong>der</strong> Erdoberfläche<br />

o<strong>der</strong> Fourier-<br />

Transformation – dar.<br />

Kapitel 2 „SAR Process<strong>in</strong>g:<br />

At the Heart of the SAR<br />

Technique“ beschreibt im<br />

Detail die Erfassung von Radarbil<strong>der</strong>n<br />

mit <strong>der</strong> SAR-<br />

Technologie <strong>und</strong> die Gr<strong>und</strong>lagen<br />

<strong>der</strong> geometrischen<br />

Auswertung <strong>der</strong> Radarsignale.<br />

Hierbei wird auf die<br />

wichtigsten heute benutzten<br />

Rechenverfahren e<strong>in</strong>gegangen<br />

<strong>und</strong> die Lösungsansätze<br />

dazu kurz beschrieben, um<br />

so genannte „S<strong>in</strong>gle Look<br />

Complex“-Szenen (SLC) zu<br />

erzeugen.<br />

weiter auf S. 199<br />

AVN 5/2009 187

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!