KEM Konstruktion Kollaborative Robotik 2018
Trendschwerpunkt: Kollaborative Robotik; Messe Automatica 2018; KEM Porträt: Helmut Schmid, Geschäftsführer bei Universal Robots; KEM Perspektiven: Robotik in der Landwirtschaft
Trendschwerpunkt: Kollaborative Robotik; Messe Automatica 2018; KEM Porträt: Helmut Schmid, Geschäftsführer bei Universal Robots; KEM Perspektiven: Robotik in der Landwirtschaft
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
AUTOMATISIERUNG<br />
MESSTECHNIK & SENSOREN<br />
Kalibrierbare Vision-Sensoren vereinfachen die Einrichtung von Pick-and-Place-Anwendungen<br />
Direkte Kommunikation mit dem Roboter<br />
Anstelle mechanischer Zuführungssysteme kommen in Handling- und Montageanwendungen zunehmend<br />
sensorgesteuerte Lösungen zum Einsatz, die sich flexibel an wechselnde Teilegeometrien anpassen<br />
lassen. Damit die von einem Vision-Sensor ermittelten Positionsdaten für den Roboter verwertbar<br />
sind, ist allerdings eine Transformation von relativen Sensor- in absolute Roboterkoordinaten erforderlich.<br />
Diese lässt sich über eine Kalibrierfunktion im Sensor einfach vornehmen.<br />
Bernd Eckenfels, Leiter Marketing Kommunikation bei SensoPart in Gottenheim<br />
Vision-Sensor statt Mechanik<br />
Flexibler ist in dieser Hinsicht eine optisch kontrollierte Teilezuführung.<br />
Werden die Schikanen am Rütteltopf durch einen bildverarbeitenden<br />
Vision-Sensor ersetzt, lassen sich die Rüstzeiten bei Produktwechseln<br />
signifikant reduzieren. Zur Vereinzelung der als<br />
Schüttgut angelieferten Teile bietet sich der Einsatz eines Vibrationsfeeders<br />
an, bei dem die Vereinzelung teileschonend auf einer ebenen,<br />
vibrierenden Plattform stattfindet. Der Sensor erkennt – z.B.<br />
mit Hilfe eines Blob-Detektores – die Position und Ausrichtung jedes<br />
Teils und liefert diese Daten an den Roboter; auch die gleichzeitige<br />
Detektion mehrerer Teile mit einer Bildaufnahme ist möglich. Verbliebene<br />
Agglomerate sowie andere nicht aufnehmbare Teile werden<br />
ebenfalls erkannt und entsprechende Signale an die übergeordnete<br />
Steuerung gesandt, die den Feeder entsprechend „nachrütteln“<br />
lässt.<br />
Damit die Datenübermittlung vom Vision-Sensor zum Roboter reibungslos<br />
klappt, müssen die von der Kamera gelieferten Bildkoordinaten<br />
zuerst in Roboterkoordinaten umgerechnet werden. Dies war<br />
bisher mit einem nicht unerheblichen Programmieraufwand in der<br />
Steuerungssoftware des Roboters verbunden. Effizienter lässt sich<br />
Auf einem Vibrationsfeeder lassen sich Teile effektiv und ohne mechanische<br />
Schikanen vereinzeln. Ein Vision-Sensor der Reihe Visor Robotic von<br />
SensoPart liefert dem Handling-Roboter die exakte Teileposition in Roboterkoordinaten<br />
Bild: SensoPart<br />
Das Handling von Bauteilen und Werkstücken ist ein Standardprozess<br />
bei der Herstellung komplexer Produkte. Dabei liegt<br />
die Herausforderung in der positions- und lagerichtigen Teilebereitstellung:<br />
So müssen bei der Zuführung über einen Vibrationswendelförderer<br />
bei jeder Änderung der Teilegeometrie mechanische<br />
Führungshilfen – sogenannte Schikanen – angepasst werden, wodurch<br />
zusätzliche <strong>Konstruktion</strong>s- und Rüstzeiten anfallen. Zudem<br />
sind solche Vorrichtungen erfahrungsgemäß störanfällig, wodurch<br />
es immer wieder zu Maschinenstillständen kommt.<br />
Bild: SensoPart<br />
Sensor und Roboter arbeiten mit verschiedenen Koordinatensystemen und<br />
Maßeinheiten. Der Ursprung (0,0) der Sensorkoodinaten liegt z.B. in der<br />
Bildmitte und Längenangaben werden in Bildpixeln ausgegeben; der Roboter<br />
hingegen benötigt alle Angaben in Millimetern und bezogen auf einen<br />
realen Ort in der Welt, zum Beispiel seinen Fußpunkt<br />
50 K|E|M <strong>Konstruktion</strong> KOLLABORATIVE ROBOTIK <strong>2018</strong>