04.06.2019 Aufrufe

Automationspraxis 06.2019

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

_Titelgeschichte<br />

Roboter lernen sehen“ titelte kürzlich eine<br />

durchaus angesehene technische Fachzeitung<br />

zu einem Artikel der Uni Bayreuth<br />

über die Möglichkeiten, die man mit einer Kombination<br />

von Roboter und Visiontechnik hat – mit<br />

ansprechenden Ergebnissen. In der Praxis, jedenfalls<br />

bei Fanuc, ist die Zusammenarbeit von Roboter<br />

und Visionsystem längst gang und gäbe.<br />

„Aber“, sagt Nico Hermann, Technical Manager<br />

Robotics im Tec Center von Fanuc Deutschland,<br />

„es ist ja nicht nur die Kamera.“<br />

Warum also nicht auf Errungenschaften neuer<br />

Technologien zurückgreifen? Warum nicht künstliche<br />

Intelligenz nutzen? Schon die erste Deep-<br />

Learning-Präsentation von Fanuc auf der CeBit<br />

vor zwei Jahren zeigte, in welche Richtung die<br />

Entwicklung gehen wird. In dieser Zelle stehen<br />

zwei Roboter mit Area Vision Sensor an einer Kiste<br />

mit Teilen, die die Roboter, ohne eigens geteacht<br />

zu werden, aus der Kiste holen sollen.<br />

Roboter teilen Erfahrungen<br />

Die dabei gemachten Erfahrungen speichert jeder<br />

Roboter in der internen, Fog genannten Cloud.<br />

Dort stehen diese Informationen auch dem anderen<br />

Roboter zur Verfügung. Arbeiten beispielsweise<br />

vier Roboter an dieser Kiste, profitieren sie von<br />

den Erfahrungen der anderen Roboter und räumen<br />

die Kiste entsprechend schneller. Die Lernkurve<br />

beeindruckt: Nach 1000 Versuchen hat der<br />

Roboter eine Erfolgsquote von 60%, nach 5.000<br />

Versuchen kann er schon 90% aller Teile greifen –<br />

ohne dass eine einzige Zeile Programm-Code geschrieben<br />

werden muss.<br />

Bereits in dieser Zelle demonstrierte Fanuc integrierte<br />

Bildverarbeitung kombiniert mit künstlicher<br />

Intelligenz – bei Fanuc als Artificial Intelligence<br />

mit AI abgekürzt. Nico Hermann: „Der<br />

nächste Schritt wird sein, dass wir dem System die<br />

CAD-Daten der zu greifenden Teile mitgeben.“<br />

Damit ist der Robotersteuerung die Geometrie der<br />

Teile bekannt, das von der Kamera gemachte Bild<br />

wird mit diesen Daten verglichen und so die optimale<br />

Greifposition ermittelt.<br />

Erstes Visionsystem schon 1984<br />

Ein bisschen Technikgeschichte gefällig? Roboterhersteller<br />

hatten schon Anfang der 80er-Jahre<br />

Hoffnungen auf die Visiontechnik gesetzt. Doch<br />

die Bildverarbeitung war zu diesem Zeitpunkt<br />

noch keine Plug&Play-Technik. Und so gaben viele<br />

die Entwicklung wieder auf. Fanuc bewies jedoch<br />

einen langen Atem und präsentierte 1984 ein<br />

erstes Visionsystem.<br />

Anfang der 90er-Jahre gab es einen Prospekt, in<br />

dem das Visionsystem Insight vorgestellt wurde.<br />

Eine der wichtigsten Botschaften: „Das Visionsystem<br />

ist integriert in die Robotersteuerung. Und<br />

durch seine Bildverarbeitungssoftware wird die<br />

Programmierung so einfach wie noch nie.“ Daran<br />

hat sich im Prinzip bis heute nichts verändert.<br />

Ausdruck der tiefen Integration ist auch, dass die<br />

Visiontechnik bei Fanuc gar keine eigene Sparte<br />

ist. Sie zählt mit Kraft-Momenten-Sensoren zu<br />

den „Intelligent Features“ der Roboter.<br />

Warum ein Roboterhersteller wie Fanuc auf die<br />

Visiontechnik setzt, erläutert Nico Hermann: „Bei<br />

manchen Aufgaben ist der Einsatz eines Visionsystems<br />

nicht nur Teil der Automatisierung; das Visionsystem<br />

ist sogar der Teil, ohne den sich eine Automation<br />

überhaupt nicht wirtschaftlich darstel-<br />

Bild: Fanuc<br />

Roboter mit Fanuc 3D Vision<br />

- hier mit 3D Laser<br />

Sensor – erkennen und<br />

handhaben beliebig platzierte<br />

Objekte.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!