Automationspraxis 06.2019
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
_Titelgeschichte<br />
Roboter lernen sehen“ titelte kürzlich eine<br />
durchaus angesehene technische Fachzeitung<br />
zu einem Artikel der Uni Bayreuth<br />
über die Möglichkeiten, die man mit einer Kombination<br />
von Roboter und Visiontechnik hat – mit<br />
ansprechenden Ergebnissen. In der Praxis, jedenfalls<br />
bei Fanuc, ist die Zusammenarbeit von Roboter<br />
und Visionsystem längst gang und gäbe.<br />
„Aber“, sagt Nico Hermann, Technical Manager<br />
Robotics im Tec Center von Fanuc Deutschland,<br />
„es ist ja nicht nur die Kamera.“<br />
Warum also nicht auf Errungenschaften neuer<br />
Technologien zurückgreifen? Warum nicht künstliche<br />
Intelligenz nutzen? Schon die erste Deep-<br />
Learning-Präsentation von Fanuc auf der CeBit<br />
vor zwei Jahren zeigte, in welche Richtung die<br />
Entwicklung gehen wird. In dieser Zelle stehen<br />
zwei Roboter mit Area Vision Sensor an einer Kiste<br />
mit Teilen, die die Roboter, ohne eigens geteacht<br />
zu werden, aus der Kiste holen sollen.<br />
Roboter teilen Erfahrungen<br />
Die dabei gemachten Erfahrungen speichert jeder<br />
Roboter in der internen, Fog genannten Cloud.<br />
Dort stehen diese Informationen auch dem anderen<br />
Roboter zur Verfügung. Arbeiten beispielsweise<br />
vier Roboter an dieser Kiste, profitieren sie von<br />
den Erfahrungen der anderen Roboter und räumen<br />
die Kiste entsprechend schneller. Die Lernkurve<br />
beeindruckt: Nach 1000 Versuchen hat der<br />
Roboter eine Erfolgsquote von 60%, nach 5.000<br />
Versuchen kann er schon 90% aller Teile greifen –<br />
ohne dass eine einzige Zeile Programm-Code geschrieben<br />
werden muss.<br />
Bereits in dieser Zelle demonstrierte Fanuc integrierte<br />
Bildverarbeitung kombiniert mit künstlicher<br />
Intelligenz – bei Fanuc als Artificial Intelligence<br />
mit AI abgekürzt. Nico Hermann: „Der<br />
nächste Schritt wird sein, dass wir dem System die<br />
CAD-Daten der zu greifenden Teile mitgeben.“<br />
Damit ist der Robotersteuerung die Geometrie der<br />
Teile bekannt, das von der Kamera gemachte Bild<br />
wird mit diesen Daten verglichen und so die optimale<br />
Greifposition ermittelt.<br />
Erstes Visionsystem schon 1984<br />
Ein bisschen Technikgeschichte gefällig? Roboterhersteller<br />
hatten schon Anfang der 80er-Jahre<br />
Hoffnungen auf die Visiontechnik gesetzt. Doch<br />
die Bildverarbeitung war zu diesem Zeitpunkt<br />
noch keine Plug&Play-Technik. Und so gaben viele<br />
die Entwicklung wieder auf. Fanuc bewies jedoch<br />
einen langen Atem und präsentierte 1984 ein<br />
erstes Visionsystem.<br />
Anfang der 90er-Jahre gab es einen Prospekt, in<br />
dem das Visionsystem Insight vorgestellt wurde.<br />
Eine der wichtigsten Botschaften: „Das Visionsystem<br />
ist integriert in die Robotersteuerung. Und<br />
durch seine Bildverarbeitungssoftware wird die<br />
Programmierung so einfach wie noch nie.“ Daran<br />
hat sich im Prinzip bis heute nichts verändert.<br />
Ausdruck der tiefen Integration ist auch, dass die<br />
Visiontechnik bei Fanuc gar keine eigene Sparte<br />
ist. Sie zählt mit Kraft-Momenten-Sensoren zu<br />
den „Intelligent Features“ der Roboter.<br />
Warum ein Roboterhersteller wie Fanuc auf die<br />
Visiontechnik setzt, erläutert Nico Hermann: „Bei<br />
manchen Aufgaben ist der Einsatz eines Visionsystems<br />
nicht nur Teil der Automatisierung; das Visionsystem<br />
ist sogar der Teil, ohne den sich eine Automation<br />
überhaupt nicht wirtschaftlich darstel-<br />
Bild: Fanuc<br />
Roboter mit Fanuc 3D Vision<br />
- hier mit 3D Laser<br />
Sensor – erkennen und<br />
handhaben beliebig platzierte<br />
Objekte.