Handbediengerät mit grafischer Oberfläche vor Roboterarm von ABB

Mit grafischen Tools wie Wizard Easy Programming lässt sich per Drag&Drop von Funktionsblöcken ein Programm für den Roboter zusammenstellen. (Bild: ABB Robotics)

Ein Thema der Automatica 2022 ist die schnelle Inbetriebnahme von Robotern. Wie lassen sich einfache und virtuelle Inbetriebnahme voneinander abgrenzen?
 
Katja Butterweck; Grundsätzlich kann man natürlich die Welten unterscheiden: die virtuelle und die reale. Es geht also darum, ob jemand wirklich am Roboter steht oder ob er am Rechner vor dem Bildschirm sitzt.  

Daneben gibt es aber tatsächlich noch eine Welt dazwischen, wo ich einen PC am Roboter anschließe. Solange ich so wirklich mit dem Roboter verbunden bin und auf der Robotersteuerung arbeite, ist es immer noch die Arbeit am realen Roboter. Aber wenn ich mir jetzt eine digitale Kopie ziehe von meinem realen Roboter und dann an dieser Kopie auf meinem PC arbeite, dann bin ich eigentlich im Bereich virtuelle Inbetriebnahme, weil ich mit dem virtuellen Zwilling arbeite.

Praktischerweise kann man aber auch genau andersherum mit dem virtuellen Roboter anfangen, dort alles vorbereiten und es dann auf das reale System spielen.  

Zur Person: Katja Butterweck

Katja Butterweck (Bild: ABB)

Katja Butterweck hat 2009 bis 2014 an der TU Darmstadt studiert und mit einem Master of Science – Mechanical & Process Engineering abgeschlossen. Zudem hat sie an einem Artificial Intelligence Programme der University von Oxford teilgenommen. Seit 2014 war sie als Applikationsingenieurin für ABB Robotics tätig, seit 2021 repräsentiert sie das Unternehmen als Global Product Specialist.

Welcher Weg eignet sich am besten, Insbesondere für Unternehmen ohne Robotik-Erfahrung?

Butterweck: Tatsächlich gibt es hier keinen richtigen oder falschen Weg. Alles geht!

Was wir in der Praxis sehen ist aber, dass sich in der Regel an zwei Faktoren entscheidet, wie Unternehmen vorgehen. Der eine ist: Wie dringend ist das Projekt? Wenn ich unbedingt noch heute anfangen muss, dann bietet sich die Arbeit am virtuellen Zwilling an.

Und das andere Kriterium?

Butterweck: Der zweite Faktor ist die Größe der Roboter: Je größer der Roboter und damit auch die Kosten des Projektes, desto eher bereite ich eine Einführung virtuell vor. Bei den relativ günstigen Cobots sehen wir dagegen, dass dort oft am realen Roboter angefangen wird, weil er einfach da ist und man wirklich "Hand anlegen" kann.

Welche Tools gibt es von ABB für diese Prozesse?

Butterweck: Auch hier adressieren wir zum einen das Thema "einfach", zum anderen das Thema "virtuell". Bei der einfachen Programmierung gibt es eine grafische Lösung namens Wizard Easy Programming, wo sich durch Drag&Drop von Funktionsblöcken ein Programm zusammenstellen lässt. Das Programm bezieht sich nicht nur auf die ABB-Roboter, es gibt auch Blöcke für Greifer und anderes Standardzubehör von Drittherstellern. Mit Wizard Easy Progamming kann man sowohl am echten Roboter auf dem Handbediengerät wie auch virtuell am PC arbeiten. Wenn jemand schnell und einfach starten möchte, ist das ein sehr guter Einstiegspunkt.

Wenn es um die reine virtuelle Inbetriebnahme geht, empfiehlt sich das Programm Robot Studio. Hier kann man von der Konstruktion der Robotik-Anwendung bis zur Simulation der Lösung inklusive einer Physics Engine alles in einem machen. Oben drauf gibt es dafür noch Plug-ins, mit denen sich Virtual Reality und Augmented Reality umsetzen lassen. Darüber kann man etwa die Hololens von Microsoft oder VR-Brillen anschließen. Über unsere AR-App lässt sich der neue Roboter auch schon auf dem Smartphone in seiner künftigen neuen Umgebung anzeigen.  

Welchen Mehrwert bringen den AR/VR-Visualisierungen?

Butterweck: Ganz simpel gesagt: Es macht das Ganze greifbarer. Wenn man dank AR/VR in der Virtualisierung das Gefühl hat, man steht vor dem Roboter, kann drumherum laufen, dann ist auch für jemanden, der Roboter noch nicht so gut kennt, viel einfacher zu verstehen, was da in einer Anwendung wirklich passiert. Das haben wir einerseits, wenn jemand neu anfängt, das haben wir andererseits aber auch bei großen Systemen. Die werden oft von einem Systemintegrator vorbereitet, der Endkunde kann sich aber über die AR/VR-Lösung die Lösung schon einmal anschauen und Input geben.

Teilnehmer eines Meetings betrachten mit AR-Brillen eine Robotik-Lösung auf dem Besprechungstisch
Mit Augmented-Reality-Tools lässt sich eine Robotik-Lösung virtuell in 3D in eine reale Umgebung einbetten - etwa im Rahmen eines Meetings auch mit virtuellen Teilnehmern. (Bild: ABB Robotics)

Gibt es eigentlich relevante Unterschiede bei der virtuellen Inbetriebnahme zwischen Cobots und klassischen Industrierobotern?

Butterweck: Im Prinzip nicht. Man kann sowohl am realen Roboter wie am virtuellen Zwilling arbeiten, egal ob es ein Cobot oder ein Industrieroboter ist. Ich sehe die Unterscheidung wirklich eher beim Nutzer, wie er mit dem System umgehen möchte.

Was heißt das konkret?

Butterweck: Wir sehen zwei Gruppen von Nutzern: Viele wollen einfach loslegen und direkt mit dem Roboter agieren, um ein Gefühl für dessen Möglichkeiten und Aktionen zu bekommen. Das ist einfacher, wenn man am realen Roboter steht.  

Auf der anderen Seite gibt es potenzielle Anwender, die sagen: Ich will noch nicht gleich investieren, aber ich möchte dennoch schon wissen, was möglich ist. In diesem Fall kann der Nutzer dann etwa mit unserem RobotStudio unmittelbar mit dem virtuellen Zwilling anfangen.

Informiert bleiben zum Thema Robotik!

E-Mail News zum Thema Robotik, verschickt von mi connect

Erhalten Sie jede Woche unsere Updates rund um das Thema Robotik im Handwerk und im Mittelstand. Sichern Sie sich noch heute ihren Vorsprung in Sachen Automatisierung!

Newsletter hier kostenfrei bestellen.

Wie verläuft denn der Weg vom virtuellen Zwilling des Roboters zur Simulation der gesamten Arbeitsumgebung?

Butterweck: Wenn man mit dem Roboter anfängt, dann hat man in der Regel in der Software auch schon einfaches Equipment wie einen Tisch oder einen Greifer mit dabei.

Bei einer großen Anlage, wo Kunden spezielles Equipment verwendet, lässt sich das komplett mit simulieren. In unserer Software ist wie erwähnt auch eine Physics Engine enthalten. Das heißt: Wenn ich Objekte habe, die in der realen Welt umfallen könnten, dann fallen sie auch in der virtuellen Welt um. Das hilft in der Tat ungemein, denn ich will ja das, was später in der Realität passiert, vorher vorbereiten können.

In den Video erläutert Katja Butterweck die einfache Programmierung mit der Software Wizard Easy Programming

Wie sieht es mit der Einbindung des Roboters in eine Software-Umgebung, etwa ein ERP- oder Shopfloor-System, aus?

Butterweck: Grundsätzlich läuft bei uns die Software, die später auf dem realen Roboter läuft, auch auf dem virtuellen Zwilling. Das heißt: Alles, was typischerweise etwa als TCP/IP-Kommunikation mit dem Roboter stattfindet, kann ich auch über die Ethernet-Schnittstelle am PC zum Digitalen Zwilling bringen und dort nutzen.

Wie präzise kann denn die Simulation die Realität abbilden?

Butterweck: Da sollte man verschiedene Bereiche unterscheiden: Was die Software angeht, reicht die Präzision bis zu 100 Prozent, das lässt sich wirklich Eins zu Eins abbilden. Wenn es um die Hardware geht - zum Beispiel in einem typischen Montageprozess - dann sollte man auf jeden Fall noch einen realen Test laufen lässt. Hier müssen oft noch Werte angepasst werden.

Wie die Roboterprogrammierung leichter fällt

Roboterprogrammierung war urprünglich ein Thema nur für hochqualifizierte Experten. Mit der Ausbreitung von kollaborativen- und Leichtbau-Robotern sinken die Hürden für die Roboterprogrammierung immer weiter und werden breiteren Gruppen etwa in Handwerk und Mittelstand zugänglich. Einige Beispiele, wie sich der Einstieg ins Programmieren von Robotern schaffen lässt:

Mehr zum Thema Roboter programmieren erfahren Sie auf Kollege Roboter und in unserem Newsletter, den Sie hier abonnieren können.

Die Bandbreite an Roboterapplikationen ist riesig. Gibt es applikationsspezifische Besonderheiten, die man beachten muss? Einen Kasten Bier von einer Palette auf die andere zu wuchten ist doch etwas ganz anderes als mit Mikrometer-Präzision ein Loch zu bohren...

Butterweck: Von der Präzision der Anwendung gibt es hier kaum große Unterschiede. Das lässt sich im Virtuellen gut vorbereiten. Ich muss im Realen vielleicht noch einmal teachen, wo genau der Arbeitspunkt ist. Aber das lässt sich gut abbilden. Etwas schwieriger ist der Fall, wenn externe Kräfte auftreten, da liegt heute noch das Limit.

Wie kommt das?

Butterweck: Ich kann diese Kräfte als solche zwar simulieren. Aber wie die realen Rahmenbedingungen, zum Beispiel die Reibung zwischen zwei Bauteilen, aussehen, das kann durchaus abweichen.

Materialspezifische Reibwerte lassen sich nur schwierig in der notwendigen Präzision simulieren?

Butterweck: Ja, gerade bei der Montage, insbesondere beim Fügen, können solche Fälle auftreten. Ich will vielleicht einen Bolzen in eine Bohrung einfügen. Ich kann simulieren, dass der Bolzen die Position dafür genau trifft. Wenn beim Einfügen aber eine unerwartet große Reibung auftritt, ist das nur mit großem Aufwand in die Simulation mit einzubeziehen.

Wie lange muss ein kleines Unternehmen für die Einführung eines Cobots veranschlagen?

Butterweck: Wenn man von einer einfachen Pick-and-Place-Aufgabe ausgeht, die wir oft bei Cobots haben, ist es realistisch, dass man die komplette Applikation innerhalb von ein bis zwei Tagen zum Laufen bringt.

Und bei komplexeren Aufgaben?

Butterweck: Das hängt dann stark von der Applikation ab - und auch, wieviel Know-how sowohl für den eigentlichen Prozess als auch für die Robotik schon vorhanden ist.  

Wie kann man sich vorbereiten, um einen Fertigungsprozess möglichst effizient für die Automatisierung per Roboter abbilden zu können?

Butterweck: Man sollte sich grundsätzlich überlegen: Wie wird das Material zugeführt? Das ist ein ganz großes Thema, das wir oft sehen. Der Mensch greift einfach hin und weiß genau, wo ein Objekt ist, für den Roboter muss das anders vorbereitet werden.

Ich gebe Anwendern gerne den Tipp, sich einfach mal zwei große Handschuhe anzuziehen, die Augen zuzumachen und zu versuchen, den Prozess blind  mit den Handschuhen auszuführen. Wenn das geht, ist es in der Regel auch mit dem Roboter einfach umzusetzen. Wenn es nicht geht, dann muss ich mir über zusätzliche Sensorik Gedanken machen. Wenn ich hinsehen muss, braucht der Roboter eine Kamera, wenn ich durch die Handschuhe zu wenig fühle, muss ich über Kraft-Momenten-Sensorik im Roboter nachdenken.  

Wie wird sich die Inbetriebnahme von Robotern weiterentwickeln?

Butterweck: Grundsätzlich sehen wir einen klaren Trend zum Virtuellen bei der Einführung, weil viele Anlagen komplexer werden und vorher überlegt werden muss, wo will ich investieren und was brauche ich wirklich für meine Produktion?

Speziell bei den Cobots sehen wir aber eine andere Entwicklung: Dass der Roboter physikalisch da ist und ausprobiert wird, und auch direkt am Roboter gelernt wird, was er alles kann.

Der Zugang wird also noch intuitiver?

Butterweck: Ja, unser Ziel ist: Der Cobot soll so einfach zu bedienen sein wie heute ein Smartphone.

Sie möchten gerne weiterlesen?