Mann an Maschine, Bild: © industrieblick - Fotolia.com

Das mobile KI-System soll menschliche Fehler in der Fertigung verhindern. Bild: © industrieblick - Fotolia.com

Die Erkennung der Arbeitshandlungen in Echtzeit geschieht über die Blickverfolgung anhand einer sogenannten „Eyetracking“-Brille, darauf aufsetzende Aufmerksamkeitsmessung sowie über Armband-Sensorik. Die hohe Erkennungsfähigkeit wird durch den Einsatz von Deep-Learning-Technologien erreicht. Durch diese lernt das System die verwendeten Werkzeuge und Teile sowie die zu erwartenden Aktionen. Ziel der Entwicklung ist es, den Menschen bei anspruchsvollen Tätigkeiten in der Fertigung zu unterstützen, dadurch Fehler zu vermeiden und so zur Steigerung von Qualität und Effizienz beizutragen.

Beschleunigung von Robotik und KI in Produktion

Getrieben durch globale Initiativen, wie Industrie 4.0 in Deutschland und "Society 5.0" in Japan, beschleunigt die verarbeitende Industrie ihre Bemühungen um Innovationen in der Produktion durch KI und Robotik. So sollen komplexe Tätigkeiten unterstützt und einfache Arbeiten zunehmend automatisiert werden. Als Grundlage hierfür sind moderne IoT-Technologien erforderlich. Mit ihnen lassen sich die Aktivitäten und Zustände von Personen in ihrem Arbeitsumfeld erfassen, diese unterstützen und so Fehler verhindern.

Das von DFKI und Hitachi entwickelte KI-System ist dementsprechend in der Lage, auf Basis von Blickrichtungs- und Bewegungssensoren, kritische Handlungen und Gerätefehler in der Produktionslinie frühzeitig zu erkennen. Die Wissenschaftler des DFKI-Forschungsbereichs Smarte Daten & Wissensdienste und die Entwickler von Hitachi verwenden dabei ausschließlich Daten aus mobilen, am Körper getragenen Sensoren, aus der Eyetracking-Brille und den Armband-Sensoren.

Merkmale der KI-Technologie

Die gemeinsam entwickelte KI-Technologie zeichnet sich durch die folgenden Merkmale aus:

  • Erkennung der im Zentrum der Aufmerksamkeit stehenden Objekte durch Eyetracking: Durch die präzise Verfolgung der Augenbewegungen und Blickpunkte mittels einer Eyetracking-Brille werden betrachtete Objekte wie „Schraube“ oder „Schraubenzieher“ erkannt, ohne durch die Umgebung oder den Hintergrund gestört zu werden. Um die Objekte zuverlässig zu erkennen kommen Deep-Learning-Methoden zum Einsatz.
  • Erkennung der grundlegenden Handlungen über Armband-Sensorik: Am Handgelenk getragene Sensoren erfassen Handlungen wie „drehen“ oder „drücken“ über die Armbewegungen. Die Daten werden in Echtzeit aus Richtungs-, Beschleunigungs- und Rotationssignalen sowie elektrischen Signalen der Muskelkontraktionen extrahiert.
  • Hierarchisches Aktivitätserkennungsmodell, zur Erkennung der Aktivitäten durch die Integration betrachteter Objekten und menschlicher Handlungen: Diese Technologie verbindet die beiden zuvor genannten Methoden zu einer hierarchischen Aktivitätserkennung, sodass Handlungen wie „Verdrehen der Schraube“ erkannt werden. Aus vorab gelernten Handlungen und verwendeten Gegenständen lässt sich so eine Vielzahl von Arbeitsaktivitäten ableiten.
Ablauf der Aktivitätserkennung, Bild: Hitachi
Ablauf der Aktivitätserkennung. Bild: Hitachi

Auf Basis dieser Technologien wurde das KI-System entwickelt, welches Aktivitäten wie "Verdrehen einer Schraube" oder "Drücken eines Schalters" als Teil der "Inspektionsaufgabe“ in Echtzeit erkennt. Dieses soll nun im industriellen Einsatz weiterentwickelt werden um Arbeitsprozesse zu optimieren, bei denen intelligente Assistenz und Fehlererkennung besonders erforderlich sind.

Prof. Dr. Andreas Dengel, Leiter des an der Entwicklung beteiligten DFKI-Forschungsbereichs Smarte Daten & Wissensdienste: „Das mit Hitachi erarbeitete System nutzt mehrere menschliche Sinne um den Menschen im Arbeitsumfeld der Fertigung zu unterstützen. Die Nutzung von visuellen Aufmerksamkeitsdaten erlaubt es, das betrachtete Objekt zu erkennen und mit körperlicher Aufmerksamkeit in Form von bestimmten Muskelaktivitäten zu kombinieren und so auf Aktionen zu schließen“. hei

Auf der Messe Cebit vom 20. bis 24. März 2017 in Hannover wird erstmals ein Prototyp der Technologie in Halle 4, Stand A38/70 präsentiert.