Schunk ­iTendo, Bild: Schunk

Über die eingebaute Sensorik misst der smarte Werkzeughalter Schunk ­iTendo Beschleunigungen und Vibrationen direkt am Werkstück und übergibt die Daten an die Maschinensteuerung. - Bild: Schunk

Konstrukteure müssen die Datenebene bei smarten, vernetzten Produkten heute verstärkt mit konzipieren. Dazu gehören Aspekte wie Edge-Komponenten und Sensorik, aber auch Datenauswahl und -sicherheit sowie Cybersecurity. Die Herausforderungen sind erheblich – und sie verändern das Skillset in Entwicklung und Konstruktion.

Um ein intelligentes, vernetztes Produkt zu entwickeln, muss ich aktiv annehmen und gestalten, wie die Datenaufnahme im Feld direkt auf das Verhalten des Produkts Einfluss nehmen soll. Hier sprechen wir von einer neuen Gattung von intelligenten Produkten und Systemen, die nicht nur Mechatronik und Software koppeln, sondern auch die Interaktion und Verbindung mit der Infrastruktur beinhalten“, sagt Prof. Rainer Stark, Leiter des Geschäftsfeldes Virtuelle Produktentstehung am Fraunhofer IPK.

Schon beim Entwickeln muss demzufolge vorausgesagt werden, wie sich das Produkt verhält: Der Bedarf nach Simulationen und Prognosen wächst. Sobald ein Produkt, ähnlich wie autonome Fahrzeuge, Stellgrößen selbst beeinflussen soll, gehören dazu eine Echtzeitdatenverarbeitung und Konzepte wie Software-Updates over the Air. „Wenn die Datenverarbeitung im Produkt passiert, ist eine Konsistenzprüfung notwendig“, sagt der Experte.

Beim Umgang mit Big Data und Analysen auf Basis von KI-Algorithmen müssen zwei Ebenen geklärt werden. „Wie können Konstrukteure und Konstrukteurinnen Daten nutzen, um Hinweise zu bekommen, wie sich ihr Produkt im Praxiseinsatz verhält?“, nennt Stark die erste Herausforderung. Dabei gehe es nicht um Rohdaten, sondern um den Zugriff auf voranalysierte Daten, die für den jeweiligen Aufgabenbereich zum Erkenntnisgewinn beitragen. Die größere Hürde sieht der Experte jedoch auf der anderen Seite: Systeme müssen nun aktiv unter dem Gesichtspunkt der Datengewinnung und -nutzung konzipiert werden.

Neue Ansätze erfordern andere Fähigkeiten

IO-Link Master, Bild: Pepperl+Fuchs
Die IO-Link Master ICE2/3 von dem Hersteller Pepperl+Fuchs ermöglichen mit der MultiLink-Technologie eine direkte Kommunikation aus der Maschinen-Feldebene in lokale oder cloud- basierte IT-Systeme. - Bild: Pepperl+Fuchs

Für Fabian Slowakiewicz, Product Manager bei Helmholz, liegt die größte Herausforderung für die Konstrukteure darin, die Interoperabilität der unterschiedlichen notwendigen technischen Systeme zu bewerten – und diese Interoperabilität dann auch mit einem konkreten Nutzen für den Endanwender zu orchestrieren. „Viele Lösungen auf dem Markt sind heute vielseitig wie Schweizer Taschenmesser, aber deswegen trotzdem nicht unbedingt die beste Lösung für die jeweilige Applikation. Fast immer müssen die vorhandenen Infrastrukturen und Netzwerktopologien überdacht werden“, so Slowakiewicz. So träfen in der Praxis häufig netzwerkbasierte Feldbussysteme – mit all ihren Tücken – auf ein klassisches IT-Netzwerk in der Fabrik. „An der berühmten letzten Meile scheitern leider so manche IoT-Pläne“, stellt der Experte fest. Mit den neuen Aufgaben ändern sich auch die notwendigen Skills. „Die Vielfalt und Komplexität der Systeme sind von einem klassischen Konstrukteur oder SPS-Programmierer nicht mehr allein zu bewältigen und muss als Team mit entsprechendem Knowhow gestemmt werden. Je nach Anforderungen benötigt es das Fachwissen und die Erfahrung mehrerer Berufszweige – SPS-Programmierer, IT-Netzwerkadministratoren, einen Cloud Engineer und auch oft IT-Consulting gegenüber dem Endkunden“, meint Slowakiewicz. Gerade KMUs mit begrenzter Manpower könnten hier schnell an ihre Grenzen geraten.

Micro-Datacenter, Bild: Schneider Electric
Das EcoStruxure 6HE Micro-Datacenter von Schneider Electric verfügt über sehr kompakte Abmessungen. - Bild: Schneider Electric

Es gilt, künftig eine Reihe offener Fragen mitzudenken: Wie wollen wir den Einfluss von Datenmodellen vorhersehen und welches Know-how brauchen Konstrukteure dafür? Welche Modelle werden für welche Sensoren an welcher Stelle im Entwicklungsprozess benötigt und wie können sie den Konstrukteuren zur Verfügung gestellt werden? Hier sind aus Sicht von Rainer Stark Data Engineers gefragt, die sich sowohl mit Data Sciences als auch mit der Praxis auskennen. Ähnlich wie mit Six Sigma bessere Ansätze etabliert wurden, um die Qualitätsbewertung mit statistischem Lernen zu verbessern, seien jetzt vergleichbare Anstrengungen in Lehre und Weiterbildung gefragt.

KI im Kommen

Cloud Edge Gateway, Bild: Genua
Schutzschild durch Security by Design: Mit dem Cloud Edge Gateway GS.Gate lassen sich Betriebsdaten auf hohem Sicherheitsniveau an der Edge erfassen und analysieren sowie an die Cloud weiterleiten. - Bild: Genua

Im Umfeld von Industrie 4.0 sind vor allem Smart und Predictive Maintenance typische Einstiegsszenarien. Doch es gibt weitere Einsatzbereiche. Auch einige KI-Disziplinen rücken für die Konstruktion besonders in den Vordergrund: Denn immer dort, wo es um Qualitätskontrolle geht, gilt es, die Automatisierung zum Beispiel durch Bilderkennung mit einzuplanen. So könnte ein eigener Prozessschritt darin bestehen, das gefertigte Teil visuell zu inspizieren, eine Qualitätsbewertung abzugeben und bei Bedarf nachzuarbeiten. Der Embedded Hardware/IoT-Hersteller Kontron hat für KI in der Produktion eine robuste AI-Plattform entwickelt, mit der sich auf Basis von zahlreich und kostenlos verfügbaren Google-TensorFlow-Lite-Modellen eigene Applikationen schaffen lassen.

Große Datenmengen

CtrlX Automation, Bild: Bosch Rexroth
Bosch Rexroth hat mit CtrlX Automation ein offenes Ökosystem mit Anwendungen für unterschiedlichste Automatisierungsaufgaben geschaffen. - Bild: Bosch Rexroth

Die KI-Ansätze sind in der Regel mit einer besonders hohen Datenflut verbunden, damit Modelle vernünftig trainiert werden können. „Aus Sicht der IT/OT-Konvergenz stellen die Datenmengen, die bei der Digitalisierung von Maschinen und Fertigungsprozessen entstehen, für klassische Industrie-PCs inzwischen eine zu große Hürde dar. Das macht im Bereich der fertigungsnahen IT künftig ein Umdenken erforderlich“, glaubt Michel Arres, VP Secure Power DACH & Benelux bei Schneider Electric. Aufgrund von Latenzen oder Bandbreitenbeschränkungen lassen sich Arres zufolge nicht alle Schritte der industriellen Datenerhebung ohne weiteres in eine Cloud auslagern. Um High-End-Anwendungen wie Machine Learning oder Videoanalysefunk­tionen effektiv in Fertigungsprozesse zu integrieren, sollten leistungsfähige Server oder sogar komplette ­Mini-Rechenzentren direkt in die Anlage implementiert werden.

Cybersicherheit wird Kernaufgabe

NAT-Gateway Wallie, Bild: Helmholz
Mit dem NAT-Gateway Wallie lässt sich ein Maschinennetzwerk schnell an das übergeordnete Fabriknetzwerk koppeln. - Bild: Helmholz

„Große Herausforderungen bei der Bereitstellung von Daten liegen in deren Strukturierung und Semantik, da herstellerübergreifende Standards zurzeit entweder noch fehlen oder nicht flächendeckend unterstützt werden“, stellt Benedikt Rauscher fest, Manager Global IoT/I4.0 Projects bei Pepperl+Fuchs. Diese Lücke will man mit dem IO-Link Protokoll und den dafür spezifizierten Smart-Sensor-Profilen schließen. Mit seinem Produkt IO-Link Master setzt der Automatisierungsspezialist auch auf integrierte Cybersecurity: Die von den Anwendern zu Recht geforderte Cybersecurity werde unter anderem mit in den Baugruppen implementierten Funktionen wie sichere Authentifizierung an den IO-Link Mastern und Verschlüsselung der Datenübertragung gewährleistet.

Vor allem auch überall dort, wo Bestandsmaschinen nachträglich über Datenverbindungen angebunden werden, entstehen Sicherheitsprobleme: Viele Systeme im Feld sind nicht auf aktuellem Stand. „Alte Lücken sind bekannt und können gnadenlos ausgenutzt werden. Wer Services anbieten will, muss jedoch auch solche Systeme anfassen, die eigentlich besser abgeschottet sein sollten. Hier ist eine Firewall nötig, die beispielsweise um Intrusion Detection und Anomalie-Erkennung erweitert werden kann“, meint Alexander Heckl, Head of Enterprise Sales beim Sicherheitsexperten Genua. Auch für alle Fernwartungsservices sollte mit intelligenter Technik und von innen nach außen aufgebauten VPN-Verbindungen nicht einfach der Zugriff aufgemacht, sondern genau nachvollzogen werden, was bei einem Service genau getan wurde. Doch wo liegen typische Schwachpunkte? In der Praxis sind aus Sicht von Heckl vor allem offene VPN-Zugänge ein häufiges Ziel von Hackerattacken. Oft seien auch Cloud-Komponenten nicht ausreichend abgesichert.

„Die Ingenieure müssen im Vieraugenprinzip der Freigabe erklärfähig bleiben. Bei trainable AI gilt es, diese mit Ingenieurswissen der Produkte mit Blick auf deterministische Systeme zu koppeln“.

Prof. Rainer Stark, Leiter des Geschäftsfeldes virtuelle Produktentstehung am Fraunhofer IPK

„Eine erhöhte Sicherheit wird erzielt, indem die Appliance der Fernwartungslösung, also Hardware und abgestimmte Software, direkt vor dem Zielsystem beziehungsweise der Maschine platziert wird.“

Alexander Heckl, Head of Enterprise Sales bei Genua

„Noch fehlen herstellerübergreifende Standards zurzeit oder werden nicht flächendeckend unterstützt.“

Benedikt Rauscher, Manager Global IoT/I4.0 Projects bei Pepperl+Fuchs

Security by Design

„Ganz wichtig: In der Konstruktion sollten IT-Security-Komponenten gleich mit eingeplant werden, zum Beispiel in Form einer dedizierten, externen Hardware-Komponente, die den Service kontrolliert“, rät der Sicherheitsexperte. Das spiegelt auch die Forderung nach „Security by Design“ des Bundesamts für Sicherheit in der Informationstechnik (BSI). Denn die Sicherheit, nachträglich zu gewährleisten, wirft in der Regel viele Probleme auf. Entsprechende Hardware-Komponenten können direkt im Schaltschrank platziert werden und auch im Einsatz bei internationalen Kunden auf anderen Kontinenten den Aufbau von Datenverbindungen für die Fernwartung direkt abwickeln. Sie dienen zudem dann gleich als sicherer Service-Tunnel für die Datenübertragung von Maschinendaten und können für die Verarbeitung von Daten für Predictive Maintenance und Analysen zum Beispiel auf Basis von Deep Learning sorgen. Eine Vorverarbeitung ist wichtig, um nicht riesige Datenmengen in die Cloud zu schicken. Entsprechende Edge Gateways sollten die Fernwartungs-Session von den vorverarbeiteten Daten trennen, die mit VPN ausgeleitet werden.

AI Plattform, Bild: Kontron
Die Kontron AI Plattform erleichtert den Einstieg in Anwendungen rund um Machine Learning. - Bild: Kontron

Alexander Heckl sieht gerade bei den Maschinenbetreibern eine deutlich höhere Sensibilität, hier gehe man zunehmend strikter mit dem Thema Cybersicherheit um. Seine Empfehlung an die Konstrukteure: „Es lohnt ein Austausch mit der eigenen IT und OT, bei den modulare Optionen ausgelotet werden, um den Sicherheitsaspekt mit in die Entwicklung einzubringen. Ein einheitliches Konzept schützt dabei vor einem Variantenreichtum, der entsteht, wenn nur jeweils auf Kundenanforderungen eingegangen wird“.

Bleiben Sie informiert

Diese Themen interessieren Sie? Mit unserem Newsletter sind Sie immer auf dem Laufenden. Gleich anmelden!

Kostenlose Registrierung

Newsletter
Bleiben Sie stets zu allen wichtigen Themen und Trends informiert.
Das Passwort muss mindestens acht Zeichen lang sein.

Ich habe die AGB, die Hinweise zum Widerrufsrecht und zum Datenschutz gelesen und akzeptiere diese.

*) Pflichtfeld

Sie sind bereits registriert?