Mit Twincat 3 stehen dem Automatisierer die neuen Möglichkeiten von Machine und Deep Learning in seiner gewohnten Steuerungswelt zur Verfügung. Bild: Beckhoff

Mit Twincat 3 stehen dem Automatisierer die neuen Möglichkeiten von Machine und Deep Learning in seiner gewohnten Steuerungswelt zur Verfügung. Bild: Beckhoff

Herr Dr. Neumann, Herr Dr. Jurke, gleich vorweg: Welches sind denn allgemein die Vorteile, wenn man Machine Learning in die Steuerungstechnik integriert?

Dr. Klaus Neumann, Lead Software Developer Machine Learning, Beckhoff: Im aktuellen Jahrzehnt hat das maschinelle Lernen einen beispiellosen technologischen Vormarsch erlebt. Dabei ist diese Technologie in zahlreiche sehr unterschiedliche Bereiche vorgedrungen. Vor allem dort, wo digitale Technologien besonders stark weiterentwickelt wurden, wie z. B. in der Sprach- und Bilderkennung, ist maschinelles Lernen nicht mehr wegzudenken. Die beeindruckenden Ergebnisse zu Beginn dieses Jahrzehnts und die damit einhergehende Entwicklung des Deep Learning waren der Anstoß einer Entwicklung, die schon jetzt viele faszinierende Ergebnisse hervorgebracht hat. Es zeigt sich, dass diese Technologie insbesondere für sehr komplexe Probleme Lösungsansätze bietet, die den klassischen Verfahren weit überlegen sind.

Die Einbettung des Machine Learning in die Automatisierung ist nach einhelliger Expertenmeinung schon länger von besonderem Interesse. Allerdings ließ die praktische Umsetzung noch auf sich warten. Beckhoff hat jetzt die vielen Möglichkeiten von Machine Learning für die Automatisierungstechnik nutzbar gemacht. Damit kommen zahlreiche neue Technologien ins Spiel, die man vorher nicht oder nicht so effizient nutzen konnte: Mathematische Optimierung, datenbasierte Modellierung, Anomaliedetektion und modellprädiktive Regelung sind einige wichtige Beispiele.

Definition: Was ist Machine Learning?

Was ist Machine Learning? Im wahrsten Sinne des Wortes bedeutet es maschinelles Lernen. Maschinen, im Sinne von Computern, erhalten die Fähigkeit, selbstständig zu lernen. Machine Learning befasst sich mit Algorithmen, die aus Daten lernen und Vorhersagen treffen, welche mit einer gewissen Wahrscheinlichkeit eintreten. Solche Algorithmen folgen keinen starren, von Menschen definierten Programm- und Regelvorgaben — sie treffen vielmehr datengestützte Vorhersagen, indem sie auf Basis von Beispielen Wissen generieren — also lernen.

Bereits 1959 definierte der US-amerikanische Informatiker und Computerpionier Arthur Samuel ML als ein Studiengebiet, welches „Computern die Fähigkeit gibt zu lernen, ohne dazu vorher explizit programmiert worden zu sein“. Es kommt, wie das Data Mining, aus der Statistik. Die Unterschiede: Die Statistik definiert, was passiert ist; das Data Mining erklärt, warum etwas geschehen ist; das Machine Learning bestimmt, was passieren wird und gibt vor, wie bestimmte Situationen optimiert oder vermieden werden können.

Machine Learning ist eine eigenständige Disziplin, die häufig mit KI (Künstliche Intelligenz) verwechselt wird. Unter KI verstehen wir jedoch die Fähigkeit von Maschinen und Systemen, intelligentes menschliches Verhalten nachzuahmen. Machine Learning ist ein Unterbereich von KI und aktuell der Motor vieler Entwicklungen im Bereich der künstlichen Intelligenz – zum Beispiel bei der Bilderkennung oder bei der Verarbeitung natürlicher Sprache.

(Quelle: VDMA & criteo.com)

Dr. Benjamin Jurke, R&D Machine Learning, Beckhoff: In den letzten Jahren haben die Techniken des Machine Learning zu großen Fortschritten im Bereich maschinelles Sehen geführt. Heute kann ein entsprechend trainiertes neuronales Netz im Vorfeld bekannte Objekte mit einer geringeren Fehlerrate klassifizieren als ein Mensch. Außerdem haben viele maschinelle Lernverfahren nach der Trainingsphase, also in der Anwendung, streng deterministische Laufzeit-Eigenschaften, die somit ideal mit zyklisch getakteten Steuerungssystemen harmonieren. Da neuronale Netze beliebige Funktionen approximieren können, lassen sich die Ergebnisse von hochgradig nicht-deterministischen Optimierungen oder Lösungsansätzen im Vorfeld berechnen und das Modell trainieren. Dementsprechend profitiert der Ablauf in der späteren zyklischen Ausführung innerhalb der Steuerung vom strengen Laufzeit-Determinismus. Auf diesem Weg lassen sich hochkomplexe Optimierungen ohne Echtzeit-Eigenschaften direkt in die Steuerung übertragen und innerhalb der Regelungsschleife einsetzen.

Machine Learning: Welche Rolle spielt Industrie 4.0?

Portraitbild von Dr. Klaus Neumann - Bild: Beckhoff
Dr. Klaus Neumann - Bild: Beckhoff

Die Grundidee des Machine Learning ist es, Lösungen für bestimmte Aufgaben nicht mehr durch klassisches Engineering zu erarbeiten und in einen Algorithmus zu überführen. Für welche genauen Lösungen lässt sich Ihre Neuheit einsetzen?

Dr. Klaus Neumann: Das ist einer der wichtigsten Punkte, der auch für die Automatisierung einen großen Reiz ausmacht. Ich sehe insbesondere zwei Bereiche, in denen das datenbasierte Engineering in Frage kommt –  für die datenbasierte Modellierung und als Optimalsteuerung. Hinsichtlich der datenbasierten Modellierung gilt: Eine Steigerung der Leistungsfähigkeit von Maschinen ist in vielen Bereichen nur möglich, wenn geeignete mathematische Systemmodelle zur Verfügung stehen. Als wichtige Beispiele, in denen solche Modelle Grundvoraussetzung sind, sehe ich virtuelle Sensorik und Anomaliedetektion. Leider sind entsprechende Modelle nicht immer vorhanden oder teilweise zu unpräzise. Zudem ist das manuelle Erstellen eines solchen Modells zeit- und personalaufwendig und damit kostenintensiv. Beim datenbasierten Erstellen eines Modells werden Daten des Systems aufgezeichnet, die durch maschinelle Lernverfahren zur Konstruktion genutzt werden. Glücklicherweise nehmen immer mehr Anlagen immer mehr Daten auf. Dieser Trend wird im Wesentlichen durch Industrie 4.0 getrieben. Eine Optimalsteuerung bedeutet: Durch die geeignete Wahl eines Kriteriums und der Nebenbedingungen können viele unterschiedliche Problemstellungen auf eine allgemeine Weise optimal gelöst werden. Diese Verfahren lassen sich sehr zielgerichtet auch für andere Optimierungskriterien einsetzen. Dadurch wird es möglich, Anlagen weitaus zielorientierter zu entwickeln und deren Effizienz weiter zu steigern. Das manuelle Engineering eines optimalen Algorithmus ist nur in wenigen Fällen und dann auch nur sehr aufwendig möglich. Das liegt hauptsächlich daran, dass die Komplexität des Algorithmus oft nur schwer in allen Fällen von einem Menschen zu überblicken ist.

Sie schreiben: „Weil das Machine Learning in Echtzeit realisiert wird, eignet sich die Twincat-Lösung auch für den anspruchsvollen Motion-Bereich.“ Könnten Sie dies bitte etwas näher ausführen? Welche genauen Anwendungen wären denkbar?

Dr. Klaus Neumann: Wie bereits erwähnt ist die Optimalsteuerung für den Motion-Control-Bereich sehr interessant. Eine direkte Anwendung in einer zyklusbasierten Steuerung, z. B. der SPS, kommt allerdings nicht infrage. Diese Verfahren liefern zwar sehr gute Ergebnisse, sind aber schlicht nicht performant genug für adäquate Zykluszeiten einer modernen Echtzeitsteuerung. Aus diesem Grund verwenden wir neuronale Netze, die die Lösungen aus der Optimalsteuerung lernen, um sie im Anschluss in Echtzeit zu reproduzieren. Neuronale Netze sind im Gegensatz zu Optimierungsalgorithmen bestens geeignet, um im Echtzeitkontext eingesetzt zu werden. Auf der Hannover Messe 2019 hat Beckhoff mit einem Exponat vorgestellt, wie neuronale Netze für die Steuerung in Echtzeit eingesetzt werden können. Dazu wurde die Twincat Neural Networks Inference Engine und eine entsprechende Integration in das Motion Control von Twincat vorgestellt. Eine Besonderheit war, dass das Netz durch einen Optimierungsalgorithmus trainiert wurde, der auf einem einfachen Energie- und Verschleißmodell basiert. Es zeigte sich, dass das vom neuronalen Netz gesteuerte lineare Transportsystem (XTS) des Exponats einen deutlich geringeren Gesamtenergieverbrauch und weniger Verschleißerscheinungen aufweist.

Wie funktioniert eigentlich Machine Learning? - Quelle: Doktor Whatson/Youtube

Dr. Benjamin Jurke: Tatsächlich ist die Verwendung neuronaler Netze direkt in der Regelungsschleife technisch nicht ganz einfach zu realisieren. Viele der medienwirksamen Durchbrüche, die in jüngerer Zeit unter Einsatz von neuronalen Netzen erzielt wurden, sind erst durch massiven Hardwareeinsatz möglich geworden, beispielsweise durch Grafikkarten und andere Beschleuniger. Solche Spezialhardware liefert zwar eine deutlich höhere Rechenperformance im Vergleich zum Hauptprozessor. Allerdings müssen die Daten dafür zunächst in die Hardware verschoben und typischerweise in die optimierten Formate umstrukturiert werden, um nach erfolgter Berechnung dann wieder renormalisiert und zurückgeschrieben zu werden – aufwendige Vor- und Nachbereitungsschritte, die allesamt Zeit benötigen. Die als Kommunikationszwischenschicht notwendigen Treiber der Hardwarehersteller zeigen darüber hinaus oftmals nicht die streng deterministischen Laufzeit-Eigenschaften, die man für eine zyklische Steuerung idealerweise benötigt. Sie sind viel mehr auf einen möglichst hohen Durchsatz optimiert, bei dem zunächst Daten und Rechenaufgaben aggregiert werden, um diese dann möglichst stark parallelisiert effizient und gleichzeitig zu verarbeiten. Für hochfrequente und streng deterministische Regelungsprozesse schließt sich trotz der hohen theoretischen Performance der Einsatz gängiger Beschleunigerhardware somit aus, da der Overhead zu groß ist. Für derartige Anwendungen setzen wir daher gegenwärtig auf rein CPU-basierte Lösungen.

Wie funktioniert Machine Learning mit Twincat 3?

Portraitbild von Dr. Benjamin Jurke - Bild: Beckhoff
Dr. Benjamin Jurke - Bild: Beckhoff

Bitte beschreiben Sie: Wie funktioniert das Maschinelle Lernen mit Twincat 3 genau?

Dr. Benjamin Jurke: Im Prozess des Machine Learning startet man mit einem Modell, dessen Parameter man auf Basis von Daten trainiert. Dazu gibt man die Trainingsdaten in das noch gar nicht oder nur teil-trainierte Modell und berechnet die Abweichung zum gewünschten Ergebnis. Um diesen Fehler zu minimieren, verändert man die Modellparameter nach festen mathematischen Vorschriften. Der Lernprozess des maschinellen Lernens entspricht also einem Fehlerminimierungsprozess, bei dem man die Modellparameter so einstellt, dass die Trainingsdaten möglichst gut reproduziert werden können. Das zugrunde liegende Modell ist nun aber auch in der Lage, Vorhersagen zu Eingangsdaten zu treffen, die nicht Teil der Trainingsdaten waren – man sagt, dass das Modell generalisiert.

Die große Kunst des maschinellen Lernens liegt darin, ein hinreichend komplexes, aber nicht zu großes Modell als Basis zu wählen, um dann idealerweise mit wenigen Trainingsdaten eine gute Generalisierung auf die gesamte relevante Vielfalt von Eingangsdaten zu erhalten. Einfach gesagt: Ein komplexes Verhalten soll durch möglichst wenige Stichproben so gut und kompakt wie es geht beschrieben werden. Dieser Prozess des Lernens erfordert viele Freiheiten und Tuning-Möglichkeiten in den jeweiligen Details des zugrunde liegenden Modells. Gerade für den Bereich neuronaler Netze stellen die amerikanischen IT-Giganten hierzu umfangreiche Werkzeuge kostenfrei zu Verfügung, beispielsweise Google Tensorflow, Facebook PyTorch oder Caffe. Aber auch das bereits gut in Twincat3 integrierte Matlab von Mathworks bietet mit den entsprechenden Erweiterungspaketen sehr umfangreiche Möglichkeiten zum Trainieren verschiedener Modelle an. Beckhoff erfindet für den gegenwärtigen Prozess des Lernens also das Rad nicht neu, sondern setzt auf etablierte Standardsoftware dieses hochdynamischen Arbeits- und Forschungsfelds. Durch bereits seit Längerem am Markt verfügbare Datenaufzeichnungs- und Kommunikationswerkzeuge wie Twincat Scope, Twincat OPC UA, Twincat IoT und Twincat Database Server bietet Beckhoff verschiedene komfortable Möglichkeiten, um die kritischen Trainingsdaten aus der Steuerung zu lesen und für das Training zu sammeln.

Über die Twincat Machine Learning Inference Runtime für klassische Verfahren sowie die Twincat Neural Network Inference Runtime für neuronale Netze lassen sich die trainierten Modelle zur Ausführung dann komfortabel wieder zurück in die Regelungsschleife der Steuerung einbringen. Beide Produkte stellen reine Softwarelösungen dar und lassen sich als TcCOM-Objekte über die bekannten Twincat-Engineering-Prozesse einfach in bestehende oder neue Projekte integrieren. Darüber hinaus ist für die Zukunft auch eine Integration in Twincat Analytics geplant, sodass ein trainiertes Modell als komplexer Filter in der Analysekette operieren kann. Auch an anderen Stellen des Beckhoff-Produktportfolios werden die Produkte bereits verwendet.

Wie lange dauert es, bis ein Modell trainiert ist? Könnten Sie hier bitte ein Beispiel nennen?

Dr. Benjamin Jurke: Wie schon erwähnt dienen die etablierten Werkzeuge großer IT-Anbieter dem Training des Modells. Beckhoff ebnet allerdings den Weg für die oftmals schwierige Bereitstellung von Trainingsdaten für diese Tools sowie das Ausführen der trainierten Modelle direkt innerhalb der harten Echtzeit. Im Allgemeinen lässt sich die Frage nach der Trainingszeit kaum pauschal beantworten. Viele klassische Lernverfahren, wie z. B. eine SVM (Support Vector Machine) oder PCA (Principal Component Analysis) lassen sich selbst in komplexeren Szenarien innerhalb weniger Sekunden auf vergleichsweise schwachen Systemen trainieren. Bei kleineren neuronalen Netzen, die wir bereits heute zur Kompression nicht-deterministischer Lösungsstrategien in die Echtzeit verwenden, kann das Training durchaus mehrere Minuten oder auch ein paar Stunden in Anspruch nehmen. Denn hier wird oftmals sehr kleinschrittig und mit vielen Wiederholungen trainiert, um eine hohe Genauigkeit der Approximation zu erreichen. Besonders rechenaufwendig ist das Training von neuronalen Netzen für den Einsatz im Bereich des maschinellen Sehens. Hier können selbst auf hochskalierenden Rechenclustern und mit dem massiven Einsatz von Beschleuniger-Hardware durchaus Wochen vergehen, bis der Trainingsfehler ein akzeptables Maß unterschritten hat.

Für diesen Anwendungsfall kann man allerdings auf Transfer-Learning-Techniken setzen: Ein bereits trainiertes neuronales Netz kann für die spezifische Anwendung nachtrainiert werden, man muss also nicht immer komplett von Neuem starten. Auch hier positionieren sich die großen IT-Player wieder sehr offen: Viele der heute häufig im Computer-Vision-Bereich für Objekterkennung eingesetzten neuronalen Netze sind nachtrainierte Abwandlungen von kostenfrei bereitgestellten Netzen, in die bereits das Äquivalent von Jahrzehnten an Trainingszeit einer normalen Workstation geflossen sind. Je nach Anwendung und benötigter Genauigkeit nimmt das Nachtraining dann in der Regel einige Stunden oder Tage in Anspruch. Ein großer Vorteil neuronaler Netze ist, dass man den Trainingsprozess in der Regel sehr gut parallelisieren kann. Umfangreiche Trainingsaufgaben lassen sich daher mit einem entsprechenden Mehr an zur Verfügung stehender Hardware beschleunigen. Die Frage nach der Trainingsdauer lässt sich somit in gewisser Hinsicht in eine Investitionsfrage für Trainingshardware umwandeln. Für einzelne Projekte kann in diesem Kontext auch der Weg in die Cloud sehr hilfreich sein, wo sich nur für die benötigten Zeitintervalle hoch performante Hardwareressourcen mieten lassen.

Welches sind die genauen Vorteile für den Anwender?

Dr. Benjamin Jurke: Maschinelles Lernen in der Automatisierungs- und Steuerungstechnik ist immer noch ein relativ junges und dynamisches Feld. Mit unserem offenen Ansatz ermöglichen wir es unseren Kunden, auf neue Entwicklungen und Technologien schnell reagieren zu können. Statt das Rad neu zu erfinden, setzen wir darauf, den Daten- und Kommunikationsweg zu Standardwerkzeugen für das Training zu ebnen und den Engineeringprozess für die Ausführung trainierter Modelle in unserem Echtzeitsystem so einfach wie möglich zu gestalten. Zudem streben wir eine tiefergehende Integration in unsere bestehenden und zukünftigen Produkte an. Als reine Softwarelösung ermöglicht das maschinelle Lernen mit Twincat, dass unsere Kunden sofort mit der Umsetzung beginnen und so auch entsprechende Optimierungen ihrer eigenen Produkte als Upgrades an ihre eigenen Kunden nachreichen können.

Wie Konstrukteure mit Machine Learning umdenken müssen

Inwiefern ändern sich die Anforderungen an die Konstrukteure/Ingenieure, die damit oder auch generell mit maschinellem Lernen umgehen müssen?

Dr. Klaus Neumann: Inwieweit sich die Anforderungen an Applikationsingenieure ändern werden, wird sich vollständig sicherlich erst in einigen Jahren zeigen. Eines kann ich aber jetzt schon sagen: Die Arbeit wird interdisziplinärer werden. Moderne Maschinen werden immer komplexer; ein einzelner Applikationsingenieur kann die vielschichtigen Aufgaben schon heute kaum noch allein bewältigen. Beispielweise wird der sogenannte Data Scientist Einzug in den Maschinenbau finden, um nach der Datenaufnahme Modelle oder Steuerungsalgorithmen zu trainieren. Diese können dann im Anschluss in die Software der bestehenden Anlage integriert werden. Zudem werden zunehmend kollaborative Mensch-Roboter-Szenarien entwickelt werden, die stark durch maschinelles Lernen getrieben sind.

Interessenten konnten sich bei Beckhoff auf der Hannover Messe 2019 zu Machine Learning informieren. Bild: Beckhoff
Interessenten konnten sich bei Beckhoff auf der Hannover Messe 2019 zu Machine Learning informieren. Bild: Beckhoff

 

Gibt es zum Machine Learning bereits erste Anwendungen? Bitte berichten Sie doch kurz von Ihren Erfahrungen (gerne auch anonymisiert)! Welche Anwendungen sind dies? Alternativ: Sie haben die Neuheit ja auf der Hannover Messe 2019 vorgestellt. Wie war die Resonanz?

Dr. Klaus Neumann: Die Gespräche auf der Hannover Messe 2019 waren sehr interessant. Zudem habe ich mich mit vielen, sehr unterschiedlichen Interessenten unterhalten. Auf unserem Messestand waren zahlreiche Gäste, die sich schon lange mit dem Thema Machine Learning auseinandersetzen. Ich kann übereinstimmend sagen, dass wir sehr viel positive Resonanz bekommen haben. Besonders interessant war, dass die verschiedenen Gäste auch immer eine gute Intuition für die zukünftigen Herausforderungen beim ML-Einsatz hatten. Einige Gäste wollten beispielsweise wissen, wie mit einem nicht so gut trainierten Netz umzugehen sei. Unsere Antwort darauf konnte ich dann sehr schnell am ML-XTS-Demonstrator geben. Diese sehr praktische Sichtweise ist gut angekommen. Insgesamt habe ich das Gefühl, dass die Bereitschaft, ML-Verfahren auch im industriellen Umfeld einzusetzen, in den letzten Jahren stark gestiegen ist. Ich denke, dass auch Beckhoff dazu einen Beitrag geleistet hat.

Hannover Messe 2019 - Neue Machine Learning Software von Weidmüller - Quelle: ke NEXT

Dr. Benjamin Jurke: Insgesamt war die Resonanz zu unseren ML-Exponaten sehr gut. Nach meinem persönlichen Eindruck teilen sich unsere Kunden im Wesentlichen in zwei Lager: Zum einen haben wir am Thema interessierte Kunden, die für sich selbst aber noch keine ganz konkreten Einsatzszenarien erkennen und auch mit den Grundlagen des maschinellen Lernens nicht allzu vertraut sind. Diese Kunden adäquat zu unterstützen, erfordert oftmals, sich zunächst technisch tief in die Anwendung des Kunden einzuarbeiten, um konkrete Lösungsvorschläge präsentieren zu können. Der andere Teil der Interessenten verfügt dagegen schon über einschlägige Erfahrungen mit maschinellem Lernen und kommt bereits mit sehr konkreten Anforderungen und Weiterentwicklungsvorschlägen auf uns zu. Oft handelt es sich hier um größere Unternehmen oder Konzerne, die bereits über komplette Abteilungen oder Teams für Datenanalyse und -auswertung verfügen und nun nach Wegen suchen, um die trainierten Modelle zurück in das Echtzeitsystem der Steuerung zu überführen.

Machine Learning: Zukunft und Herausforderungen

Gibt es bereits weitere Zukunftsschritte im Bereich maschinelles Lernen, die Sie planen? Alternativ: Beteiligt sich Beckhoff an Forschungen im Bereich des Maschinellen Lernens?

Dr. Klaus Neumann: Unser Hauptziel ist, die verschiedenen Produkte aus dem eigenen Hause zu verbessern. Hier gibt es derzeit zahlreiche interessante Projekte. Dadurch sind wir in der Lage, unseren Erfahrungsschatz zu erweitern und die notwendige Softwarebasis voranzubringen. Ziel muss es sein, diverse Projekte auf dieser Basis zu einer Lösung zu bringen und dadurch den Arbeitsaufwand bei gleichbleibender Qualität zu minimieren. Unsere dementsprechenden Erfahrungen sollen in Zukunft auch direkt beim Kunden ankommen.

Dr. Benjamin Jurke: Wir haben heute einen konkreten Entwicklungsplan für die nächsten Jahre, in dessen Rahmen wir kontinuierlich an Produkten im Bereich Twincat Machine Learning arbeiten. So ist beispielsweise die Ausweitung des Modell-Portfolios geplant.

Bestehen aus Ihrer Sicht noch technische oder sonstige Begrenzungen, die einem flächendeckenden Einsatz von Machine Learning im Weg stehen oder sind diese ausreichend aus dem Weg geräumt?

Dr. Klaus Neumann: Aus technischer Sicht gibt es noch einige große Herausforderungen, die für eine Komplettintegration von ML in die Automatisierung gemeistert werden müssen: Es wird offene Schnittstellen für Data Scientists (z. B. für Datenaufnahme, Lernen und Deployment) geben müssen, die eine gewisse Praktikabilität im Sinne der Interoperabilität über verschiedene Frameworks hinweg gewährleisten. Zusätzlich muss eine einfache Nutzung möglich sein, die eine Verwendbarkeit ohne Spezialwissen erlaubt. Kein Maschinenbauer sollte ein Spezialist im Bereich ML sein müssen. Da viele maschinelle Lernverfahren inhärente Ungenauigkeiten aufweisen, muss die Steuerung damit in geeigneter Weise umgehen können. Lösungen müssen bei Nichteignung manipuliert oder ganz verworfen werden. Der Benutzer erhält damit eine gewisse Zuverlässigkeit der gelernten Algorithmik. All diese Anforderungen müssen für zyklusbasierte Steuerungen der Zukunft erfüllt sein, wenn maschinelles Lernen darin eine Rolle spielen soll. Genau diese Anforderungen bezieht Beckhoff bei der Entwicklung von Twincat Machine Learning ein.

Dr. Benjamin Jurke: Eine gewisse Hürde für den breiten Einsatz des maschinellen Lernens sehe ich in der am Standort Deutschland immer weiter zurückfallenden Infrastruktur. Viele Industrieunternehmen liegen abseits der Ballungsgebiete und sind nur spärlich oder gar nicht mit Breitband-Internetanschlüssen versorgt. Eine ähnliche Problematik herrscht auch beim performanten Mobilfunk vor. Solche Einschränkungen schließen die Nutzung von Cloud-Diensten als Ressource von vornherein aus, aber auch eine Standort-übergreifende Aggregation von Trainingsdaten wird so massiv erschwert. Darüber hinaus sehe ich einen gewissen Pessimismus gegenüber neuen Techniken, insbesondere wenn diese in manchen Bereichen einen Paradigmenwechsel einläuten. Viele maschinell erlernte Optimierungen kodieren ihr erlangtes Wissen in Form riesiger Zahlenmengen, aus denen man praktisch keinerlei Rückschlüsse oder Ursachenfindungen im Nachhinein betreiben kann. Wenn ein Computer-Vision-System nun beispielsweise ein Objekt völlig falsch klassifiziert, ist es kaum möglich, eine konkrete Ursachenforschung zu betreiben und ‚die eine falsche Codezeile‘ zu finden. Trotzdem arbeiten viele solcher Verfahren unter dem Strich deutlich effizienter als klassische Lösungsansätze. Es ist somit ein gewisses Umdenken und eine Offenheit Neuem gegenüber erforderlich. Dann kann das Gesamtsystem besser werden, auch wenn sich ggf. nicht mehr jeder einzelne Fehler minutiös ursächlich zurückverfolgen lässt.

Was denken Sie: Welchen Stellenwert wird das maschinelle Lernen in fünf bis zehn Jahren in der industriellen Automatisierung einnehmen?

Dr. Klaus Neumann: Einen großen Stellenwert – zumindest hoffe ich das! Zu der Frage, wie dieser aussehen könnte, möchte ich gerne Marvin Minsky, einer der Pioniere der künstlichen Intelligenz, zitieren. Er hat bereits im Jahr 1969 mit dieser Prognose eine große Weitsicht bewiesen: „Computer languages of the future will be more concerned with goals and less with procedures specified by the programmer“. Ich finde, dass diese Aussage sehr gut die Vision beschreibt, die maschinelles Lernen im Kontext industrieller Automatisierung erreichen könnte.

Dr. Benjamin Jurke: Allein der internationale Konkurrenzdruck der Märkte wird einen breitflächigen Einsatz maschineller Lernverfahren innerhalb der Automatisierung erzwingen. In vielen Bereichen sind elektromechanische Hardwarekomponenten an ihr physikalisches Limit gelangt, sodass sich nennenswerte Optimierungen und Verbesserungspotenziale im Grunde nur noch auf höheren Ebenen wiederfinden. Dort laufen viele, bereits einzeln komplex zu modellierende Prozesse zusammen. An diesen Stellen wird maschinelles Lernen breiten Einsatz finden und Unternehmen, die diese Potenziale nicht ausnutzen, werden erheblich an Konkurrenzfähigkeit einbüßen. In Domänen wie Computer Vision sind die Methoden des maschinellen Lernens bereits heute nicht mehr wegzudenken, und auch bei Beckhoff haben wir erste Produkte, denen der Einsatz neuronaler Netze fundamental zugrunde liegt. Von daher blicke ich sehr optimistisch in die Zukunft.

Bleiben Sie informiert

Diese Themen interessieren Sie? Mit unserem Newsletter sind Sie immer auf dem Laufenden. Gleich anmelden!