Funktionsprinzip der KI,
Im ersten Schritt werden Daten gesammelt, um anschließend ein mathematisches Modell des Prozesses zu erstellen. Die Steuerung wird gegen dann das Modell trainiert und testet dabei systematisch Optimierungen für die Zielgröße. Die Steuerung kann nun aus aktuellen Messdaten Einstellungen erzeugen – als echt automatische Regelung für die Anlage. (Bild: micropsi idustries)

Im Maschinellen Lernen ist in den letzten Jahren viel passiert: Durch neue, preiswerte, für Zwecke des Maschinellen Lernens gut geeignete Chips (GPUs), können sehr viel größere Datenmengen in vertretbarer Zeit zum Training von Modellen verwendet werden. Bei einigen Techniken ist auch tatsächlich die Forschung gut vorangekommen: Convolutional Neural Networks verbessern etwa signifikant die Fähigkeit von Maschinen, Kamerabilder zu verarbeiten; Recurrent Neural Networks lernen die Dynamiken beliebiger Systeme, wenn man sie mit genug Daten füttert; und Reinforcement Learning erlaubt das Trainieren von Regelungen durch Versuch und Irrtum.

Damit wird es attraktiver, nicht nur die Produktion selbst, sondern auch die Intelligenz für ihre Aussteuerung zu automatisieren. Sensoren werden in modernen Anlagen oft ohnehin, gewissermaßen zur Sicherheit, verbaut. Die Daten liegen also vor, folglich liegt es nahe, Prozessdynamiken automatisch lernen zu lassen, statt sie von Hand zu modellieren. Und wer ein dynamisches Modell für einen Prozess schon hat, kann sich, als Trockenübung und ohne Risiko, eine Regelung trainieren.

Protokollierte Erfahrung ersetzt „gutes Gefühl“

Ein Beispiel aus der Kunststoffverarbeitung. Die Qualität des Produkts hängt hier typischerweise von einer Reihe leicht messbarer Werte ab, etwa die Temperatur des aufgeschmolzenen Granulats an verschiedenen Stellen, aufgewandte Drücke, Abkühlzeiten, aber auch Umgebungsparameter wie Luftfeuchtigkeit oder Lufttemperatur. Den Zusammenhang dieser Parameter haben menschliche Einsteller „im Gefühl“. Wo in Schichten gearbeitet wird, fällt aber gern auf, wie stark sich dieses Gefühl zwischen einzelnen Einstellern unterscheiden kann.

Liegen genug Zeitreihendaten für die fraglichen Parameter vor, dazu sauber dokumentierte Messungen der erreichten Qualität, lässt sich aus dieser protokollierten Erfahrung systematisch lernen, wie sich Maschine, Material und Umgebung in der Zeit zueinander verhalten – oft reichen einfache lineare Modelle, aber auch Rekurrente Netzwerke können zum Einsatz kommen. Im nächsten Schritt wird dieses Modell mit Reinforcement Learning erkundet und zum Training einer Steuerung verwendet, die für die jeweils aktuelle Lage einen Satz Einstellungen erzeugen kann, der die Zielgröße Qualität konstant hält.

Nicht alle möglichen Anwendungen sind derart auf einige wenige Parameter beschränkbar – das Verfahren funktioniert allerdings auch auf hunderten von Zeitreihen und bemerkt dann selbst, was es ignorieren darf. Lediglich die Anforderungen beim Trainieren der Modelle steigen – das bereits beschriebene iterative Zusammenspiel zwischen automatischer Datenanalyse und menschlichen Experten lohnt sich mit zunehmender Komplexität immer mehr, weil es das „Sichern“ sinnvoller Zwischenergebnisse erlaubt.

Wie reif und bereit für den industriellen Einsatz sind diese Techniken? DeepMind hat jedenfalls angekündigt, die Techniken, mit denen im Pilot-Rechenzentrum so spektakuläre Erfolge erzielt worden sind, in allen Google-Rechenzentren zur Anwendung zu bringen.

Das Unternehmen micropsi industries setzt bereits erfolgreich Lösungen in der Kunststoff- und Holzverarbeitenden Industrie um. Hier durchlaufen die Kunden eine Lernkurve in Sachen KI, vertrauen aber in ihr eigenes Urteil: Dass Arbeit mit Daten den entscheidenden Wettbewerbsvorteil ermöglichen kann, dass es dafür nicht genug sein kann, die Daten in Clouds hinein zu speichern, und dass händische Auswertung in vielen Fällen eine zu reaktive und ziellose Option ist.

Sie möchten gerne weiterlesen?