Big Data Wolke,

Große Datenmengen müssen sinnvoll und sicher gespeicert werden. Doch wo? Im Industrie PC oder in der Cloud? (Bild: © mindscanner - Fotolia.com)

Was ist die MindSphere und für wen ist sie gedacht?
MindSphere ist ein offenes Operating System. Es ist eine Plattform, die effizient und sehr schnell Daten sammelt, beispielsweise aus einer Produktionsanlage oder anderen industriellen Anlagen und Geräten, zum Beispiel in der Energieversorgung oder der Gebäudetechnik. Mit diesen Daten lassen sich wiederum sehr schnell und effizient Applikationen und Geschäftsmodelle aufbauen, die der Kunde nutzen kann. Zum Beispiel können Maschinen- und Anlagenbauer die MindSphere nutzen, um aus ihren verkauften Maschinen global Daten zu sammeln, daraus Analysen und Predictive-Maintenance-Applikationen zu erarbeiten, um dann ein digitales Geschäftsmodell für ihre Kunden aufzubauen.

Für den Endkunden ist MindSphere eine Plattform, auf der alle Daten aus dem gesamten Maschinenpark effizient eingesammelt werden können. Hier kann er sich selber seine Lösungen zusammenstellen. Zum Beispiel kauft der Kunde eine Applikation von Siemens, um seinen Siemens-Antriebsstrang zu überwachen – und er kauft eine Ap­plikation von einem Maschinenbauer dazu, weil die entsprechende Maschine daneben steht. Der Kunde kann natürlich auch selber Applikationen für Bereiche schreiben, die er gerne selber in der Hand hat. Hier steht der Gedanke eines App-Stores im Vordergrund. In Summe deckt die Mind­Sphere damit alle Bereiche und Produkte von Siemens ab. Die Plattform ist aber auch bei Produkten von Drittanbietern einsetzbar.

Wie ist die Resonanz am Markt? Nimmt der Maschinenbau, eine doch konservative Branche, das Cloud-Thema an?
Ich bin seit zweieinhalb Jahren vertrieblich im Go-to-Market für das Thema verantwortlich und muss sagen, dass vor zweieinhalb Jahren viele Maschinenbauer noch konservativ waren. Seit einem Jahr ist das Interesse am Markt jedoch sehr hoch. Es gibt viele Kunden, die mit uns reden und technische Pilot-Projekte umsetzen wollen. Das Thema fängt wirklich an, abzuheben – vor allem im Grundverständnis und in der Akzeptanz.

Dr. Florian Beil,
Dr. Florian Beil, Leiter Plant Data Services bei Siemens. (Bild: Siemens)

Ist die Skepsis, dass wichtige geheime Firmendaten quasi auf fremden Servern laufen, verschwunden?
Die Datensicherheit ist immer eine Frage. Grundsätzlich verlassen Daten ein Unternehmensnetzwerk, doch mit unserer Lösung kann der Kunde entscheiden, in welchem Rechenzentrum die MindSphere läuft. Läuft sie bei einem externen Cloud-Provider oder auf einer On-Premise-Installation beim Kunden vor Ort. Dabei muss man sich fragen, was Datensicherheit bedeutet. Datensicherheit hängt nicht unbedingt vom Speicherort ab, sondern von den Zugriffsrechten. Hier ist ein professionell gemanagtes Rechenzentrum eines Cloud-Providers oft deutlich sicherer als lokale Installationen, wo der Rechner vielleicht unter dem Tisch steht. Sicherheitstechnisch kann eine Cloud-Lösung also auch Vorteile haben.

Außerdem ist es für Kunden sehr attraktiv, global Daten zu sammeln. Dies hat den Vorteil, dass ich damit Geschäftsmodelle überhaupt erst realisieren kann, die ich lokal im Werk gar nicht umsetzen könnte, etwa weltweit verteilte Maschinenflotten zu überwachen, Benchmarks zu erstellen oder für einen Maschinenbauer den Service global zu optimieren. Genau das Gleiche gilt übrigens auch für Endkunden. Auch diese haben typischerweise mehr als ein Werk, aus dem sie Daten einsammeln und vorhalten können, um diese dann zentral zu vergleichen und zu analysieren. Diesen Vorteil kriegen Sie nur mit einem Cloud-Ansatz.

Ein weiterer Vorteil ist die Offenheit. Durch offene Schnittstellen können sowohl wir als Siemens Applikationen erstellen als eben auch Drittanbieter wie Maschinenbauer, und diese in das App-Store-Konzept einbringen. Denn wenn Sie nur lokal Daten sammeln und auch nur lokal Daten-Software zulassen, können sie dieses Ökosystem nur bedingt nutzen. Natürlich muss die Sicherheit dabei immer gegeben sein.

Über Cloud-Lösungen besteht die Möglichkeit, sehr viele Daten zu sammeln und in großer Menge dezentral zu speichern. Wie werden die Daten ausgewertet und wo sollten sie ausgewertet werden? In der Cloud oder eher lokal vor Ort?
Wo die Daten ausgewertet werden, hängt von einigen Faktoren ab. Es gibt Anwendungsfälle, für die es Sinn macht, dass man Daten nah an der Maschine auswertet. Ich gebe Ihnen ein Beispiel: Wenn ich ein Condition Monitoring für einen Antriebsstrang mache, dann geht es hauptsächlich um Vibrationsdaten. Wenn man Vibrationsdaten einfach roh misst, hat man ein hohes Datenvolumen. Um herauszufinden, ob nun ein Problem vorliegt, brauche ich aber diesen Rohdaten-Stream eigentlich gar nicht, sondern ich benötige nur das Spektrum. Das ist eine mathematische Funktion, die ich lokal vor Ort an der Maschine rechnen lassen kann.

Eine Alternative wäre, die Berechnung an einem kleinen Rechner, der neben der Maschine steht. Dieser Rechner schickt dann für die zentrale Analytik das Ergebnis dieser Vorbearbeitung in die Cloud. Das wäre dann eine Analytik, die nahe an der Maschine passiert. Ein weiterer Bereich wäre, die Werkstückqualität im Maschinenbau zu messen. Hier wird es sicherlich intelligente Tools und Geräte vor Ort geben, die selektiv die Daten in eine zentrale Infrastruktur oder in eine Cloud schicken. Hier reden wir über verschiedene Arten von Daten wie Maschinendaten, die dann mit Produktionsdaten korrelieren können. Es gibt Use Cases, da kann ich zum Beispiel Wetterdaten mit auswerten und so den Energieverbrauch optimieren. Man muss hier verschiedene Datentöpfe abmischen und das kann man in dieser zentralen Infrastruktur der Cloud machen.

Grundsätzlich ist eine Cloud eine extrem installierbare Infrastruktur, das heißt: Sie können nach Bedarf Speicher und Rechenleistung zuschalten und damit entsprechende Analytik und Algorithmen schnell rechnen. Auf einem kleineren Rechner vor Ort ließe sich das gar nicht machen. Zum Beispiel Predictive-Maintenance-Applikationen, die teilweise eine relativ komplexe Analytik mit neuronalen Netzwerken oder Regressionsanalysen erfordern. Das können Sie heute nur auf einer Cloud-Infrastruktur schnell rechnen, weil Sie hier Kapazitäten zuschalten können. Natürlich könnten Sie diese Daten auch vor Ort rechnen. Sie müssten allerdings dementsprechend einen großen Rechner aufbauen, was nicht ökonomisch ist.

Im Industrie-PC-Bereich gibt es eine gewisse Leistungsexplosion, teilweise Many-Core-Automatisierungslösungen. Widerspricht das dem Cloud-Prinzip oder ergänzt sich das?
Meiner Meinung nach ergänzt sich das, weil wir auch im Edge-Bereich Anwendungsfälle haben, wo ich sehr schnell Daten vorverarbeiten muss. Ein Beispiel wäre das Werkstücksqualitäts-Szenario, wo ich aus einer Werkzeugmaschine sehr hochfrequente Daten, also im Millisekundenbereich, rausholen und vorverarbeiten muss. Da brauche ich Rechenleistung vor Ort. Die Ergebnisse davon kann ich dann wieder in eine zentrale Infrastruktur übertragen und weiter analysieren. Sie können den Use Case aus der Cloud nicht rechnen, wenn Sie nicht die Edge-Vorverarbeitung hätten. Das ist im Moment die Realität beim Kunden.

Man kann nur darüber spekulieren, was sich schneller weiterentwickelt und wie sich die Zukunft gestaltet. Aber auch wenn lokale Rechenkapazitäten immer leistungsfähiger werden, so entwickelt sich die Analytik ebenfalls weiter und der damit verbundene Rechenbedarf steigt auch auf der Anwendungsseite. Das heißt, dass man letztendlich wieder in eine zentrale Infrastruktur gehen muss. Kurzum: Sie müssen eine Analytik-Hierarchie etablieren. Manche Dinge werden lokal gerechnet, manche machen nur Sinn in einer Cloud. Das bietet Kunden je nach Anwendungsfall die nötige Flexibilität, sich ein Anbindungs-Vorbearbeitungs-Plattform-Szenario so zusammenzustellen, wie es dann gebraucht wird.

Wird die Cloud-Technik die Art verändern, wie Menschen mit Maschinen zusammenarbeiten? Hintergrund ist ein System wie Siri. Diese sprachgesteuerten Systeme funktionieren derzeit ja nur, weil die Sprachverarbeitung auf großen Rechenplattformen stattfindet. Hat das das auch eine Auswirkung auf die Industrie?
Davon bin ich fest überzeugt. Gerade hatte ich darüber eine Diskussion mit einem Partner von Microsoft. Er hatte genauso einen Use Case, bei dem man Daten von einer Maschine einsammelt und dann einen Spracherkennungsalgorithmus auf der Plattform laufen lässt, um zum Beispiel eine Maschine per Sprache zu steuern. Man kann mit dieser kognitiven Analytik festlegen, dass eine Maschine nicht anspringt, wenn die Analytik visuell feststellt, dass der Bediener zum Beispiel noch keinen Helm trägt. Der Operator sagt „Maschine starten“ und die Maschine oder die Cloud erkennt, dass er noch keinen Helm trägt und weist ihn darauf hin. Hier ändert sich zwar das Human Machine Interface noch nicht fundamental, aber es verbessert sich. Denn früher wäre so ein Szenario nicht möglich gewesen. hei

Sie möchten gerne weiterlesen?