Hand mit PCs im Wirbel,

Der Industrie PC muss sich für die Industrie 4.0 neu rüsten. (Bild: © sdecoret - Fotolia.com)

Wie hat sich der Industrie PC in den letzten Jahren entwickelt?
Der Industrie PC (IPC) hat sich aus unserer Sicht dahingehend entwickelt, dass die Nachfrage nach individuellen, flexiblen und maßgeschneiderten Konfigurationen stark gestiegen ist. Diese veränderten Kundenansprüche haben natürlich auch einen erheblichen Einfluss auf den Beschaffungsmarkt: Hatte sich dieser in den letzten Jahren sehr stark in Richtung der asiatischen Hersteller entwickelt, so lässt sich seit drei Jahren eine deutliche Verlagerung zu den europäischen und bevorzugt zu den deutschen Anbietern erkennen.

Und was hat sich technisch verändert?
Technisch ist das Ganze sicherlich stark durch die zugrundeliegenden Intel Technologien geprägt: Der technische Fortschritt ist in den neuesten Prozessorgenerationen bis hin zu neuen beziehungsweise weiterentwickelten Schnittstellen zu erkennen. Auch ein kleinerer Formfaktor spielt eine immer wichtigere Rolle. Das Thema Passivkühlung ist in den letzten Jahren ebenfalls ein starker Trend. Hierbei muss man allerdings sagen, dass sich die benötigte oder geforderte Rechenleistung genau in die entgegengesetzte Richtung entwickelt hat.

Auf der einen Seite möchten viele oder alle Kunden passiv-gekühlte Systeme und keine beweglichen Teile, aber auf der anderen Seite nimmt der Bedarf nach einer immer höheren Rechenleistung ständig zu. Diese beiden Dinge stehen aber im Widerspruch zueinander. Wir haben auf dieses Problem schon vor vielen Jahren reagiert, indem wir zum einen immer die neuesten Intel Technologien einsetzen, wodurch trotz weniger Wärmeabgabe eine immer höhere Rechenleistung erreicht werden kann. Und zum anderen sind wir dazu übergegangen, im Bereich der aktiven Kühlung die hochwertigsten Komponenten zu verbauen, um die qualitativen Vorgaben der Kunden, was etwa die Lebensdauer angeht, realisieren zu können.

Peter Trosien,
Peter Trosien, Chief Operation Officer bei Pyramid Computer. (Bild: Pyramid Computer)

Was sind die heutigen Herausforderungen in der IPC-Technik? Stichpunkt Big Data und Rechenleistung?
Auf der einen Seite haben wir den immer lauter werdenden Schrei nach hochperformanten Systemen. Der Rechner soll zum Beispiel speziell im Kamera- oder Sensorbereich immer näher an die eigentliche Sensorik heran gebracht werden, da man lange Netzwerkverbindungen vermeiden möchte oder sich aber diese im industriellen Umfeld nicht leisten kann, weil magnetische Störeinflüsse auftreten. Dies wäre zwar mit Glasfaserleitungen zu kompensieren, aber die Umrüstung wäre sehr teuer. Auf der anderen Seite haben wir, wenn wir an Big Data denken, die Tendenz, dass man nur noch Daten cachet und sie mehr oder weniger ungefiltert an die Cloud weiter gibt. Die eigentliche Rechenleistung wird damit ins Datacenter verschoben. Und dort behilft man sich mit standardisierten hochperformanten Serversystemen.

Das heißt, die Daten werden nicht mehr direkt an der Maschine, also im IPC verarbeitet, sondern eher in der Cloud…
Das sind genau die zwei Welten, die es gibt. Man kann es nicht pauschal beantworten, dass generell die Daten in der Cloud gespeichert und verarbeitet werden. Aber es gibt einfach Anwendungsszenarien, in denen das bereits passiert ist oder gerade passiert. Außerdem gibt es die Tendenz, dass man aus gewissen Gründen die Daten direkt im IPC aufbereiten muss. Dadurch hat man dort natürlich deutlich erhöhte Anforderungen an die Rechenleistung.

Können Sie hier ein Beispiel nennen?
Das wäre zum Beispiel der Bereich Optical Inspection. Hier hat man eine schnelle Bearbeitungszeit, so dass sie keine Zeit haben die Daten zuerst in die Cloud zu schieben und zu verarbeiten. Sie müssen die Daten direkt vor Ort an der Maschine im IPC verarbeiten und dort behilft man sich dann mit anderen Lösungen. Bei einigen Kunden sehen wir die Tendenz, dass sie nicht mehr wie Jahrzehntelang auf der klassischen Intel CPU rechnen, sondern dass sie die Rechenleistung auch auf Graphikeinheiten verlagern, gepaart mit allen neuen Technologien, die es dort gibt. Somit erhalten sie bei den Anwendungen eine wesentlich höhere Rechenleistung direkt im IPC.

Gibt es Grenzen der IPC-Technik?
Überall dort, wo sie ein gewisses Maß an Rechenleistung überschreiten wie zum Beispiel bei der Passivkühlung. Hier ist die Barriere relativ schnell überschritten, weil dort nur verhältnismäßig wenig Rechenleistung untergebracht werden kann. Zum anderen gibt es auch Grenzen, wenn die Baugröße stark eingeschränkt ist. Je mehr Rechenleistung ich brauche, desto schwieriger ist es die Rechenleistung passiv zu kühlen. Und je mehr Rechenleistung ich brauche, desto mehr Bauraum für den eigentlichen IPC muss ich zur Verfügung stellen. Das sind konkurrierende Dinge.

Sehen Sie den Trend, dass „unwichtigere“ Daten in der Cloud verarbeitet werden und wichtige prozessnahe Daten im IPC?
Das glaube ich sehr wohl. Allerdings sollte man nicht zwischen wichtigen und unwichtigen Daten unterscheiden, sondern eher wie schnell die Daten verarbeitet werden müssen und welche Reaktionszeiten man benötigt. Das ist im Endeffekt der Knackpunkt. Überall dort, wo man genug Reaktionszeit zur Verfügung hat - das heißt, wenn man es sich erlauben kann eine gewisse Zeit auf die Auswertungen der Daten zu warten - wird es sicherlich möglich sein, auf die Cloud auszuweichen.

Auch das Problem der Sicherheit darf bei dem Umgang mit sensiblen Daten nicht vergessen werden. Es stellt sich häufig das Problem, dass man dort, wo man die Daten generiert, nicht immer eine sichere Internetverbindung hat. Nehmen wir doch einmal die Datenerfassung eines Offshore-Kraftwerkes drei Meilen vor der Küste und 20 Meter unter Wasser als Beispiel: Ob man hier überhaupt ununterbrochen eine Internet-Verbindung herstellen kann, ist natürlich auch eine wichtige Frage.

Wie wird sich die IPC-Technik in Zukunft entwickeln?
Bei schnelleren Reaktionszeiten und bei weniger schnellen Notwendigkeiten von Reaktionszeiten werden sich die Lager weiter splitten. Auch überall dort wo man mit verhältnismäßig wenig Rechenleistung auskommt, wird man höchstwahrscheinlich immer mehr standardisieren können. Da werden sicherlich mehr asiatische Lösungen gefragt sein, die dann auch sehr preisaggressiv angeboten werden. Aber dort, wo man einen hohen Spezialisierungsgrad benötigt, wird weiterhin der europäische beziehungsweise der deutschsprachige Beschaffungsraum eine sehr wichtige Rolle spielen.

Und was die Rechenleistung angeht: Ich glaube, dass der Bedarf in den nächsten zehn Jahren weiterhin dramatisch wachsen wird. Was man in den letzten Jahren an Möglichkeiten sieht, speziell im Bereich der optischen Bildverarbeitung, ist immens. Wenn sie allein das Thema selbstfahrende Autos aufgreifen: Was dort noch kommen und an Sensorik benötigt wird und sich ebenfalls auf die Rechenleistung niederschlägt, wird bemerkenswert werden. In dieser Branche wird der weitere Anstieg an Rechenleistung sogar noch deutlich größer werden, als die gestiegene Nachfrage in den letzten Jahren schon vermuten lässt. hei

Sie möchten gerne weiterlesen?