HPC-Lösungen, Bild: Transtec

Während in der Vergangenheit im HPC-Bereich das Hauptaugenmerk auf der Hardware-Performance lag, geht es heute um Workflow-Optimierung. Bild: Transtec

Dass HPC (High-Performance-Computing)-Anwendungen im Trend liegen, ist keine Frage. Vor allem große Konzerne, Unternehmen, Forschungsinstitute und Universitäten nutzen sie seit Längerem. Aber auch in kleinen und mittelständischen Firmen nahezu jeder Branche wird der Einsatz zunehmen. Dafür gibt es zwei Gründe: Zum einen ist die Nutzung von HPC-Applikationen nicht mehr mit extrem hohen Kosten verbunden, zum anderen wird die schnelle Auswertung großer Datenmengen zur Sicherung der Wettbewerbsfähigkeit für Unternehmen an Bedeutung gewinnen. In der Vergangenheit erforderten HPC-Systeme den Einsatz von teuren Großrechnern und Supercomputern. Inzwischen werden aber im HPC-Bereich verstärkt auch wesentlich kostengünstigere Cluster auf Basis standardisierter x86-Systeme genutzt. Auch kleine und mittlere Unternehmen können deshalb heute leistungsfähige HPC-Systeme problemlos betreiben.

Natürlich gibt es HPC-Lösungen, die in Preiskategorien von 100.000 bis rund zwei Millionen Euro liegen. Allerdings geht es auch wesentlich günstiger: Eine Cluster-Lösung mit vier bis acht Knoten ist – abhängig von der konkreten Ausstattung – bereits ab 25.000 Euro erhältlich. Angesichts des überragenden Nutzens von HPC sollte die Investition in einer solchen Größenordnung für die meisten Mittelständler keine Frage sein.

Die Datenvolumina wachsen in nahezu allen unternehmenskritischen Systemen dermaßen schnell an, dass konventionelle Rechnersysteme für deren Auswertung an ihre Grenzen stoßen. Die Gewinnung nutzbarer Erkenntnisse aus dieser Datenflut – Stichpunkt Big Data – ist in Zukunft praktisch nur noch mit hochleistungsfähigen HPC-Systemen zu bewältigen und eine Grundvoraussetzung, um die Wettbewerbsfähigkeit und künftige Innovationskraft eines Unternehmens sicherzustellen. Das betrifft auch mittelständische Unternehmen, die in einem zunehmend globalisierten Markt einem immer höheren Konkurrenzdruck ausgesetzt sind.

Mittelstand zögert noch

Simulation dank HPC, Bild: Transtec
Strömungssimulationen sind ein wesentlicher Teilbereich im CAE. Bild: Transtec

Allerdings ist die Zurückhaltung gerade bei kleineren Unternehmen noch groß. Das hat auch eine aktuelle Umfrage des IT-Dienstleisters Transtec ergeben. Dabei wurden 254 IT-Verantwortliche in technisch orientierten Unternehmen mit bis zu 1000 Mitarbeitern befragt. Generelles Ergebnis: Gerade einmal fünf Prozent der mittelständischen Unternehmen nutzen HPC-Systeme.

Die Verwendung dieser Systeme hängt allerdings in hohem Maße von der jeweiligen Unternehmensgröße ab: Über neun Prozent der Unternehmen ab 201 Mitarbeitern gaben an, sie einzusetzen; diese Zahl reduziert sich auf rund drei Prozent bei Unternehmen mit elf bis 200 Mitarbeitern, und von den befragten Kleinstbetrieben bis zu zehn Mitarbeitern nutzte indes kein einziger eine HPC-Lösung.

Vielfältiges Anwendungsspektrum

Im industriellen Umfeld werden HPC-Systeme vor allem für die Entwicklung neuer und die Verbesserung vorhandener Produkte oder Produktkomponenten betrieben, die Optimierung von Produktionsprozessen und die Analyse großer Datenbestände. Konkrete Anwendungsbeispiele sind Crash-Simulationen bei Automobilherstellern, Fraud Detection bei Kreditkartentransaktionen in der Finanzdienstleistungsbranche oder die Berechnung des optimalen Energiemix‘ durch Stromanbieter. Auch bei akademischen Institutionen stehen rechenintensive Datenanalysen und Simulationen im Vordergrund. Das kann zum Beispiel Modellierungen in der Klima- oder Materialforschung, Dosismessungen für die Strahlentherapie oder Berechnungen in der Teilchenphysik betreffen.

Dass aber auch kleine und mittlere Unternehmen bereits auf HPC-Systeme setzen, zeigen zwei Beispiele: In der Automobilindustrie sind heute Hunderte von Ingenieurdienstleistern tätig, die den Herstellern HPC-gestützt zuarbeiten. So werden wichtige Kfz-Komponenten wie Bremsen, Sitze, Airbags, Einspritzpumpen oder Klimaanlagen und deren Verhalten tausendfach simuliert, bevor sie letztendlich in die Produktion gehen.

Ein Beispiel aus der Molekularbiologie liefert die Genomanalyse. Auch hier führen Hunderte von kleinen und mittelgroßen privaten Laboren täglich Dutzende von Sequenzanalysen von Genom-Abschnitten durch. Durch Mustersuche in den sequenzierten Abschnitten kann beispielsweise eine Generkrankung festgestellt werden, bevor sie ausbricht, oder der Einfluss von Viren bei Krebserkrankungen ermittelt werden.