Ein perfektes Team: High Performance Computing und künstliche Intelligenz

7 Min. Lesezeit
25. April 2023

Moderne Hochleistungsrechner, auch Supercomputer genannt, sind in der Lage, immer größere Datenmengen zu verarbeiten. Mithilfe von künstlicher Intelligenz können Simulationen von komplexen Zusammenhängen erstellt werden, die unglaublich nah an der Realität sind. Dieses mächtige Paar kann seinen Nutzer*innen einen beträchtlichen Wissensvorsprung verschaffen.

Sonne und Strand, Pommes und Ketchup oder Bud Spencer und Terence Hill – es gibt Kombinationen, die einfach perfekt zueinander passen, sich ideal ergänzen. Strahlender Sonnenschein ist am Strand wesentlich angenehmer als im Büro. Ketchup ohne Pommes ist auch kein Hochgenuss. Solche Duos haben immer eines gemeinsam: Zusammen bewirken beide Teile wesentlich mehr als alleine. Genauso ist es, wenn Rechner des High Performance Computing und künstliche Intelligenz miteinander zum Einsatz kommen. Diese kongeniale digitale Partnerschaft hat das Zeug, einige unserer wichtigsten Fragen zu beantworten, sofern die Datenlage passt.

 

Inhalt

Warum benötigen wir immer mehr Rechenleistung?
Mooresches Gesetz
Die Entstehung des High Performance Computing
Wie funktionieren Supercomputer?
Supercomputing für alle
Wozu brauchen wir künstliche Intelligenz?
So arbeiten HPC und KI zusammen
HPC as a Service
Fazit
Whitepaper "High Performance Computing"

 

Warum benötigen wir immer mehr Rechenleistung?

Bevölkerungswachstum, Klimawandel, Globalisierung – unsere Welt und das Zusammenleben darin wird zunehmend komplexer. Mit herkömmlichen Mitteln schaffen wir es nicht mehr, die Zusammenhänge zu überblicken. Es wird immer schwieriger, hilfreiche Schlüsse aus den gesammelten Informationen zu ziehen. Wir sind diesbezüglich an einem Punkt angelangt, an dem wir Hilfe benötigen. Hilfe in Form von modernster Technik.

Bereits 1837 entwarfen Charles Babbage und Ada Loveace das erste Konzept für eine Rechenmaschine (Analytical Engine) und gelten somit als Vordenker des Computerzeitalters. Erst in den 1940er-Jahren wurden mit dem Zuse Z3 (1941) und dem ENIAC (1946) die ersten funktionierenden elektronischen Datenverarbeitungsanlagen gebaut. Diese frühen Computer wurden auch Großrechner genannt und die Ein- und Ausgabe der Daten war ausschließlich auf Zahlen beschränkt. Mit zunehmender Leistungsfähigkeit eröffneten sich nach und nach neue Einsatzbereiche. Seit damals sind auch die Ansprüche an der Datenverarbeitung beträchtlich gestiegen. Die Digitalisierung steckte damals noch in den Kinderschuhen, aber unsere heutige Welt lernte Laufen.

Großrechner | Mainframe Computer | shutterstock_94202284Großrechner, sogenannte Mainframe-Computer, kamen schon in den 60er-Jahren des letzten Jahrhunderts zum Einsatz.

 

Mooresches Gesetz

Gordon Moore, ein US-amerikanischer Ingenieur, stellte nach Beobachtungen schon 1966 die These auf, dass sich die Komplexität integrierter Schaltkreise, also die Anzahl der Transistoren, mit minimalen Komponentenkosten regelmäßig verdoppelt. Den Zeitraum änderte Moore von anfänglich einem Jahr 1975 auf zwei Jahre. Aber nur weil manche Prozessoren (CPU) doppelt so viele Transistoren besitzen, müssen diese nicht doppelt so schnell sein. Die Aussage ist aber dennoch wichtig, da Chip-Hersteller die Chip-Fläche so gering wie möglich halten wollen. Immer mehr Schaltkreise werden auf dem gleichen Raum untergebracht. Seit einigen Jahren ist die CPU-Entwicklung etwas ins Stocken geraten und damit hat sich auch der Verdoppelungszeitraum vergrößert. Mittlerweile ist allerdings die Anzahl der verbauten CPU-Kerne eher maßgebend für die Geschwindigkeit.

 

Die Entstehung des High Performance Computing

Die Geschichte der Computer-Entwicklung zeigt, wie wichtig die Rechenleistung bei der Datenverarbeitung ist. Auf die sogenannte Performance wurde von Anfang an großer Wert gelegt. In den 1970er-Jahren teilte sich die Computer-Evolution in zwei Richtungen: Die Entwicklung von kleineren Heim- oder Personal Computern leitete die „Computerrevolution“ (Steven Levy) ein und aus den großen Rechnern der Anfangsjahre gingen die Supercomputer hervor. Die Geburtsstunde des High Performance Computing liegt in den 1960er-Jahren. Wurden Großrechner auf hohe Zuverlässigkeit hin optimiert, ging die Tendenz bei Supercomputern in Richtung hoher Rechenleistung. Der erste offiziell installierte Hochleistungsrechner Cray-1 schaffte 1976 130 MegaFLOPS.

FLOPS sind Floating Point Operations Per Second und stehen für die Leistungsgröße „Gleitkommaoperationen pro Sekunde“. Diese Einheit wird insbesondere für Supercomputer verwendet, wo diese Operationen eine wichtige Rolle spielen.

 

Wie funktionieren Supercomputer?

Hochleistungsrechner ermöglichen uns, riesige Mengen wertvoller Informationen zu erfassen und in verwertbare Erkenntnisse umzuwandeln. Aber wie schaffen sie das? In den Anfangszeiten wurde die außergewöhnliche Rechenleistung durch die optimale Ausnutzung der verfügbaren Technik erzielt. Es wurden also Technologien verwendet, die für die Serienproduktion zu teuer waren. Das ist nur mehr zum Teil so, denn seit einigen Jahren bestehen Supercomputer aus Clustern, bei denen eine große Anzahl von Einzelrechnern zu einem großen Rechner vernetzt werden. Moderne Hochleistungsrechner sind also vor allem Parallelrechner.

Die Knoten (einzelne Computer) in derartigen Clustern besitzen eine eigene Peripherie und einen lokalen Hauptspeicher. In speziellen Hochleistungsnetzwerken werden diese Knoten miteinander verbunden. Heute gelten Supercomputer als Symbol für die größtmögliche verfügbare Rechenleistung. Bei entsprechender Skalierung kann ein Supercomputer Zigtausende von Knoten enthalten.

 

Supercomputing für alle

War die Nutzung dieser High-Performance-Computer lange Zeit nur Regierungen, großen Finanzinstituten und Forschungseinrichtungen vorbehalten, so bekommen inzwischen auch kleinere Organisationen und Unternehmen die Möglichkeit, von den herausragenden Rechenleistungen zu profitieren. Supercomputing ist selbst zu einem stark expandierenden Geschäftszweig geworden. Einer Studie zufolge wurde der globale Markt für High-Performance Computing (HPC) im Jahr 2020 auf 32,5 Milliarden US-Dollar geschätzt und wird bis 2028 voraussichtlich auf fast 56 Milliarden wachsen. Der Einfluss, den Big Data auf unsere Gesellschaft hat, nimmt zu. Immer mehr Unternehmen wollen davon profitieren.

 

Wozu brauchen wir künstliche Intelligenz?

Der zweite boomende Technologiesektor beschäftigt sich mit der Entwicklung und Verbesserung von künstlicher Intelligenz (KI). Der Traum, die Funktionsfähigkeit des menschlichen Gehirns nachzubauen, ist schon alt, hat aber mit unserem Antrieb, digitale Intelligenzen zu erzeugen, nur zum Teil zu tun. Eine einheitliche Definition für KI gibt es allerdings nicht, auch wenn es mit dieser Technik im Alltag bereits etliche Berührungspunkte gibt. Wenn wir etwas im Internet bestellen und uns neue Produkte vorgeschlagen werden, steckt künstliche Intelligenz dahinter. Aber nicht nur dort. KI wird auch von Suchmaschinen eingesetzt, bei Übersetzungsprogrammen, bei der Textgenerierung (Stichwort ChatGPT), bei der optischen Zeichenerkennung, der Gesichtserkennung, in Computerspielen und natürlich bei den Sprachassistenten, die uns den Alltag erleichtern sollen. Der Industriebetrieb FRÄNKISCHE Rohrwerke hat mit Hilfe von KI sogar seine Fertigungsprozesse digitalisiert. Gemeinsam mit daenet, einem Unternehmen der ACP Gruppe, wurde eine „Smart Factory Lösung“ implementiert, die zu einer erheblichen Steigerung der Transparenz und der Effizienz im Produktionsprozess führte. Eines zeigt sich ganz deutlich: KI ist zu einem Teil unseres Lebens geworden, auch wenn wir sie meist im Hintergrund agiert.

Allein das Sammeln der Daten und ihre Analyse ist für jeden unserer Fachbereiche enorm wertvoll – etwa bei der Qualitätssicherung.
Sabrina Pollner, Digital Transformation Office bei FRÄNKISCHE

Künstliche Intelligenz zur Gesichtserkennung und BildanalyseKünstliche Intelligenz und Machine Learning kommen beispielsweise der Gesichtserkennung und Bildanalyse zum Einsatz.

 

So arbeiten HPC und KI zusammen

Es ist kein Zufall, dass High Performance Computing und künstliche Intelligenz in den letzten Jahren eine derart fruchtbare Partnerschaft eingegangen sind. Hier schließt sich der Kreis, denn auch wenn sich die Forschung bereits in den 1950er-Jahren mit der Entwicklung von künstlicher Intelligenz befasst hat, so ist die Rechenleistung unserer Hardware erst in den letzten dreißig Jahren ansatzweise dazu in der Lage, intelligentes Handeln zu simulieren. KI benötigt viel Rechenleistung und Supercomputer benötigen künstliche Intelligenz, um bestimmte Aufgaben erfüllen zu können. KI und HPC bedingen sich also in manchen Bereichen gegenseitig – auch wenn es natürlich Fragestellungen gibt, für die Supercomputer auch ohne künstliche Intelligenz auskommen.

Die derzeitigen Haupteinsatzgebiete der Supercomputer umfassen dabei Bereiche wie Biologie, Chemie, Geologie, Luft- und Raumfahrt, Medizin, Meteorologie und Klimaforschung, Militär und Physik und last but not least die beiden großen Bereiche Marketing und öffentliche Verwaltung. Aus ganz unterschiedlichen Gründen wird in diesen Fachgebieten mit gewaltigen Datenmengen gearbeitet, die nur mithilfe von Hochleistungsrechnern verarbeitet und oft nur mit künstlicher Intelligenz interpretiert werden können.

Mit Machine Learning (ML), einem Teilbereich der künstlichen Intelligenz, lassen sich Algorithmen inzwischen trainieren. Derartige Programme schaffen es, Zusammenhänge zu erkennen und Muster zu identifizieren. ML ermöglicht es digitalen Systemen, aus Erfahrungen (Daten sammeln) zu lernen, ohne dass etwas an der Programmierung geändert werden muss. Das momentan bekannteste Beispiel ist das textbasierte Dialogsystem (Chatbot) ChatGPT.

Sideinfo:
Der aktuell schnellste bekannte Supercomputer der Welt befindet sich im Oak Ridge National Laboratory in Tennessee, USA. Die wissenschaftlich-technische Forschungs- und Entwicklungseinrichtung des US-Energieministeriums untersucht grundlegende wissenschaftliche Herausforderungen in Bezug auf Energie und Sicherheit und soll zukunftsweisende Lösungen liefern. Der Frontier (OLCF-5) ist der erste HPE Cray Exascale-Supercomputer mit einer Spitzenleistung von rund 1,1 ExaFLOPS – das sind mehr als 1,1 Trillionen Berechnungen pro Sekunde.

Supercomputer | Server

 

 

HPC as a Service

Eine der wichtigsten Anforderungen, die wir heute an das High Performance Computing stellen, ist die Bereitstellung von Rechenleistung zur Beschleunigung von datenintensiven Arbeitslasten. Selbst weniger leistungsfähigere Supercomputer als der Frontier, brauchen viel Platz, ein eigenes Rechenzentrum und enorm viel Strom. Es gibt nicht viele Organisationen, die sich eine derartige Anschaffung leisten können. Die gute Nachricht ist: Inzwischen können perfekt skalierbare HPC-Lösungen bereits On-Premises, On-Edge und sogar in der Cloud bereitgestellt werden. HPC ist allerdings sehr komplex und Kunden, die HPC in der öffentlichen Cloud testen, stellen oft fest, dass diese dafür nicht ausgelegt ist.

Neue HPC-as-a-Service-Lösungen wie HPE GreenLake Big Data bieten Hardware, Software und Dienstleistungen an, die Zahlungsflexibilität sowie Sicherheit und Kontrolle vor Ort kombinieren. HPC as a Service bietet HPC-Technologie mit einem hohen Maß an finanzieller Flexibilität. Es ermöglicht Ihnen das Testen, Bereitstellen und Skalieren von fortschrittlichen HPC-Techniken, künstlicher Intelligenz und Machine Learning, ohne das Budget zu pulverisieren.

 

Fazit

Big Data und künstliche Intelligenz sind die Schlagworte unserer Zeit. Die Fortschritte bei den Supercomputing-Technologien ermöglichen uns einen kontrollierten Umgang mit riesigen Datenmengen. Das Zusammenwirken von High Performance Computing und künstlicher Intelligenz verschafft uns Zugang zu noch nie da gewesenen Erkenntnissen. Supercomputing-Technologien werden künftig in den meisten Organisationen eine wichtige Rolle spielen. Vor allem HPC-as-a-Service-Lösungen wie HPE GreenLake stellen sicher, dass Unternehmen datenintensive Arbeitslasten schnell, effizient, sicher und mit einem optimalen Preis-Leistungs-Verhältnis ausführen können. Mit HPCaaS werden Sie in der Lage sein, den Wert aller Daten vollständig zu nutzen. So können Sie sich wieder auf Ihre Kunden konzentrieren und präzise Voraussagen machen, die ausschließlich mit einer dedizierten HPC-Infrastruktur möglich sind.

 

High Performance Computing

Big Data ist ein fundamentaler Teil der digitalen Transformation geworden. Erfahren Sie, wie HPC Licht in den Datendschungel bringt.

whitepaper-high-performance-computing-web
 

WHITEPAPER HERUNTERLADEN

Updates for innovators:
Abonnieren Sie unseren Blog.