Ein Supercomputer nur für Künstliche Intelligenz

cerebras1
Der größte bisher produzierte Chip enthält rund 2,6 Billionen Transistoren, 850.000 Rechenkerne, Speicherplatz und schnelle Datenverbindungen*

Als erstes wissenschaftliches Rechenzentrum in Europa bietet das Leibniz-Rechenzentrum (LRZ) Forschenden Zugang zu einem Cerebras CS-2-System mit HPE Superdome Flex Servern – ein Supercomputer spezialisiert auf smarte Anwendungen und Methoden Künstlicher Instelligenz sowie auf die Verarbeitung größter Datenmengen mit maschinellem Lernen.

Sagenhafte 2,6 Billionen Transistoren und 850.000 Rechenkerne versammeln sich auf dem bislang größten Chip, der rund 46 Quadratzentimeter misst. Die Wafer Scale Engine der zweiten Generation (WSE-2) von Cerebras System macht das CS-2-System zum Supercomputer für smarte Anwendungen mit Künstlicher Intelligenz (KI). Mit Förderung des bayerischen Wissenschaftsministeriums schafft das Leibniz-Rechenzentrum (LRZ) dieses System jetzt an und macht es für Forschung und Wissenschaft zugänglich: „Der KI-Rechenbedarf unserer Nutzer:innen verdoppelt sich zurzeit etwa alle drei bis vier Monate, mit der hohen Integration von Prozessoren, Speichern und On-Board-Netzwerken auf einem einzigen Chip ermöglicht Cerebras Hochleistung und Tempo. Das verspricht deutlich mehr Effizienz bei der Datenverarbeitung“, beschreibt Prof. Dr. Dieter Kranzlmüller, Leiter des LRZ, Vorteile.
Als erstes Rechenzentrum Europas setzt das LRZ auf diesen spezialisierten Supercomputer für KI und bietet damit seinen Nutzer:innen die nötigen Rechenkapazitäten, um große Datenvolumina auszuwerten. „Manchmal kommt es eben doch auf die Größe an – vor allem, wenn es um die Verarbeitung größter Datenmengen geht“, kommentiert der bayerische Staatsminister für Wissenschaft und Kunst, Markus Blume „Der neue Superchip des LRZ ist der bis dato größte weltweit. Mit ihm stärken wir nachhaltig den KI-Standort Bayern.“

Turbo für bayerische KI-Forschung

Das LRZ erweitert kontinuierlich sein Portfolio heterogener Recheninfrastruktur, das neben Haupt- und Grafikprozessoren auch Spezialhardware wie FPGAs oder ASICS umfasst. Mit dem Cerebras-CS-2-System mit HPE Superdome Flex setzt das LRZ auf ein hoch leistungsfähiges System für die Verarbeitung von Big Data in Wissenschaft und Forschung: „Als akademisches Rechen- und nationales Supercomputingzentrum stellen wir Forschenden hochperformante, zuverlässige IT-Dienstleistungen bereit“, sagt Kranzlmüller. „Um eine effiziente Nutzung sicherzustellen und Spitzenforschung auf dem System zu ermöglichen, werden wir gemeinsam mit unseren Nutzer:innen sowie unseren Partnern Cerebras und Hewlett Packard Enterprise Anwendungsszenarien identifizieren und an deren Umsetzung feilen.“ Mit Cerebras CS-2 und Superdome Flex-Servern können insbesondere natürliche Sprache verarbeitet (Natural Language Processing, NLP), außerdem Bilddaten aus der Medizin mit Hilfe von KI analysiert oder Informationen der numerischen Strömungsmechanik (Computational Fluid Dynamics, CFD) etwa für die Luft- und Raumfahrttechnik berechnet und ausgewertet werden.

KI-System mit beschleunigter Rechenleistung

Das neue KI-System am LRZ wurde speziell für die Verarbeitung großer Datenmengen und zur Bewältigung komplexer wissenschaftlicher Fragen entwickelt. Es besteht aus dem HPE Superdome Flex Server und dem Cerebras CS-2-System, das in dieser Kombination in Europa zum ersten Mal verfügbar gemacht wird. Der HPE Superdome Flex Server bietet eine modulare, skalierbare Lösung, für die Rechenanforderungen und verfügt über Funktionen für die Auswertung und Speicherung riesiger Datenmengen. Darüber hinaus sind die spezifischen Vor- und Nachbearbeitungsfunktionen des HPE Superdome Flex Servers für das Training und die Inferenz von KI-Modellen ideal. Es unterstützt so das Cerebras CS-2-System, das die Deep-Learning-Leistung von Hunderten von Grafikprozessoren (GPUs) mit der einfachen Programmierung eines einzelnen Knotens bietet.

Der zurzeit größte Chip mit 850.000 Rechenkernen

Sein Herzstück ist die Wafer Scale Engine der zweiten Generation (WSE-2), ein matt golden schimmernder Prozessor, der so groß ist wie ein Essteller. Er ist reichlich bestückt und bietet neben Rechenkernen gleichmäßig verteilte Speicher, die bis zu 40 Gigabyte Daten fassen, sowie schnelle Verbindungen für deren Transport über die Platte mit 220 Petabyte pro Sekunde. So kann WSE-2 während der Ausführung alle Parameter von vielschichtigen, neuronalen Netzen auf einem Chip halten, was wiederum die Rechenzeit und Datenverarbeitung verkürzt. Bisher kommt das Cerebras CS-2-System in einigen US-amerikanischen Forschungseinrichtungen zum Einsatz. „Wir haben Cerebras gegründet, um die Zukunft des Computing zu revolutionieren“, sagt Andrew Feldman, CEO und Mitbegründer von Cerebras Systems. „Unser System wird es der bayerischen Forschungsgemeinschaft ermöglichen, neue Hypothesen zu testen, große Sprachmodelle zu trainieren und letztlich die wissenschaftliche Forschung voranzutreiben.“

Supportsystem und Software für die Entwicklung von KI-Methoden

Der HPE Superdome Flex Server komplettiert die CS-2 und bietet zusätzlich große Speicherkapazitäten und eine enorme Skalierbarkeit der Rechenleistung. So ermöglicht das integrierte System datenintensive ML-Projekte. Außerdem plant und verwaltet der HPE Superdome Flex Server das System und ermöglicht den Zugriff via Cloud. Darüber hinaus enthält der Server noch einen Softwarestack mit Programmen zur Erstellung von KI-Verfahren und -Modellen. „Zusammen mit dem Leibniz-Rechenzentrum und Cerebras unterstützen wir die nächste Welle wissenschaftlicher und technischer Innovationen in Deutschland“, sagt Justin Hotard, Executive Vice President und General Manager, HPC & AI, HPE. „Mit der zunehmenden Verbreitung von KI und maschinellem Lernen werden hochoptimierte Systeme wissenschaftliche Durchbrüche zum Wohle der Menschheit beschleunigen.“ Zusätzlich zu Anwendungen aus dem KI-Umfeld wird das Cerebras/HPE-System auch das klassische High-Performance Computing (HPC) ergänzen. „Die Zukunft des Computings wird komplexer, die Systeme werden heterogener und auf spezifische Anwendungen abgestimmt. Wir sollten aufhören, in HPC- oder KI-Systemen zu denken“, sagt Laura Schulz, Head of Strategy am LRZ. „Auf CPU-basierten Systemen wie dem SuperMUC-NG funktionieren KI-Verfahren, umgekehrt können High Performance Computing-Algorithmen große Leistungssteigerungen auf Systemen wie Cerebras erzielen.“ Das auszutesten, wird bald eine Aufgabe der Spezialst:innen am LRZ gehören.

5 „Gefällt mir“

Lässt sich denn schon sagen, welche konkreten Projekte damit angegangen werden sollen?

1 „Gefällt mir“

Hallo Michael, danke für das Interesse. Nein, konkrete Forschungsprojekte liegen noch nicht vor, aber viel Interesse und erste Pläne. Erst muss das System geliefert und aufgebaut werden, außerdem sollten sich die Kolleg:innen ein Bild machen dürfen und wir brauchen natürlich auch ein System für die Belegung mit Aufträgen. Aber: Wir bekommen immer mehr Nachfrage nach KI-Ressourcen, beantworten die bereits mit den vorhandenen LRZ AI-Ressourcen. Das Cerebras CS-2-System ist spezialisiert für die Verarbeitung von natürlicher Sprache, darunter fallen vom Übersetzen bis Analysieren von Worten und Texten aus gesprochener und verschriftlichter Sprache so ziemlich alle Aufgaben, außerdem Mustererkennung und einige Anwendungen in der Strömungsmechanik. Nach unseren Erfahrungen werden wir wahrscheinlich viele Anfragen aus der Medizin und Arzneimittelforschung bekommen, Lösungen von Sprachanwendungen sind außerdem für die Chemie interessant, weil Formeln mit vergleichbaren Parametern analysiert und verarbeitet werden können. Nicht zuletzt stellt die Strömungsmechanik nicht nur technische Fragen, sondern auch in der Medizin (digitaler Zwilling, Orthopädie, Körperfunktionen) und für die Umwelt (Klima, Wasserqualität, Erdbeobachtungsdaten). Wir beobachten zudem, dass KI oft mit klassischer Simulation kombiniert wird, um z. B. die Erstellung von Varianten der Szenarien zu beschleunigen, aber auch um die dafür notwendigen Berechnungen detaillierter und schneller auszuführen. Dass KI und Simulation sich wunderbar ergänzen, zeigte sich auch in der Forschung rund um Covid-19 - im Wechsel zwischen Berechnung und KI-Mustererkennung konnten Wirkstoffe für Arzneimittel schneller eruiert und aussortiert werden. Also – wir sind schon gespannt darauf, wie Forschende das Cerebras CS-2-System plus die HPE-Server für sich nutzen werden, erste Interessent:innen haben sich schon mit konkreten Plänen gemeldet …

Und noch ein Nachtrag: Am 1. Juni ab 18:30 findet an der LMU München ein Symposium des Centres for Advanced Studies (CAS) zur KI-Forschung statt: Die neuen KI-Professor:innen in Bayern stellen neueste Projekte vor. Dürfte einen Eindruck vermitteln, wozu in naher Zukunft die LRz-KI-Ressourcen verwendet werden. Anmeldung unter info@CAS.lmu.de

3 „Gefällt mir“