KI-Forschung auf Speed „Pizza-Prozessor“: Leibniz-Rechenzentrum bekommt KI-Superchip

Von Michael Eckstein

Anbieter zum Thema

Als erstes wissenschaftliches Rechenzentrum in Europa setzt das LRZ die Wafer Scale Engine 2 ein – einen pizzagroßen KI-Superprozessor samt dedizierter Peripherie. Zusammen mit HPE Superdome Flex Servern soll eine wegweisende Computerarchitektur für die Verarbeitung größter Datenmengen mit KI- und Machine Learning-Methoden entstehen.

Es ist angerichtet: Die Wafer Scale Engine 2 ist groß wie ein Pizzateller – und um Größenordnungen teurer.
Es ist angerichtet: Die Wafer Scale Engine 2 ist groß wie ein Pizzateller – und um Größenordnungen teurer.
(Bild: ELIZAVETA ELESINA )

Der weltweit größte Chip mit der höchsten Rechenleistung für Künstliche Intelligenz (KI) steht künftig der bayerischen Spitzenforschung zur Verfügung: Das Leibniz-Rechenzentrum (LRZ) der Bayerischen Akademie der Wissenschaften in Garching hat am Mittwoch mitgeteilt, als erstes wissenschaftliches Rechenzentrum in Europa die Wafer Scale Engine 2 des US-amerikanischen Chipentwicklers Cerebras Systems einzusetzen. Der matt golden schimmernder Riesenprozessor belegt die komplette Fläche eines 300-mm-Wafers, auf dem er in einem Stück prozessiert wird. Er besteht aus rund 2,6 Billionen Transistoren, die zu 850.000 speziell für KI-Berechnungen entwickelten Rechenkernen, lokalem Speicher und anderen Schaltungsteilen zusammengeschaltet sind (Hier Details und Hintergründe zum weltgrößten Prozessor ).

Neben dem Cerebras CS-2-System erweitert das LRZ seine Hochleistungsinfrastruktur zudem um HPE Superdome Flex Server. Es will damit allen voran der bayerischen Spitzenforschung im Bereich KI ausreichend Rechenkapazitäten bereitstellen, um riesige Datenmengen mit Methoden der Künstlichen Intelligenz (KI) und des Maschinellen Lernens (ML) auszuwerten.

Bildergalerie
Bildergalerie mit 5 Bildern

„Manchmal kommt es eben doch auf die Größe an – vor allem, wenn es um die Verarbeitung größter Datenmengen geht“, sagt Markus Blume, der Bayerische Staatsminister für Wissenschaft und Kunst. Methoden von KI und das maschinelle Lernen brauchen viel Rechenkraft. Der neue Superchip am LRZ werde der bayerischen Spitzenforschung neue Wege öffnen, ist Blume überzeugt: „Mit ihm stärken wir nachhaltig den KI-Standort Bayern.“ Finanziert wird der Chip über Mittel aus der Hightech Agenda Bayern, der milliardenschweren Technologieoffensive des Freistaats.

Rechen-Turbo für bayerische KI-Spitzenforschung

Das LRZ erweitert kontinuierlich sein Portfolio heterogener Recheninfrastruktur, das neben Haupt- und Grafikprozessoren auch Spezialhardware wie FPGAs oder ASICS umfasst. Mit dem Cerebras-CS-2-System mit HPE Superdome Flex setzt das LRZ auf ein hoch leistungsfähiges System für die Verarbeitung von Big Data in Wissenschaft und Forschung: „Aktuell beobachten wir, dass sich der KI-Rechenbedarf unserer Nutzerinnen und Nutzer alle drei bis vier Monate verdoppelt. Mit der hohen Integration von Prozessoren, Speichern und On-Board-Netzwerken auf einem einzigen Chip ermöglicht das neue System Hochleistung und Tempo. Das verspricht deutlich mehr Effizienz bei der Datenverarbeitung und somit schneller bahnbrechende wissenschaftliche Erkenntnisse“, beschreibt Prof. Dr. Dieter Kranzlmüller, Leiter des LRZ, die Vorteile.

Als akademisches Rechen- und nationales Supercomputing-Zentrum stelle das LRZ Forschenden hochperformante, zuverlässige IT-Dienstleistungen bereit. Um eine effiziente Nutzung sicherzustellen und Spitzenforschung auf dem System zu ermöglichen, „werden wir gemeinsam mit unseren Nutzerinnen und Nutzern sowie unseren Partnern Cerebras und Hewlett Packard Enterprise ideale Anwendungsszenarien identifizieren und an deren Umsetzung feilen.“

Zu den möglichen Use Cases zählen die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP), die medizinische Bildverarbeitung mit innovativen KI-Algorithmen zur Analyse medizinischer Bilder sowie die numerische Strömungsmechanik (Computational Fluid Dynamics, CFD) zur Verbesserung des Verständnisses in Bereichen wie Luft- und Raumfahrttechnik sowie Fertigung.

Skalierbare KI-Rechenleistung von hunderten Grafikprozessoren auf einem Chip

Das neue KI-System am LRZ wurde speziell für die Verarbeitung großer Datenmengen und zur Bewältigung komplexer wissenschaftlicher Fragestellungen entwickelt. Es besteht aus dem HPE Superdome Flex Server und dem Cerebras CS-2-System, das in dieser Kombination in Europa zum ersten Mal verfügbar sein wird.

Der HPE Superdome Flex Server ist eine modulare, skalierbare Lösung, die unterschiedliche Rechenanforderungen erfüllen kann. Das System verfügt über spezielle Funktionen für umfangreiche In-Memory-Verarbeitungen, die für die Auswertung riesiger Datenmengen erforderlich sind. Darüber hinaus sind die spezifischen Vor- und Nachbearbeitungsfunktionen des HPE Superdome Flex Servers für das Training und die Inferenz von KI-Modellen laut LRZ ideal. Es unterstützt so das Cerebras CS-2-System, das die Deep-Learning-Leistung von Hunderten von Grafikprozessoren (GPUs) mit der einfachen Programmierung eines einzelnen Knotens bereitstellt.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

FPGA-Conference Europe

Einsatzgebiete für programmierbare Logikschaltung sind so vielfältig wie die verfügbaren Lösungen, mit denen sie sich entwickeln lassen. Ob FPGA, GPU oder Adaptive-Computing-SoC: Jede Technologie hat ihre Berechtigung – ist aber auch erklärungsbedürftig.

Die FPGA Conference Europe - als europaweit wichtigste Plattform für hersteller- und technologieunabhängigen und applikationsübergreifenden Austausch zwischen Experten und Entwicklern - gibt Embedded-Entwicklern Orientierung und praktische Hilfestellungen.

Jetzt informieren

Weltweit größter Chip mit 850.000 Rechenkernen und 40 GByte lokalem Speicher

Herzstück des Cerebras-Systems ist die Wafer Scale Engine der zweiten Generation (WSE-2), ein matt golden schimmernder Prozessor, der so groß ist wie eine Pizza. Auf den etwa 46.000 Quadratmillimetern Silizium sammeln sich 2,6 Billionen Transistoren und 850.000 Rechenkerne, die speziell für Verfahren von KI entwickelt wurden, außerdem gleichmäßig verteilte Speicher, die bis zu 40 GByte Daten fassen, sowie schnelle Datenverbindungen mit einer Bandbreite von 220 Petabyte pro Sekunde.

So kann WSE-2 während der Ausführung alle Parameter von vielschichtigen neuronalen Netzen auf einem Chip halten, was wiederum die Rechenzeit und Datenverarbeitung verkürzt. Bisher kommt das Cerebras CS-2-System in einigen US-amerikanischen Forschungseinrichtungen zum Einsatz. „Wir haben Cerebras gegründet, um die Zukunft des Computing zu revolutionieren“, sagt Andrew Feldman, CEO und Mitbegründer von Cerebras Systems. „Wir sind stolz darauf, mit dem LRZ und HPE zusammenzuarbeiten. Diese wird es ihnen ermöglichen, neue Hypothesen zu testen, große Sprachmodelle zu trainieren und letztlich die wissenschaftliche Forschung voranzutreiben.“

Supportsystem und Software für die Entwicklung von KI-Methoden

Der HPE Superdome Flex Server komplettiert die CS-2 und bietet zusätzlich große Speicherkapazitäten und eine enorme Skalierbarkeit der Rechenleistung. So ist das integrierte System ideal abgestimmt auf die riesigen, datenintensiven ML-Projekte, die zu den klassischen Anwendungsfällen des Cerebras Systems zählen. Außerdem plant und verwaltet der HPE Superdome Flex Server das System entsprechend den Anforderungen verschiedener Anwendungen und ermöglicht den Zugriff via Cloud. Darüber hinaus enthält der HPE Superdome Flex Server einen Softwarestack mit Programmen zum Erstellen von KI-Verfahren und -Modellen.

„Zusammen mit dem Leibniz-Rechenzentrum und Cerebras unterstützen wir die nächste Welle wissenschaftlicher und technischer Innovationen in Deutschland“, sagt Justin Hotard, Executive Vice President und General Manager, HPC & AI, HPE. Mit der zunehmenden Verbreitung von KI und maschinellem Lernen würden hochoptimierte Systeme wie dasjenige des LRZ wissenschaftliche Durchbrüche zum Wohle der Menschheit beschleunigen.

Zusätzlich zu Anwendungsfällen aus dem KI-Umfeld soll das Cerebras/HPE-System auch für traditionellere Anwendungsbereiche des High-Performance Computing (HPC) genutzt werden – sofern die spezielle Rechenarchitektur den Eigenschaften der jeweiligen Applikation entgegenkommt. „Die Zukunft des Computings wird komplexer, die Systeme werden heterogener und immer stärker auf spezifische Anwendungen abgestimmt. Wir sollten aufhören, in HPC- oder KI-Systemen zu denken“, sagt Laura Schulz, Head of Strategy am LRZ. Auf CPU-basierten Systemen wie dem SuperMUC-NG würden KI-Verfahren funktionieren, und umgekehrt könnten High Performance Computing-Algorithmen große Leistungssteigerungen auf Systemen wie Cerebras erzielen. „Wir arbeiten kontinuierlich daran, dass sich unsere Nutzerinnen und Nutzer auf ihre Forschung konzentrieren können – ganz egal, ob die zugrundeliegende Infrastruktur auf HPC-, KI- oder Quantentechnologie basiert.“

(ID:48388214)