„Weltgrößter“ Chip für die Künstliche Intelligenz von morgen

Redakteur: Dr. Anna-Lena Gutberlet

Das Startup Cerebras hat einen riesigen Computerchip präsentiert. Er soll Anwendungen der Künstlichen Intelligenz beschleunigen – und stellt traditionelles Denken auf den Kopf.

Im Vergleich: Der Wafer Scale Engine ist 56 Mal größer als der größte bisher hergestellte GPU.
Im Vergleich: Der Wafer Scale Engine ist 56 Mal größer als der größte bisher hergestellte GPU.
(Bild: Cerebras)

400.000 programmierbare Rechenkerne auf nur einem Chip: Das ist der Wafer Scale Engine (WSE) mit dem sich Cerebras, ein Startup aus Californien, beim Wettrennen um KI-Chips einen Vorsprung sichern will. Nach etwa vier Jahren Entwicklungszeit wurde der Chip kürzlich vorgestellt. Er soll eingesetzt werden, um komplexe KI-Systeme zu steuern – von Überwachungssoftware bis hin zu fahrerlosen Autos.

Ganze Siliziumscheibe ein einziger Prozessor

Für KI-Anwendungen werden schnelle Berechnungen benötigt. Um die Effizienz der Berechnung zu erhöhen werden entweder eine höhere Anzahl von Kernen verwendet, der Speicher in die Nähe der Kerne verlagert oder die Latenz zwischen den Kernen durch höhere Bandbreite reduziert.

Cerebras kombiniert diese drei Ansätze auf einem Chip. Dazu werden kleine Chips als Arrays identischer Chips auf einem 12-Zoll-Siliziumwafer aufgebracht – über 1,2 Billionen Transistoren finden auf ihm Platz. Jeder der 400.000 Kerne erhält dabei einen eigenen lokalen Speicher. Zudem wird eine Kommunikationsstruktur über alle Kerne hinweg aufgebaut. Da die Kommunikation auf dem Chip stattfindet, soll sie um ein Vielfaches schneller sein, als die Kommunikation zwischen verschiedenen Chips. So will Cerebras mit dem WSE einen Chip-Cluster erreichen, ohne die Nachteile, die eigentlich mit der Bildung großer Cluster verbunden sind.

Da der Yield nie bei 100% liegt und Wafer somit immer Defekte aufweisen, hat Cerebras Redundanzen eingebaut: Sind Kerne unbrauchbar, können diese durch zusätzlich vorhandene Kerne ersetzt werden.

Zudem sind die programmierbaren Kerne für KI-Anwendungen spezialisiert: Sie sind klein, schnell und es wurden Funktionen weggelassen, die im Deep-Learning-Prozess keine wesentliche Rolle spielen. Das ambitionierte Ziel ist es, mit dem Wafer Scale Engine die Zeit, die für die Verarbeitung einiger komplexer Daten benötigt wird, von Monaten auf Minuten zu reduzieren und somit neue KI-Anwendungen zu ermöglichen.

Der 46.225 mm2 großen Chip besitzt 18 GByte SRAM-Speicher – im Vergleich zu einem einzelnen Grafikprozessor ist das viel, allerdings klein im Vergleich zu den Systemen, mit denen Cerebras konkurrieren will. Die akkumulierte Speicherbandbreite beträgt 9 PByte/s. Der Chip ist ein vollwertiger Prozessor, der ohne Host-CPU auskommt.

Ist größer auch besser?

Ob der Chip jedoch wirklich seinen Weg in die Anwendung findet, wird sich zeigen. Dadurch, dass die Chips so groß sind, wird eine spezielle Infrastruktur benötigt, um sie zu kühlen und mit Strom zu versorgen. Offizielle Angaben zum Stromverbrauch gibt es noch keine, dieser soll aber bei 15 kW liegen. Das schränkt die Möglichkeiten einer praktischen Nutzung ein. Deswegen plant Cerebras den Chip inklusive einer speziellen Infrastruktur zum Kühlen und zur Stromversorgung zu verkaufen.

Bisher sollen mehr als 100 Wafer produziert worden sein, die alle „auf einem akzeptablen Niveau“ laufen. Zum Preis der Chips hat Cerebras noch keine Äußerungen gemacht. Dieser hängt auch davon ab, wie effizient Cerebras und sein Produktionspartner TSMC den Chip am Ende bauen können– Experten schätzen die reinen Herstellungskosten alleine schon auf 15.000 Dollar.

Im Rennen um die KI-Chips ist Cerebras mit 30 angemeldeten Patenten (etwa ein halbes Dutzend davon erteilt) und mehr als 200 Millionen Dollar Risikokapital von erfahrenen Investoren gut aufgestellt, um als erste die Integration in den Wafer-Maßstab zu kommerzialisieren.

(ID:46091704)