„Weltgrößter“ Chip für die Künstliche Intelligenz von morgen

| Redakteur: Dr. Anna-Lena Gutberlet

Im Vergleich: Der Wafer Scale Engine ist 56 Mal größer als der größte bisher hergestellte GPU.
Im Vergleich: Der Wafer Scale Engine ist 56 Mal größer als der größte bisher hergestellte GPU. (Bild: Cerebras)

Das Startup Cerebras hat einen riesigen Computerchip präsentiert. Er soll Anwendungen der Künstlichen Intelligenz beschleunigen – und stellt traditionelles Denken auf den Kopf.

400.000 programmierbare Rechenkerne auf nur einem Chip: Das ist der Wafer Scale Engine (WSE) mit dem sich Cerebras, ein Startup aus Californien, beim Wettrennen um KI-Chips einen Vorsprung sichern will. Nach etwa vier Jahren Entwicklungszeit wurde der Chip kürzlich vorgestellt. Er soll eingesetzt werden, um komplexe KI-Systeme zu steuern – von Überwachungssoftware bis hin zu fahrerlosen Autos.

Ganze Siliziumscheibe ein einziger Prozessor

Für KI-Anwendungen werden schnelle Berechnungen benötigt. Um die Effizienz der Berechnung zu erhöhen werden entweder eine höhere Anzahl von Kernen verwendet, der Speicher in die Nähe der Kerne verlagert oder die Latenz zwischen den Kernen durch höhere Bandbreite reduziert.

Cerebras kombiniert diese drei Ansätze auf einem Chip. Dazu werden kleine Chips als Arrays identischer Chips auf einem 12-Zoll-Siliziumwafer aufgebracht – über 1,2 Billionen Transistoren finden auf ihm Platz. Jeder der 400.000 Kerne erhält dabei einen eigenen lokalen Speicher. Zudem wird eine Kommunikationsstruktur über alle Kerne hinweg aufgebaut. Da die Kommunikation auf dem Chip stattfindet, soll sie um ein Vielfaches schneller sein, als die Kommunikation zwischen verschiedenen Chips. So will Cerebras mit dem WSE einen Chip-Cluster erreichen, ohne die Nachteile, die eigentlich mit der Bildung großer Cluster verbunden sind.

Da der Yield nie bei 100% liegt und Wafer somit immer Defekte aufweisen, hat Cerebras Redundanzen eingebaut: Sind Kerne unbrauchbar, können diese durch zusätzlich vorhandene Kerne ersetzt werden.

Zudem sind die programmierbaren Kerne für KI-Anwendungen spezialisiert: Sie sind klein, schnell und es wurden Funktionen weggelassen, die im Deep-Learning-Prozess keine wesentliche Rolle spielen. Das ambitionierte Ziel ist es, mit dem Wafer Scale Engine die Zeit, die für die Verarbeitung einiger komplexer Daten benötigt wird, von Monaten auf Minuten zu reduzieren und somit neue KI-Anwendungen zu ermöglichen.

Der 46.225 mm2 großen Chip besitzt 18 GByte SRAM-Speicher – im Vergleich zu einem einzelnen Grafikprozessor ist das viel, allerdings klein im Vergleich zu den Systemen, mit denen Cerebras konkurrieren will. Die akkumulierte Speicherbandbreite beträgt 9 PByte/s. Der Chip ist ein vollwertiger Prozessor, der ohne Host-CPU auskommt.

Ist größer auch besser?

Ob der Chip jedoch wirklich seinen Weg in die Anwendung findet, wird sich zeigen. Dadurch, dass die Chips so groß sind, wird eine spezielle Infrastruktur benötigt, um sie zu kühlen und mit Strom zu versorgen. Offizielle Angaben zum Stromverbrauch gibt es noch keine, dieser soll aber bei 15 kW liegen. Das schränkt die Möglichkeiten einer praktischen Nutzung ein. Deswegen plant Cerebras den Chip inklusive einer speziellen Infrastruktur zum Kühlen und zur Stromversorgung zu verkaufen.

Bisher sollen mehr als 100 Wafer produziert worden sein, die alle „auf einem akzeptablen Niveau“ laufen. Zum Preis der Chips hat Cerebras noch keine Äußerungen gemacht. Dieser hängt auch davon ab, wie effizient Cerebras und sein Produktionspartner TSMC den Chip am Ende bauen können– Experten schätzen die reinen Herstellungskosten alleine schon auf 15.000 Dollar.

Im Rennen um die KI-Chips ist Cerebras mit 30 angemeldeten Patenten (etwa ein halbes Dutzend davon erteilt) und mehr als 200 Millionen Dollar Risikokapital von erfahrenen Investoren gut aufgestellt, um als erste die Integration in den Wafer-Maßstab zu kommerzialisieren.

Welche Hardware eignet sich besser zur KI-Beschleunigung?

Welche Hardware eignet sich besser zur KI-Beschleunigung?

04.06.18 - Moderne Hardwarebeschleuniger haben den praktikablen Einsatz von Künstlicher Intelligenz in IT und Industrie in greifbare Nähe gerückt. Doch welche Technologie eignet sich hierfür besser: GPUs, DSPs, programmierbare FPGAs oder eigene, dedizierte Prozessoren? ELEKTRONIKPRAXIS hat Hardwarehersteller und Embedded-Experten zu diesem Thema befragt. lesen

Kommentar zu diesem Artikel abgeben
Da der Yield nie bei 100% liegt Wie wahr, wie wahr! Denen wird es gehen wie AMD: Über 5% werden...  lesen
posted am 24.08.2019 um 00:37 von Unregistriert

Die Größe entscheidet über die Ausbeute.  lesen
posted am 22.08.2019 um 21:02 von Unregistriert

Die Größe ist entscheidend, das gilt auch hier wieder einmal nicht!  lesen
posted am 22.08.2019 um 15:49 von Unregistriert

Ja klasse Idee!!! Aber macht nen Umschlag auf ... Dat Ding is in 1 Jahr = Geschichte ;-) So ein...  lesen
posted am 22.08.2019 um 11:51 von Unregistriert


Mitdiskutieren
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 46091704 / KI/Machine Learning)