Suchen

KI inside: Von der CPU bis zum spezialisierten ASIC

| Autor: Klaus Länger

Für Intel ist Künstliche Intelligenz das nächste „große Ding“. Daher packt die Firma KI-Funktionen in Standard-Prozessoren, bringt Datacenter-GPUs und erweitert die Palette an speziellen ASICs. Dabei soll der Zukauf des Chip-Herstellers Habana Labs neuen Schub bringen.

Firmen zum Thema

Intel sieht einen riesigen Markt für KI-Anwendungen. Daher stellt die Firma eine ganze Reihe von Prozessoren mit KI-Funktionen für verschiedene Einsatzbereiche her oder übernimmt Hersteller von KI-Chips.
Intel sieht einen riesigen Markt für KI-Anwendungen. Daher stellt die Firma eine ganze Reihe von Prozessoren mit KI-Funktionen für verschiedene Einsatzbereiche her oder übernimmt Hersteller von KI-Chips.
(Bild: envfx - stock.adobe.com )

Künstliche Intelligenz wird in allen Bereichen des Lebens Einzug halten: Davon ist Intel überzeugt. Daher hat der Chiphersteller auch ein breites Portfolio an AI-Produkten aufgebaut oder deren Hersteller übernommen, um so möglichst alle Ansprüche und Einsatzszenarien abzudecken. Die Liste ­beginnt bei Deep Learning Boost als Erweiterung des AVX-512-Befehlssatzes in Xeon-Scalable-Prozessoren der zweiten Generation und sogar in Core-Prozessoren der Ice-Lake-Familie für eine höhere Interferenzleistung. Dabei geht es vor allem darum, ohne Mehrkosten für zusätzliche Hardware, Anwendungen für Künstliche Intelligenz zu beschleunigen.

Ist eine höhere KI-Leistung gefragt, hat Intel Add-In-Karten mit Arria-FPGAs parat, die zudem für andere Formen der Datenanalyse genutzt werden können. In dieselbe Kategorie fällt die in diesem Jahr kommende Xe-GPU. Mit ihr wird es nicht nur herkömmliche Grafikkarten geben, sondern auch GPGPU-Varianten für HPC- und KI-Aufgaben. Das Spitzenmodell „Ponte Vecchio“ mit einer GPU aus 16 Chiplets wird allerdings nicht vor 2021 ­verfügbar sein. Mit der GPU tritt Intel vor allem in Konkurrenz zu Nvidia mit den ­Tesla-Karten mit Volta-Chip und dessen kommenden Nachfolger Ampere.

Bildergalerie

Bildergalerie mit 5 Bildern

KI-Prozessoren von Habana Labs als Ablösung für Nervana

Speziell für KI-Aufgaben bei Cloud- und ­Data-Center-Kunden hat Intel Ende 2019 die Neural-Network-Prozessoren Nervana NNP-T1000 und NNP-I1000 vorgestellt. Der erste dieser ASICs wurde für das Deep Learning Training entwickelt. Er besteht aus 24 Tensor-Prozessoren mit 60 MB On-Chip-Memory und vier HBM2-Stacks mit jeweils acht GB Kapazität. Seine Entwicklung wird allerdings zugunsten des Gaudi-Chips von dem kürzlich für zwei Milliarden US-Dollar übernommenen israelischen KI-Startup Habana Labs eingestellt. Die Ursprünge der Nervana-Chips stammen von der gleichnamigen Firma, die sich Intel 2016 einverleibt hat. Gaudi soll das Training neuronaler Netzwerke wesentlich preisgünstiger erledigen als der riesige NNP-T1000 mit bis zu 250 Watt Leistungsaufnahme. Der aus acht Tensor-Cores aufgebaute und ebenfalls mit vier HBM2-Stacks bestückte Gaudi kommt dagegen mit 140 Watt aus. Vor allem verfügt der Gaudi-Chip über ein integriertes on-Chip-RoCE-Netzwerk mit zehn 100-GbE-Ports. Für den Nervana-Chip muss Intel diese teuer einkaufen.

Der zweite Nervana-Chip, NNP-I1000 „Spring Hill“, soll dagegen wie geplant an die Kunden ­gehen. Der sparsame 10-nm-Chip besteht aus zwei Sunny-Cove-Cores, die auch die Basis für Ice-Lake-Prozessoren bilden, und zwölf Inference Computing Engines (ICEs). Er sitzt entweder auf einem M.2-Modul oder einer PCIe-Karte und ­beschleunigt die Datenanalyse mit trainierten Modellen. Der NNP-I1000 wird allerdings der letzte Nervana-Chip bleiben. Die weitere Entwicklung von KI-Prozessoren dieser Klasse wird bei Habana Labs liegen. Für Inferencing haben die Israelis den mit Gaudi verwandten Goya-Chip entwickelt, der allerdings nicht auf kompakte M.2-Karten passt. Für den Einsatz in Edge- oder IoT-Umgebungen sind die sehr sparsamen Movidius-ASICs bestimmt. Hier hat Intel mit „Keem Bay“ die dritte Generation der VPU (Visual Processing Unit) vorgestellt,der eine ähnliche Leistung liefern soll, wie Nvidias Xaviar, aber deutlich weniger Energie benötigt.

Breites Software-Ökosystem optimiert für Intel

Für Stephan Gillich, Director AI and Technical Computing bei Intel, liegt die Stärke von Intel im KI-Sektor nicht nur im breiten Hardware-Portfolio, sondern vor allem im Software-Ökosystem und der engen Zusammenarbeit mit der Community in ­Firmen, Systemhäusern, Forschungseinrichtungen und Universitäten, die durch Entwickler Workshops und ein AI-Builder-Programm unterstützt werden. Software­ingenieure des Chipherstellers sind bei der Entwicklung praktisch aller wichtigen Open-Souce-Frameworks für Deep Learning beteiligt und sorgen natürlich dafür, dass sie für die eigenen Prozessoren optimiert sind.

Zusätzlich stellt Intel als Open Source auch eigene Bibliotheken und Toolkits bereit. ­Eine zentrale Rolle nimmt für den KI-Spezialisten das OpenVINO-Toolkit ein, das die Optimierung vortrainierter Modelle und deren einfaches Ausrollen auf einer breiten Palette von Intel-Plattformen von der CPU bis zum ASIC ermöglicht.

Eine weiteres wichtiges Element ist die OneAPI-Initiative, mit der Intel die Software-Schnittstellen für alle Chips durch ein einziges Toolkit aus Compilern, Bibliotheken und weiterer Software vereinheitlichen will. Es bildet die Basis für weitere Toolkits, etwa für KI, HPC, IoT oder Rendering.

Dieser Beitrag stammt von unserem Partnerportal IT-Business.de.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 46363647)