Suchen

GTC 2020: Nvidia will KI-Entwicklung demokratisieren

| Redakteur: Michael Eckstein

Ein sehr günstiges KI-Entwicklungskit soll den Namen Nvidia fest in den Köpfen möglichst vieler Einsteiger etablieren. Am anderen Ende des auf der GTC 2020 vorgestellten Leistungsspektrums stehen Beschleunigerkarten für virtualisierte Rechenzentren.

Firmen zum Thema

KI-Knirps: Nvidia hat seine Jetson-Nano-Plattform nach unten um ein Modell für nur 59 US-$ erweitert.
KI-Knirps: Nvidia hat seine Jetson-Nano-Plattform nach unten um ein Modell für nur 59 US-$ erweitert.
(Bild: Nvidia)

Die per Cloud-Computing ausgelieferte KI-Inferenzrechenleistung hat von 2019 auf 2020 um das Sechsfache zugenommen – mit dieser Aussage untermauert Nvidia CEO Jensen Huang die immense Bedeutung, die die Künstliche Intelligenz mittlerweile erlangt hat. Und stellt auf der „GPU Technology Conference 2020“, kurz GTC, passende Lösungen seines Unternehmens vor, die sowohl auf Anwendungen in Datenzentren, am Edge sowie im Bildungsbereich abzielen.

Huang und sein Team haben ihre Köcher auf der GTC mit vielen Neuheiten gefüllt, vom neuartigen Prozessor für virtualisierte Rechenzentren über Konversations-KI bis zum günstigen KI-Entwicklungskit. Ein zentrales Anliegen für den Nvidia-Chef ist es nach eigenen Angaben, „KI zu demokratisieren“ – sprich: die nötigen Hardware- und Software-Plattformen möglichst vielen Interessierten zugänglich zu machen.

Jeder soll sich mit KI beschäftigen können

Ein wichtiges Mosaiksteinchen in dieser Entwicklung ist das neue KI-Entwicklungskit Jetson Nano. Es soll nur 59 US-$ kosten und ist damit besonders für Endanwender und den Bildungsbereich interessant. Nach Ansicht von Deepu Talla, Vice President und General Manager of Edge Computing von Nvidia, hat die vor gut 18 Monaten eingeführte Jetson-Nano-Plattform bereits massiv zur angestrebten Demokratisierung der KI-Entwicklung beigetragen, da sie die nötigen Tools erschwinglich für ein breites Anwenderspektrum gemacht hat.

Die User-Zahlen hätten sich nahezu exponentiell entwickelt: „Wir haben bei null angefangen und konnten mit den ersten Jetson-Modellen nach fünf Jahren 200.000 Entwickler gewinnen“, blickt Talla zurück. Diese Modelle seien noch auf professionelle Entwickler und Enthusiasten ausgerichtet gewesen. Seit der Einführung von Jetson Nano seien 500.000 Entwickler dazu gekommen.

Nvidia will das Google des KI-Zeitalters werden

Nun sei der Punkt gekommen, „an dem sich jeder Software-Programmierer zum KI-Ingenieur weiterbilden will. Jeder Student im Ingenieurwesen, egal ob Elektrotechnik oder Informatik, will sich mit KI qualifizieren.“ Selbst Schüler würden sich immer mehr für KI interessieren.

Um dieses Momentum zu unterstützen, will Nvidia für Studenten und KI-Einsteiger neben der Jetson-Community mit Projekten, Anleitungen und Videos von Entwicklern ein kostenloses Schulungs- und Zertifizierungsprogramm einrichten. Der Nutzen für Nvidia ist offensichtlich: Wer von Beginn an auf einer Plattform lernt, wird diese mit hoher Wahrscheinlichkeit auch im späteren Berufsleben einsetzen wollen – ein geschickter Schachzug, den zum Beispiel auch Microsoft seit Jahrzehnten für sich zu nutzen weiß.

„Datenzentren sind die neuen Recheneinheiten“

Einen Großteil seines Umsatzes macht Nvidia mittlerweile mit KI- und Beschleunigungslösungen für große Datenzentren. Hier steht die hohe Nachfrage nach Cloud-Computing im Fokus. Entsprechend bestimmen diese Themen auch die GTC 2020. Laut Huang sind „Datenzentren die neuen Recheneinheiten“, die einen Großteil der weltweit benötigten Rechenleistung bereitstellen.

Angebote wie Amazon AWS, Microsoft Azure, Google Cloud oder Alibaba Cloud fußen auf modernen Datenzentren, die zum Großteil oder vollständig virtualisiert sind. Was früher dedizierte Einzelprodukte waren – Security- und Management-Appliances, Load-Balancers, Storage Systems, statische Netzwerkgeräte, wird heute als Service auf einer komplett SW-programmierbaren digitalen Plattform abgebildet. „Diese vollständige Virtualisierung benötigt jedoch viel Rechenleistung – und letztlich neue Prozessortypen“, sagt Huang.

Neue Bluefield-2-Karte entlastet CPUs von Virtualisierungsaufgaben

Daher hat das Unternehmen die neue Datenverarbeitungseinheit (DPU) Bluefield-2 für den Einsatz in Rechenzentren vorgestellt. Diese soll Netzwerk-, Speicher- und Sicherheitsaufgaben übernehmen, Zentralprozessoren so von den Aufgaben des Hypervisors entlasten und dadurch das Gesamtsystem beschleunigen. Interessanterweise kommen hier bereits ARM-Prozessorkerne zum Einsatz – Nvidia hat vor rund einem Monat angekündigt, den ursprünglich britischen Prozessor-IP-Spezialisten übernehmen zu wollen. Ein Zusammenhang bestehe allerdings nicht, schließlich arbeite Mellanox bereits seit Jahren an der Bluefield-DPU, sagt Das.

Die Bluefield-2-DPU hat Nvidia als PCIe-Karte realisiert. Diese kombiniert einen Mellanox ConnectX-6 Dx SmartNIC mit acht 64-Bit-ARM-A72-Kernen und zwei VLIW-Beschleunigungs-Engines auf einem Siliziumchip. Nvidia hatte den israelisch-amerikanischen Schnittstellenspezialisten erst im April 2020 abschließend übernommen, nachdem es sich im März 2019 in einem Bieterstreit mit Intel durchgesetzt hatte. Für 6,9 Mrd. US-$ (6,1 Mrd. Euro) erhielt der GPU-Gigant damals den Zuschlag.

CPUs in Rechenzentren: „Ein Drittel der Ressourcen bislang verschwendet“

Im Pressegespräch im Vorfeld der GTC sagte Manuvir Das, Leiter des Bereichs Enterprise Computing bei Nvidia, dass eine einzige Bluefield-2-DPU die gleichen Microservices für Rechenzentren bereitstellen kann, die bisher bis zu 125 CPU-Kerne beschäftigt hätten. Einen anderen Vergleich führt Huang in seiner Keynote an: Demnach sind die CPUs in einem virtuellen Rechenzentrum zu rund einem Drittel mit den Aufgaben des Hypervisors beschäftigt. Diese Ressourcen könnten DPUs freisetzen, so dass sich die CPU-Kerne beispielsweise für Unternehmensanwendungen verwenden ließen.

Huang erwartet, dass die DPU bisherige Netzwerkschnittstellenkarten (NIC) ersetzen wird – eine Aussage, die die großen FPGA-Hersteller Xilinx und Intel sicher nicht gerne hören, sind diese Geräte doch eines der Haupteinsatzfelder ihrer programmierbaren Hochleistungs-Bausteine. Andererseits verfolgen auch diese Hersteller die zunehmende Virtualisierung und haben eigene Lösungen für moderne Rechenzentren entwickelt: Xilinx etwa seine „Adaptable Computing Acceleration Platform“, kurz ACAP.

X-Variante mit dediziertem KI-Kern

Das angekündigte Modell Bluefield-2X erweitert die Bluefield-2 um eine KI-Beschleuniger-GPU aus Nvidias Ampere-Familie. Laut Das ist dies gut für 60 TOPS an KI-Beschleunigung. Damit ließen sich etwa die Datenströme im Netzwerk „intelligent analysieren“, beispielsweise für die „Intrusion Detection“, also das Erkennen von Versuchen, in das Netzwerk einzudringen. Per KI ließe sich der Unterschied zwischen normalem und anormalem Verhalten erkennen, so dass letzteres proaktiv blockiert werden könne. Derartige Funktionen übernehmen bislang meist dedizierte Hardware-Appliances.

Huang kündigt für die nächsten Jahre einen Ausbau der Bluefield-Familie an. Die für 2023 erwartete Bluefield 4 soll satte 400 TOPS ins Silizium eingebettete GPU-Beschleunigung bereitstellen.

(ID:46905679)