„Um KI-Herausforderungen zu meistern reicht das Hinzufügen eines Bausteins nicht aus“

| Redakteur: Sebastian Gerstl

Xavier DRIVE SoC-Plattform für Autonomes Fahren: GPU-Hersteller NVIDIA hat sich in den letzten Jahren als starker Anbieter von Hardware präsentiert, die sich gezielt an die Anwendung Künstlicher Intelligenz richtet.
Xavier DRIVE SoC-Plattform für Autonomes Fahren: GPU-Hersteller NVIDIA hat sich in den letzten Jahren als starker Anbieter von Hardware präsentiert, die sich gezielt an die Anwendung Künstlicher Intelligenz richtet. (Bild: NVIDIA)

Lange war NVIDIA „nur“ in Hersteller von Grafikkarten, nun ist das Unternehmen einer der zehn weltgrößten Halbleiterhersteller. Grund ist unter anderem die hohe Nachfrage nach GPUs für Training und Anwendung künstlicher Intelligenz. Worauf kommt es hier an, und wo liegt die Zukunft für KI-Anwendungen? Ein Interview mit Axel Köhler, NVIDIA Deep Learning Solution Architect.

AlexNet galt 2012 als ein Durchbruch in Sachen KI-Training: Programmiert mit Hilfe der CUDA-API und basierend auf GPUs, stellte das Convolutional Neural Network (CNNs) nach entsprechender Trainingsphase bei der in jenem Jahr aufgestellten ImageNet Large Scale Visual Recognition Challenge hinsichtlich exakter Erkennung und Kassifizierung von Objekten auf Bildern die Konkurrenz buchstäblich in den Schatten. Wenn es heute so etwas wie eine Industriereferenz für CNNs gibt, dann ist dies wohl AlexNet.

Sowohl Programmierplattform als auch Hardwaregrundlage für das Neurale Netzwerk stammen von NVIDIA. Und auch in den folgenden Jahren haben sich die Hardwareeigenschaften von NVIDIA-GPUs für weit mehr ausgezeichnet als nur für die massiv parallele Berechnung hochauflösender Grafiken: Wie AlexNet und weitere Hochschulstudien zu KI gezeigt haben, zeichnet sich die Architektur der "Graphics Processing Unit" genannten Bausteine durch ihre hohe Parallelität auch besonders gut für das Training von Neuronalen Netzwerken und die massive Datenberechnung beim Maschinellen Lernen aus.

So ist es auch wenig verwunderlich, dass sich NVIDIA als starker Partner für KI-Implementierung präsentiert; nicht nur an Hochschulen, sondern auch für den Einsatz künstlicher Intelligenz im Industrie- oder Automotive-Bereich. Welche Rolle wird KI in der nahen Zukunft spielen, und auf welche Hardwareanforderungen kommt es besonders an? Wir haben uns mit Axel Köhler, NVIDIA Deep Learning Solution Architect, zu diesen Themen unterhalten.

ELEKTRONIKPRAXIS: In welchen Bereichen, und in welcher Art, werden Deep Learning und KI im Allgemeinen in der nahen Zukunft besonders wichtig werden und Anwendung finden?

Axel Köhler, NVIDIA Deep Learning Solution Architect: KI wird keine eigene Branche sein - sie wird Teil jeder Branche sein. Von intelligenten Assistenten über Smart Homes bis hin zu selbstfahrenden Autos - es ist klar, dass dieses neue Computing-Modell die Computertechnologie der Verbraucher ebenso wie die des Unternehmens neu erfinden wird.

In den letzten Jahren hat sich die KI rasant von einem Science-Fiction-Element zu einem unverzichtbaren Business-Tool gewandelt. Gartner prognostiziert: "Bis 2020 werden natürliche Sprachgenerierung und künstliche Intelligenz ein Standardmerkmal von 90% der modernen Business Intelligence Plattformen sein."

Während viele Pionierarbeit bei der Etablierung der KI-Industrie weiterhin von Early Adoptern wie Start-ups und Forschungsgruppen geleistet wird, gehen wir nun in die erste Phase der KI-Reifung, da große Unternehmen beginnen, diese Technologie in großem Maßstab einzusetzen. Bis heute haben wir gesehen, dass KI-Innovationen in den Bereichen Gesundheitswesen, Transport, Finanzen, intelligente Städte und Robotik, um nur einige zu nennen, Früchte tragen.

Im Gesundheitswesen beispielsweise macht das französische Startup-Therapixel Fortschritte bei der Reduzierung der Zahl der Fehlalarme, indem es die Genauigkeit der Erstdiagnosen mit Hilfe der KI verbessert. In Österreich nutzt ImageBiopsy Lab das tiefe Lernen, um Arthrose der Knie wesentlich effizienter und kostengünstiger zu diagnostizieren. Und die in Polen ansässige Future Processing arbeitet daran, den Einsatz von PET- und CT-Scans zu vereinfachen, um die Diagnose von Lungenkrebs erschwinglicher, zugänglicher und genauer zu machen.

Das im vergangenen März gestartete NVIDIA-eigene Projekt Clara zielt ebenfalls darauf ab, die Fähigkeiten der weltweit bereits installierten 3 Millionen medizinischen Bildgebungsinstrumente mit KI aufzuwerten.

Wo setzen hier NVIDIAs Lösungen an, in welcher Weise liefern bzw. unterstützen GPUs die Hardware-Beschleunigung? In welchen Bereichen lässt sich hiermit der größte Nutzen erzielen?

Die Rolle von NVIDIA im Bereich der KI ist vielfältig und durchgängig, end-to-end. Nicht nur unsere Hardware-Kerntechnologie, die Grafikprozessoreinheit (GPU), beschleunigt Deep Learning; wir haben auch erhebliche Investitionen in entsprechende Software-Tools getätigt.

KI-Forscher haben schon vor einigen Jahren festgestellt, dass eine GPU, die ursprünglich zur Beschleunigung von 3D-Grafiken entwickelt wurde, auch eine Form von KI, das so genannte Deep Learning, extrem effektiv beschleunigt. Deep Learning ist eine KI-Technik, die maschinelles Lernen durch Training neuronaler Netze mit großen Datenmengen zur Problemlösung ermöglicht. Wie die 3D-Grafik ist auch Deep Learning ein paralleles Rechenproblem: es müssen große Datenmengen gleichzeitig verarbeitet werden. Die Vielkern-Architektur des Grafikprozessors eignet diesen ideal für diese Art von Aufgaben.

Unser Hardware- und Software-Stack umfasst das gesamte KI-Ökosystem, sowohl in der Trainigns- als auch in der Inferenzierungsphase. Von der Cloud über das lokale KI-Rechenzentrum bis hin zu intelligenten IoT-Geräten und einzelnen Workstations ist es das Ziel von NVIDIA, die KI zu demokratisieren, indem die wesentlichen Tools mit den Fähigkeiten, Formfaktoren und Skalierbarkeiten, die Entwickler, Wissenschaftler und IT-Manager benötigen, breit verfügbar gemacht werden.

Welche speziellen Vorteile bietet eine GPU gegenüber anderen Ansätzen wie FPGAs, DSPs oder ASICs, wenn es um die KI-Implementierung geht?

Um die Herausforderung zu meistern, Deep Learning auf breiter Ebene umzusetzen, muss die Technologie insgesamt sieben Herausforderungen bewältigen: Programmierbarkeit, Latenz, Genauigkeit, Größe, (Daten-)Durchsatz, Energieeffizienz und Lernrate.

Um diese Herausforderungen zu meistern, ist mehr als nur das Hinzufügen eines ASICs oder eines FPGAs zu einem Rechenzentrum erforderlich. Hyperscale-Rechenzentren sind die kompliziertesten Computer, die je gebaut wurden.

In weniger als einem Jahrzehnt ist die Rechenleistung von GPUs um das 20-fache gestiegen - das entspricht einem Wachstum von 1,7x pro Jahr, das weit über dem Moore'schen Gesetz liegt. In nur fünf Jahren ist die Zahl der GPU-Entwickler um das 10-fache auf 820.000 gestiegen. Die Downloads von CUDA, unserer Parallel-Computing-Plattform, sind um das 5-fache auf 8 Millionen gestiegen. Das zeigt, dass die GPU eine extrem zugängliche und programmierbare Plattform für KI-Anwendungen ist.

In Verbindung damit sind GPUs für eine Vielzahl von Frameworks und Anwendungen optimiert. Und wir investieren weiter, um unsere Plattform noch vielfältiger, zugänglicher und programmierbarer zu machen. Im März 2018 haben wir eine neue Version unserer TensorRT Inferenzsoftware TensorRT 4 angekündigt, mit der wir geschulte neuronale Netzwerke in Hyperscale-Rechenzentren einsetzen und so die Kosten im Rechenzentrum um bis zu 70 Prozent senken können.

Welche Hardware eignet sich besser zur KI-Beschleunigung?

Welche Hardware eignet sich besser zur KI-Beschleunigung?

04.06.18 - Moderne Hardwarebeschleuniger haben den praktikablen Einsatz von Künstlicher Intelligenz in IT und Industrie in greifbare Nähe gerückt. Doch welche Technologie eignet sich hierfür besser: GPUs, DSPs, programmierbare FPGAs oder eigene, dedizierte Prozessoren? ELEKTRONIKPRAXIS hat Hardwarehersteller und Embedded-Experten zu diesem Thema befragt. lesen

NVIDIA steigt zum zehntgrößten Halbleiterhersteller auf

NVIDIA steigt zum zehntgrößten Halbleiterhersteller auf

14.04.18 - Mit seinen Jahresumsätzen aus dem Jahr 2017 ist NVIDIA erstmals in die Top 10 der weltweit umsatzstärksten Halbleiterhersteller aufgestiegen. Den Spitzenplatz belegt weiterhin Samsung vor Intel. lesen

Ein SDK zur Entwicklung und Simulation autonomer Roboter

Ein SDK zur Entwicklung und Simulation autonomer Roboter

28.03.18 - NVIDIA stellt mit dem Isaac SDK eine Sammlung vom Bibliotheken, Treibern, APIs und Toolsets zur schnellen Entwicklung autonomer Robotiklösungen vor. Damit lassen sich nicht nur Funktionalitäten leicht integrieren, sondern auch umfangreiche Simulationen durchführen. lesen

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45328581 / Hardwareentwicklung)