Wie Fujitsu KI-Simulation in Echtzeit ermöglicht

| Redakteur: Margit Kuther

Wärmeübertragung: Die zeitsparende AI-basierte Simulation weicht nur 2% von der physikalischen ab.
Wärmeübertragung: Die zeitsparende AI-basierte Simulation weicht nur 2% von der physikalischen ab. (Bild: Fujitsu)

Die Fujitsu-Plattform AI Solver ersetzt herkömmliche physikbasierte Simulationen durch schnelle, hochgradig genaue KI-Simulationen. Simulationsberechnungen können damit bis zu 3000 Mal schneller durchgeführt werden.

Der AI Solver der Fujitsu Laboratories of Europe verringert die Zeit für aufwendige Kalkulationen erheblich, denn bei physikbasierte Simulationen kann ein einzelner Prozess oftmals mehrere Stunden in Anspruch nehmen.

Fujitsus AI Solver verkürzt diese Zeit auf einige Millisekunden bei gleicher Leistung (weniger als zwei Prozent Diskrepanz im Vergleich zu physikbasierten Simulationen). Dank leistungsstarker ‚ungefährer‘ Kalkulationen für hochkomplexe Szenarien sind Simulationsberechnungen bis zu 3000 Mal schneller möglich als mit konventionellen Lösungen.

Der Fujitsu AI Solver hat das Potenzial, Bereiche wie Computer Aided Engineering (CAE), Produktdesign oder Robotik grundlegend zu verändern. Seine Anwendungsmöglichkeiten sind vielfältig: Für CAE etwa spielen Simlationen eine entscheidene Rolle dabei, die Anzahl kostspieliger Protoypen und Produktfehler zu reduzieren, und Entscheidungen beim Design sowie für die Verifizierung und Validierung zu treffen.

Produktdesigner können Feedback in Echtzeit erhalten, anstatt mehrere Stunden auf Ergebnisse zu warten. Smarte Devices wie Roboter, die sich autonom an ihre Umgebung anpassen, können damit effizienter agieren und sind wesentlich autonomer.

Hintergrund zu Fujitsus KI-Simulation

Frühere Versuche hinsichtlich KI-Simulatoren waren nur auf eine bestimmte Anwendung ausgerichtet und erforderten eine maßgeschneiderte Netzwerkarchitektur. Es gab nur eine einzige Benutzerfunktion, nämlich die Form des zu simulierenden Objekts zu ändern, während alle anderen Simulationsbedingungen konstant blieben.

Um die Anwendbarkeit von KI-Simulatoren zu erweitern, hat Fujitsu eine neue Deep-Network-Architektur entwickelt, die nicht nur die Geometrie, sondern auch eine Vielzahl physikalischer Eigenschaften wie Materialeigenschaften, Strahlung oder externe Magnetfelder verarbeiten kann. Dies wird durch die automatische Zuordnung jeder physikalischen Eigenschaft zu einem Eigenschaftsfeld erreicht, das mit der Geometrie verknüpft ist, wobei alle erstellten Felder dann dem Netzwerk als separate Eingangskanäle zur Verfügung stehen.

Während manchmal Hyperparameter-Tuning erforderlich ist, kann die gleiche Netzwerkarchitektur für viele Arten von KI-Simulatoren verwendet werden, die sehr unterschiedliche physikalische Phänomene approximieren. Die Verwendung einer einzigen Netzwerkarchitektur ermöglicht die Verwendung einer gemeinsamen Pipeline mit standardisierten Ein- und Ausgabevorgängen.

Mit der Ausführung einer Physik-basierten Simulation, die von Stunden bis zu Tagen dauert, kann die Erstellung von Datenbanken mit Zehntausenden von Datenelementen ein sehr zeitaufwendiger Prozess sein. Nach der Generierung der Daten ist das Training des tiefen Netzwerks selbst ebenso zeitintensiv, insbesondere wenn das Netzwerk mehrfach trainiert werden muss, um seine Hyperparameter zu optimieren.

Um die Gesamtlernzeit zu verkürzen, überlappt die Fujitsu AI Solver Plattform die parallele Datengenerierung mit der Abstimmung der Hyperparameter. Der Tuning-Prozess beginnt, sobald eine kleine Datenmenge erzeugt wurde (z.B. 10 - 20%) und wird mit fortschreitender Datengenerierung fortgesetzt. Das Endergebnis ist, dass es möglich ist, fast unmittelbar nach Abschluss der Datengenerierung ein vollständig trainiertes Netzwerk zu erhalten.

Crossover-CPUs für besser skalierbare Embedded-Designs nutzen

Crossover-CPUs für besser skalierbare Embedded-Designs nutzen

15.10.18 - Anwendungen im Edge-Computing erfordern eine neue Klasse von Low-Power-Embedded-Lösungen. Diese muss kosteneffizient und skalierbar sein und dabei mehr Rechenleistung und Sicherheit bieten. lesen

RAPIDS: NVIDIA präsentiert Open-Source-Plattform für Datenanalyse und Maschinelles Lernen

RAPIDS: NVIDIA präsentiert Open-Source-Plattform für Datenanalyse und Maschinelles Lernen

10.10.18 - Auf seiner Technologiekonferenz GTC Europe stellte NVIDIA-CEO Jensen Huang eine GPU-Beschleunigungsplattform Big-Data- und Machine-Learning-Projekte vor. Die Open-Source-Softwaresuite RAPIDS soll sowohl den Zugang zu Datenwissenschaften erleichtern als auch eine signifikante Leistungssteigerung für GPU-gestützte Lösungen bieten. lesen

Welche Hardware eignet sich besser zur KI-Beschleunigung?

Welche Hardware eignet sich besser zur KI-Beschleunigung?

04.06.18 - Moderne Hardwarebeschleuniger haben den praktikablen Einsatz von Künstlicher Intelligenz in IT und Industrie in greifbare Nähe gerückt. Doch welche Technologie eignet sich hierfür besser: GPUs, DSPs, programmierbare FPGAs oder eigene, dedizierte Prozessoren? ELEKTRONIKPRAXIS hat Hardwarehersteller und Embedded-Experten zu diesem Thema befragt. lesen

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45611245 / KI/Machine Learning)