So setzen Sie Künstliche Intelligenz in der Produktion um

| Redakteur: Margit Kuther

TANK-870AI von ICP: Künstliche Intelligenz lokal an der Edge platzieren
TANK-870AI von ICP: Künstliche Intelligenz lokal an der Edge platzieren (Bild: ICP Deutschland)

Das skalierbare Inferenz-System TANK-870AI von ICP ermöglicht es, Künstliche Intelligenz anwendungsbezogen und lokal an der Edge zu platzieren.

Eine gängige Anwendung von Künstlicher Intelligenz im Produktionsumfeld ist die automatische optische Inspektion (AOI). Für eine hohe Erfolgsquote und zuverlässige Fehleridentifikation gilt es, die Datenbasis des zugrundeliegenden Trainingsmodells stetig zu verfeinern.

Dies wird mittels industrieller Inferenzsysteme realisiert. ICP Deutschland bietet Entwicklern mit dem neuen TANK-870AI ein solches Inferenzsystem mit vorinstalliertem Betriebssystem Linux Ubuntu 16.04 LTS und Ready-to-Use Software.

Die Hardware basiert auf einer Intel-Skylake- oder Kaby-Lake-CPU und verfügt über bis zu 32 GB vorinstalliertem Arbeitsspeicher. Ein Highlight sind die Mustang-KI-Beschleunigungskarten, die dank zweier PCIe-x8-Erweiterungsslots Platz finden. Bei Auslieferung ist der TANK-870AI bereits mit einer 1 TB 2,5“ HDD ausgestattet und unterstützt eine weitere SSD mit RAID-0/1-Funktionalität.

Als Ready-to-Use-Software wird auf das Open Visual Inference & Neural Network Optimization Toolkit (OpenVINOTM) von Intel gesetzt. Es vereint verschiedene Tools wie das Intel Deep Learning Deployment Toolkit, optimierte Computer-Vision-Bibliotheken, Intels Grafiktreiber Media SDK OpenCL und Laufzeiten sowie aktuelle Topologien wie AlexNet und GoogleNe. Mit OpenVINO können so Deep-Learning-Trainingsmodelle wie die von Caffe, MXNET und Tensorflow, Hardware übergreifend mit CPU, GPU oder den Mustang Intel Movidus oder FPGA-KI-Beschleunigungskarten optimiert werden.

Wie Fujitsu KI-Simulation in Echtzeit ermöglicht

Wie Fujitsu KI-Simulation in Echtzeit ermöglicht

21.11.18 - Die Fujitsu-Plattform AI Solver ersetzt herkömmliche physikbasierte Simulationen durch schnelle, hochgradig genaue KI-Simulationen. Simulationsberechnungen können damit bis zu 3000 Mal schneller durchgeführt werden. lesen

Crossover-CPUs für besser skalierbare Embedded-Designs nutzen

Crossover-CPUs für besser skalierbare Embedded-Designs nutzen

15.10.18 - Anwendungen im Edge-Computing erfordern eine neue Klasse von Low-Power-Embedded-Lösungen. Diese muss kosteneffizient und skalierbar sein und dabei mehr Rechenleistung und Sicherheit bieten. lesen

„Viele KI-Applikationen können nicht auf die Verbindung zur Cloud warten“

„Viele KI-Applikationen können nicht auf die Verbindung zur Cloud warten“

23.10.18 - Michael Hannawald ist überzeugt, dass Künstliche Intelligenz (KI) in Endknoten eine Vielzahl von neuen Services und Anwendungen hervorbringen wird. Wir sprachen mit dem Präsidenten von Renesas Electronics Europe über die Möglichkeiten von Embedded-KI. lesen

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45572297 / Industrial Networking)