Skalierbare KI für die Medizintechnik

| Autor / Redakteur: Zeljko Loncaric / Michael Eckstein

Ganz schön schlau: Das conga-TR4 mit AMD Embedded Ryzen Prozessor für KI-gestützte medizintechnische Geräte.
Ganz schön schlau: Das conga-TR4 mit AMD Embedded Ryzen Prozessor für KI-gestützte medizintechnische Geräte. (Bild: congatec)

Computer-on-Modules stellen ausreichend Rechenleistung für Inferenzanwendungen bereit – und sind damit eine geeignete Basis für moderne medizintechnische Geräte.

Künstliche Intelligenz (KI) und Augmented Reality (AR) sind in der Medizintechnik auf dem Vormarsch. Der Markt für KI in der Diagnostik und medizinischen Bildgebung wird in den nächsten Jahren mit einer durchschnittlichen jährlichen Wachstumsrate (Compound Annual Growth Rate, CAGR) von mehr als 40% wachsen, schätzen Marktforscher. KI wird die Benutzererfahrung verändern, beispielsweise hin zu einer phänotypischen Charakterisierung von Bildern samt KI-gestützter Workflows.

Medizingerätehersteller folgen diesem Trend – oder treiben ihn an. Sie wollen ihre Services für Mediziner verbessern, indem sie ihre Geräte um KI und AR erweitern. Diese Funktionen benötigen viel Rechenleistung, dürfen jedoch nur wenig Strom verbrauchen. Gerade in Geräten mit kleinem Formfaktor steht zudem wenig Platz zur Verfügung. Computer-on-Modules mit Embedded-Prozessoren zum Beispiel von AMD sind oft eine gute Wahl, um die Leistungsanforderungen der KI-Inferenz-Engines selbst bei beschränktem Platz- und Energieangebot zu erfüllen.

Echtzeitfähige Medizingeräte brauchen eigene Intelligenz

Einige KI-Anwendungen können direkt auf den Standard-Bildarchivierungs- und Kommunikationssystemen (PACS) sowie Radiologie-Informationssystemen (RIS) mit ihren rechenstarken Servern und auf den Befundungs-Workstations betrieben werden. In diesem Fall ist die Integration einfach und es wird auch nicht signifikant mehr Rechenleistung benötigt. Was benötigen aber Systementwickler, wenn sie die gleichen erlernten Inferenzalgorithmen auf Medizingeräten mit streng limitierter Energieaufnahme und Performance ausführen wollen?

Zusätzlich zu bisherigen Tasks müssen diese Devices auch noch Machine-Learning- (ML) und Deep-Learning-(DL)-Algorithmen implementieren. Das erfordert eine zusätzliche massiv parallele Rechenperformance. Und diese sollte auf der gleichen Computing-Architektur basieren, wie sie auch in den DL-Prozessen der Grafikkarten-basierten (General Purpose Graphic Processing Unit, GPGPU) Serverfarmen genutzt wird. So können Software und Algorithmen effizient wiederverwendet werden. x86-basierte Medizingeräte für die Diagnostik und Bildgebung mit hoher GPU-Performance sind deshalb ideale Kandidaten, da dieses Ökosystem bereits einen umfassenden Support für heterogene Computersysteme bietet.

Skalierbare KI-Performance mit AMD GPUs und CPUs

Der Prozessorhersteller AMD, der GPUs und CPUs aus einer Hand anbietet, hat jüngst mit seinen Ryzen Embedded V1000 und EPYC Embedded 3000 Prozessoren die passenden Plattformen für Embedded Computing und Embedded Server auf den Markt gebracht. Die AMD Ryzen Embedded V1000 Dual- und Quadcore Prozessoren kombinieren in einer APU (Accelerated Processing Unit) die leistungsstarke „Zen“ CPU-Architektur mit der sehr guten Grafikperformance der Vega-Architektur.

Entwicklern die noch mehr Performance benötigen, können dieselbe Zen- und Vega-Architektur über diskrete Grafikkarten zusammen mit den noch leistungsfähigeren AMD EPYC Embedded-Prozessoren nutzen. Sie verfügen über 4, 8, 12 oder 16 Hochleistungs-Cores und bieten bis zu 64 PCIe Gen 3 Lanes, um beispielsweise 4 voll ausgestattete PEG-Grafikkarten mit je 16 Lanes anzubinden. Beide Plattformen unterstützen zudem ein offenes Ökosystem für heterogene Systemprogrammierung. Damit können sie nicht nur die KI-Inferenz auf den Embedded Computern der Medizingeräte ausführen, sondern können auch als Plattformen für die eigentlichen Deep Learning Prozesse in den Rechenzentrumsservern mit massiv GPGPU-gestützter, paralleler Datenverarbeitung genutzt werden.

Neben den reinen Performance-Vorteilen ist die Entwicklung mit offenen Softwaresystemen ein weiteres wichtiges Argument für das AMD-Ökosystem. Die ROCm-Software ist ein Beispiel für eine solche offene Softwareplattform für GPU-gestütztes heterogenes Computing mit einem ganzheitlichen Computingansatz auf Systemebene. Auch die Unterstützung von TensorFlow ist eine wichtige Komponente. TensorFlow ist eine der wichtigsten Open-Source-Softwarebibliotheken für leistungsstarke numerische Berechnungen von KIs. Durch seine flexible Architektur können die Algorithmen auf einer Vielzahl von Plattformen (CPUs, GPUs, APUs) genutzt werden. Und das angefangen von Desktopsystemen über Servercluster bis hin zu mobilen Embedded und Edge-Geräten.

Das congatec Evaluation Carrier Board mit AMD Ryzen Embedded 1000 oder AMD EPYC Embedded 3000 Prozessoren ist vorbereitet für KI-Inferenz in medizinischen Echtzeit-Applikationen.
Das congatec Evaluation Carrier Board mit AMD Ryzen Embedded 1000 oder AMD EPYC Embedded 3000 Prozessoren ist vorbereitet für KI-Inferenz in medizinischen Echtzeit-Applikationen. (Bild: congatec)

Mit Computer-on-Modules zur richtigen Performance

Wie gelangen Entwickler zu einer möglichst optimal ausgewogenen Performance in ihren Medizingeräten? Das hängt vor allem von der jeweiligen Medical-Applikation des Kunden ab. Bei kleinen Devices empfehlen sich COM-Express-Typ-6-Computer-on-Modules mit AMD Ryzen Embedded V1000 Prozessoren für All-in-One-Systeme. Für rechenstarke Backendsysteme sind COM-Express-Typ-7-Server-on-Module mit AMD-EPYC-3000-Embedded-Prozessoren die beste Wahl. Der Vorteil des Building-Block Konzepts mit Computer-on-Modules, die auf der Grundlage herstellerunabhängiger Standards entwickelt werden, besteht darin, dass Entwickler die Performance über einen weiten Bereich passend skalieren können.

Zudem können sie per Module-Tausch stets neueste Technologien einsetzen. Das ist besonders für kontinuierliche Verbesserungsprozesse und Closed-Loop-Engineering vorteilhaft. Wichtig für Medical-Applikationen mit langem Lebenszyklus ist die Langzeitverfügbarkeit der Module und ein umfassender Software-Support. OEMs erhalten mit den Board-Support-Packages eine vollständige Ausstattung mit Treibern und Bibliotheken für alle von den Modulen unterstützten Standardschnittstellen. Embedded-Computing-Anbieter wie congatec bieten zudem umfassende Services an, damit sich Entwickler voll auf die Applikationsentwicklung konzentrieren können.

Das Angebot reicht bis zur kompletten Systementwicklung auf Basis standardisierter Embedded Technologie – inklusive der notwendigen Integrationsunterstützung für Hardwarekomponenten von Drittanbietern wie Basler-Kameras für Medizin und Biowissenschaft. Aber die Services sind nicht auf einen Partner beschränkt, da es viel mehr Experten für medizinische Applikationen gibt. Wichtig ist vor allem eins: Die Integration von Embedded-Technologie für Entwickler von Medizingeräten weitestmöglich zu vereinfachen.

Intelligentere Edge-Endgeräte durch Künstliche Intelligenz in FPGAs

Intelligentere Edge-Endgeräte durch Künstliche Intelligenz in FPGAs

28.03.19 - Künstliche Intelligenz scheint oft aufwändige Cloudverbindungen und hohen Stromverbrauch zu fordern. Doch auch mit Low-Cost-FPGAs lässt sich eine effiziente, günstige KI-Implementierung sicherstellen. lesen

Gast-Kommentar: „Wir müssen die KI-Technologie demokratisieren“

Gast-Kommentar: „Wir müssen die KI-Technologie demokratisieren“

07.05.19 - Ausländische Regierungen und Unternehmen investieren massiv in Künstliche Intelligenz. Deutschland streicht Investitionen zusammen. Für ein radikales Umdenken plädiert Dr. Volker Markl von der TU Berlin. Alle Daten, die in Deutschland oder noch besser in Europa anfallen, sollten auf einer unabhängigen Infrastruktur sicher und zuverlässig verwaltet werden. lesen

Bitkom präsentiert Periodensystem der Künstlichen Intelligenz

Bitkom präsentiert Periodensystem der Künstlichen Intelligenz

30.04.19 - Beim Einsatz von Künstlicher Intelligenz sind deutsche Unternehmen noch sehr zurückhaltend. Um hier für mehr Übersicht zu sorgen, hat der Digitalverband Bitkom eine Website gestartet, die in einem „Periodensystem der Künstlichen Intelligenz“ die zahlreichen Einsatzszenarien von KI erklärt. lesen

* Zeljko Loncaric ist Marketing Engineer bei Congatec in Regensburg

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45835248 / Embedded Boards & PCs)