Diese sechs KI-Trends werden 2019 für Ingenieure und Wissenschaftler wichtig

| Redakteur: Sebastian Gerstl

Spezialisierung, Interoperabilität und stärkere Zusammenarbeit – drei von sechs KI-Trends, die 2019 nicht nur für Wissenschaftler, sondern auch für Ingenieure von Bedeutung sein werden.
Spezialisierung, Interoperabilität und stärkere Zusammenarbeit – drei von sechs KI-Trends, die 2019 nicht nur für Wissenschaftler, sondern auch für Ingenieure von Bedeutung sein werden. (Bild: gemeinfrei / CC0)

KI verbreitet sich schnell in allen Branchen. Daher muss sie verfügbar, zugänglich und anwendbar für Ingenieure und Wissenschaftler unterschiedlicher Fachrichtungen werden. Dr. Frank Graeber, Manager Application Engineering bei MathWorks, fasst sechs Trends zusammen, die 2019 die Entwicklung und Anwendung von KI maßgeblich bestimmen sollen.

Die Komplexität immer größerer Datensätze, Cloud Computing, die Implementierung in Embedded-Anwendungen und größere Entwicklungsteams stellen Entwickler vor neue Herausforderungen. Um diesen zu begegnen, werden Lösungsanbieter an Wegen für mehr Zusammenarbeit und Interoperabilität arbeiten. So werden produktivere Workflows entstehen und die Abhängigkeit von IT-Abteilungen wird abnehmen.

KI ist nicht nur für Datenwissenschaftler

Ingenieure und Wissenschaftler, nicht nur Datenwissenschaftler, werden die Einführung von Deep Learning vorantreiben. Nicht nur die Offenheit für neue Techniken, sondern auch wirtschaftliche Vorteile, die Künstliche Intelligenz und Automatisierungstools versprechen, werden den zunehmenden Einsatz von KI durch Ingenieure und Wissenschaftler vorantreiben.

Neue Workflow-Tools vereinfachen und automatisieren die Daten-Synthese, das Labeling, die Vorverarbeitung und Bereitstellung von Daten. Diese Tools erweitern auch die Bandbreite der Anwendungen von Bild- und Computer-Vision bis hin zu Zeitreihen-Daten wie Audio, Signalverarbeitung und IoT. So wird KI abseits der Datenwissenschaft zum Beispiel in unbemannten Luftfahrzeugen (UAV) eingesetzt werden, um mithilfe von KI Objekte in Satellitenbildern zu erkennen, oder bei Krebsvorsorgeuntersuchungen zur Früherkennung von Krankheiten.

Industrielle Anwendungen erfordern Spezialisierung

Industrielle Anwendungsmöglichkeiten werden zu einem wichtigen Einsatzfeld für KI, erfordern aber auch eine größere Spezialisierung. Damit IoT- und KI-getriebene Anwendungen, wie Smart Cities, Predictive Maintenance und Industry 4.0 von visionären Konzepten zur Realität werden, müssen einige Kriterien erfüllt sein. Sicherheitskritische Anwendungen verlangen beispielsweise nach einer höheren Verlässlichkeit und Verifizierbarkeit. Wohingegen fortschrittliche mechatronische System Designansätze benötigen, die mechanische, elektrische und andere Komponenten integrieren.

Eine weitere Herausforderung ist, dass diese spezialisierten Anwendungen wie zum Beispiel Systeme zur Erkennung von Überhitzung bei Flugzeugtriebwerken oft von dezentralen Entwicklungs- und Serviceteams entwickelt und verwaltet werden. Sie sind somit nicht unter der IT zentralisiert.

Interoperabilität

Für den Aufbau einer umfassenden KI-Lösung ist die Zusammenarbeit von verschiedenen Systemen, Programmen oder Plattformen essentiell. Die Realität ist, dass es kein einzelnes Framework gibt, das die besten Lösungen für alle Anwendungsbereiche der KI bieten kann. Derzeit konzentriert sich jedes Deep Learning Framework auf einige wenige Anwendungen und Produktionsplattformen, während effektive Lösungen Teile aus mehreren verschiedenen Workflows zusammenführen müssen.

Dies erzeugt Reibung und reduziert die Produktivität. Diesem Problem nehmen sich Unternehmen wie ONNX.ai an. Sie bieten eine Umgebung, in der Entwickler, das beste Werkzeug frei wählen, ihre Modelle einfacher teilen und ihre Lösungen auf einer breiten Palette von Produktionsplattformen einsetzen können.

Cloud Computing

Gerade Public Clouds werden zunehmend als Host-Plattform für KI genutzt. Sie werden sich weiterentwickeln, um die Komplexität zu reduzieren und werden die Abhängigkeit von IT-Abteilungen verringern.

Leistungsstarke GPU-Instanzen, flexible Speicheroptionen und produktionsreife Containertechnologien sind nur drei Gründe, warum KI-Anwendungen zunehmend Cloud-basiert sind. Für Ingenieure und Wissenschaftler erleichtert die Cloud-basierte Entwicklung die Zusammenarbeit und ermöglicht die bedarfsgerechte Nutzung von Computerressourcen, anstatt teure Hardware mit begrenzter Lebensdauer zu kaufen. Cloud-, Hard- und Softwareanbieter erkennen jedoch, dass diese Technologieplattformen für Ingenieure und Wissenschaftler oft schwierig einzurichten und in ihren Entwicklungsabläufen zu nutzen ist.

Edge Computing

Edge Computing wird KI-Anwendungen in Szenarien ermöglichen, in denen die Verarbeitung lokal erfolgen muss. Edge Computing für leistungsstarke, immer komplexere KI-Lösungen in Echtzeit wird durch die Fortschritte bei Sensoren und energiesparenden Computerarchitekturen möglich gemacht. Gerade für die Sicherheit in autonomen Fahrzeugen, die ihre Umgebung verstehen und davon ausgehend Verkehrssituationen in Echtzeit bewerten müssen, wird Edge Computing von entscheidender Bedeutung sein.

Komplexität erfordert eine stärkere Zusammenarbeit

Der zunehmende Einsatz von Machine und Deep Learning in komplexen Systemen wird viel mehr Mitarbeiter und eine stärkere Zusammenarbeit erfordern. Datenerhebung, -synthese und -kennzeichnung erhöhen den Umfang und die Komplexität von Deep-Learning-Projekten und erfordern größere, dezentralisierte Teams.

System- und Embedded-Ingenieure benötigen Flexibilität bei der Bereitstellung von Inferenzmodellen in Rechenzentren, Cloud-Plattformen und Embedded-Architekturen wie FPGAs, ASICs und Mikrocontrollern. Zusätzlich müssen sie über Fachwissen in den Bereichen Optimierung, Energiemanagement und Wiederverwendung von Komponenten verfügen. Ingenieure, die Inferenzmodelle entwickeln, müssen diese Informationen zusammenführen. Sie benötigen Werkzeuge, um die ständig wachsende Menge an Trainingsdaten zu bewerten und zu verwalten sowie für das Lifecycle-Management der Inferenzmodelle, die sie an Systemingenieure weitergeben.

KI braucht neue Prozessoren

KI braucht neue Prozessoren

10.12.18 - Anlässlich der Fachmesse Electronica gab Gartner einen Ausblick auf die durch Künstliche Intelligenz (KI) und Deep Learning ausgelösten Entwicklungen auf dem Hardwaremarkt. Fazit: Eine neue Gründungswelle kommt ins Rollen, denn der Standard-Prozessorchip hat auf diesem Gebiet ausgedient. lesen

Die wichtigste Technologie der Zukunft

Die wichtigste Technologie der Zukunft

11.01.19 - Künstliche Intelligenz: Der rasante technische Fortschritt macht sie zu einer der Schlüsseltechnologien für das 21. Jahrhundert – Big Data und exponentiell steigenden Rechnerkapazitäten sei Dank. Aber wie funktioniert sie eigentlich? lesen

Kommentar zu diesem Artikel abgeben
Hier stehen nur Trivialitäten (KI ist nicht nur für Datenwissenschaftler - wer hätte das gedacht...  lesen
posted am 06.02.2019 um 14:42 von Unregistriert


Mitdiskutieren
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45705054 / KI/Machine Learning)