Suchen

Autonomes Fahren Wie sich das Geheimnis autonomer Autos lüften lässt

| Autor / Redakteur: Reiner Duwe * / Dipl.-Ing. (FH) Thomas Kuther

Ein autonomes Auto ist eine hohe technische Herausforderung. Eine auf dem DDS-Standard basierende Middleware erleichtert nun die Einführung autonom fahrender Pkws.

Firmen zum Thema

Blick in ein autonom fahrendes Auto: Ein solcher Roboter auf vier Rädern ist eine große Herausforderung für System-Entwickler.
Blick in ein autonom fahrendes Auto: Ein solcher Roboter auf vier Rädern ist eine große Herausforderung für System-Entwickler.
(Bild: © fotolia_103834821/Fotolia.com, chesky)

Ein autonomes Auto gleicht einem Roboter, seine Autonomie stellt eine hohe technische Herausforderung dar. Zur Umsetzung eines komplexen verteilten Systems für intelligente Fahrzeuge hat Real-Time Innovations (RTI) eine Schlüsselkomponente entwickelt: Die auf dem DDS-Standard basierende Middleware ermöglicht die Einführung autonom fahrender Pkws.

Bildergalerie

Unterschiedliche Komponenten wie Bildverarbeitung, Radar, Näherungssensoren, GPS, Mapping, Navigation, Planung und Steuerung müssen in autonomen Autos zu einem zuverlässigen, betriebssicheren und geschützten System kombiniert werden. Dieses muss in der Lage sein, komplexe Umgebungen in Echtzeit zu analysieren und auf unvorhergesehene Zwischenfälle zu reagieren. Sowohl auf chaotische Innenstadtbedingungen als auch auf strukturiertere Verhältnisse z. B. auf Autobahnen muss es sich einstellen. Unabhängig von der Fahrgeschwindigkeit gibt es noch komplexere Situationen: Parkplätze beispielsweise stecken voller unerwarteter Hindernisse, Fußgänger und schwer zu erfassender Ereignisse. Das autonome Fahren wird daher im strukturierten Autobahnverkehr selbst bei hohen Geschwindigkeiten leichter umzusetzen zu sein als im Stadtverkehr.

Für autonome Systeme wurde die datenzentrierte Konnektivität entwickelt. Im Unterschied zu Messaging-Technologien kontrolliert sie die Dateninteraktionen direkt. Damit beseitigt sie Komplexität, die mit dem Datenmanagement einzelner Komponenten einhergeht. In 2004 wurde diese Technologie in einem Standard festgelegt – dem Data Distribution Service (DDS). Im Unterschied zu traditionellen Messaging-Technologien liegt der Fokus hierbei auf Echtzeit, hoher Zuverlässigkeit, Systemintegration, präziser Datenfluss-Kontrolle und Entkopplung komplexer Software. DDS beschleunigt und vereinfacht die Entwicklung verteilter Systeme. Als einzige Technologie bietet sie eine Latenz im Mikrosekundenbereich, Sicherheits-Zertifizierung gemäß IEC 26262, maximale Sicherheit und bewährten Einsatz in millionenschweren Anwendungen. Verteilte Echtzeitsysteme sind auf eine datenzentrierte Kommunikation angewiesen.

Der Unterschied von daten­zentrierter Middleware

Ihre Datenzentriertheit unterscheidet DDS von anderer Middleware. Ausgestattet mit Informationen über die Struktur der Daten und deren Anforderungen, kann die Infrastruktur z. B. Informationen filtern oder bestimmen, wann und ob Updates erforderlich sind.

Zudem adressiert DDS Echtzeitsysteme direkt. In seinem Kern implementiert es ein verbindungsloses Datenmodell, das Daten mit der gewünschten Quality of Service (QoS) kommuniziert. Bei einem solchen System gibt es keine starr codierten Interaktionen zwischen verschiedenen Applikationen, sondern der Datenbus findet automatisch die Publisher/Subscriber-Applikationen. Damit entfallen erforderliche Konfigurationsänderungen, um einem Netzwerk eine neue Applikation hinzuzufügen.

Die QoS wird vom Datenbus angepasst und durchgesetzt. Probleme, die bei der Integration von Punkt-zu-Punkt-Systemen auftreten, etwa der Mangel an Skalierbarkeit, Interoperabilität oder die Fähigkeit zum Weiterentwickeln der Architektur, entfallen. Ermöglicht wird stattdessen einfaches Plug-and-Play, Skalierbarkeit sowie außergewöhnlich hohe Leistung.

Wie der Data Distribution Service funktioniert

Verteilte Systeme müssen Informationen teilen. Dazu sendet Middleware meist die Informationen in Form von Messages. Auch DDS sendet Informationen, jedoch verfügt es über einen lokalen Datenbestand wie eine einfache Datenbanktabelle. Gemeinsam vermitteln die verschiedenen lokalen Speicher den Applikationen den Eindruck eines globalen Datenspeichers, in dem sich die Daten dennoch nicht befinden. In einem Datenbus speichert jede Applikation nur das, was sie benötigt, und nur für die erforderliche Zeit. Die Daten sind also in Bewegung und der globale Datenspeicher stellt ein virtuelles Konzept dar, bestehend aus einer Ansammlung transienter lokaler Speicher.

Sämtliche Komponenten verbindet der Datenbus mit einem streng kontrollierten Data-Sharing-Konzept. Die Infrastruktur implementiert eine umfassende QoS-Kontrolle und stellt einen zuverlässigen Betrieb sicher. Dabei benötigt sie keine Kommunikations-Server und verbindet stattdessen Datenquellen und -senken mit einem „Meta-Traffic“-System, das sich im Hintergrund befindet. Die Datenbus-Technologie lässt sich auf Millionen von Datenpfaden skalieren, gewährleistet einen äußerst zuverlässigen Betrieb und macht den Applikations-Code einfacher. Da sie keine Server erfordert, vereinfacht das Konfiguration und Betrieb erheblich und eliminiert gleichzeitig Ausfälle und Engpässe. Für zuverlässige und leistungsfähige IIoT-Systeme gibt es bereits über ein Dutzend DDS-Implementierungen – eine bewährte stammt von RTI.

(ID:44269251)