Mathematische Formeln sollen Sicherheit beim autonomen Fahren garantieren

Redakteur: Sebastian Gerstl

Wer haftet für einen Schaden, wenn ein selbstfahrendes Auto in einen Unfall verwickelt wird? Mobileye hat ein mathematisches Modell entwickelt, das diese Frage beantworten soll. Demnach könnte ein autonomes Fahrzeug von der Schuld an einem Unfall ausgenommen sein, solange es „klare Regeln für Fehler“ befolgt. Einige Analysten sehen diese Aussage sehr kritisch.

Firmen zum Thema

Verfahrene Situation: Das blaue Auto in der Mitte kann in einer solchen Lage nichts tun, um Sicherheit zu garantieren oder bei einem Fehler anderer einen Unfall zu vermeiden. Ein von Mobileye vorgeschlagenes mathematisches Modell soll etwa in solchen verzwickten Lagen die Haftungsfrage sicherstellen.
Verfahrene Situation: Das blaue Auto in der Mitte kann in einer solchen Lage nichts tun, um Sicherheit zu garantieren oder bei einem Fehler anderer einen Unfall zu vermeiden. Ein von Mobileye vorgeschlagenes mathematisches Modell soll etwa in solchen verzwickten Lagen die Haftungsfrage sicherstellen.
(Bild: Mobileye / Intel)

Es gibt Situationen im Straßenverkehr, da scheint ein Unfall unvermeidlich: Etwa, wenn das Fahrzeug von anderen Verkehrsteilnehmern regelrecht eingekesselt ist und der Vordermann plötzlich scharf bremsen muss. Wer soll in einem solchen Fall haften, wie kann eine rechtliche Sicherheit bestehen? Wie kann man garantieren, dass ein solcher Unfall zwischen autonomen Fahrzeugen gar nicht erst entstehen kann?

Professor Amnon Shashua, CEO von Mobileye und Senior Vice President bei Intel, hat nun hierzu eine Lösung vorgeschlagen: Auf dem World Knowledge Forum im südkoreanischen Seoul präsentierte er ein mathematisches Modell, das die Sicherheit von autonomen Fahrzeugen sicherstellen soll.

In einem Summary Paper beschreiben Shashua und sein Team eine formale, mathematische Formel, um "sicherzustellen, dass ein selbstfahrendes Fahrzeug verantwortungsbewusst fährt und keine Unfälle verursacht:" Ziel sei es, zusammen mit der herstellenden Automobilindustrie auf dieser Basis einen Standard zu erarbeiten, der anhand dieses Modells ein autonomes Fahrzeug von der Schuld an einem Unfall freistellen kann, solange es sich an eine vorab festgelegte Anzahl von "klaren Regeln für Fehler" hält.

Dieses mathematische Modell soll gewissermaßen die Basis für die Steuerungssoftware von selbstfahrenden Fahrzeugen bilden. Diese Grundlage legt klare Verhaltensweisen in bestimmten Situationen fest. Die autonomen Autos wären fest dieses Modell gebunden. Somit könnten sie, so Shahsua, gar nicht erst eine Entscheidung treffen, die sie zum Verursacher eines Unfalls macht – und damit die Schuldfrage bei einem Unfall klar regeln.

Dem CEO von Mobileye zufolge sei ein solches Modell die sinnvollste und sicherste Methode, um für autonome Fahrzeuge mögliche Unfälle im Vorfeld zu vermeiden. Denn müssten in jeder einzelnen Situation während der gesamten Fahrt immer erst Unmengen an Informationen ausgewertet werden, könnte aus der daraus resultierende Verzögerung bis zur Entscheidung des Fahrzeugs bereits ein Unfall resultieren.

Statt dessen müsste jeder Fahrtbefehl nur mit den vordefinierten mathematischen Regeln abgeglichen werden. Ein solches Modell könne laut dem von Mobileye veröffentlichen Paper Ingenieuren "die Entwicklung eines effizienten Validierungsverfahrens [für autonome Fahrzeuge] ermöglichen, [...] ohne dass aufwändige Straßen- und Simulationstests erforderlich sind. Die Software könnte jede Entscheidung auf Grundlage des mathematischen Modells schnellstmöglich evaluieren und entsprechend eine "sichere" Entscheidung treffen.

Natürlich könnten anhand von Systemausfällen dennoch Unfälle resultieren. Daher schlägt Shashua vor, sich nicht allein auf das mathematische Modell zu verlassen. Drei unabhängige zusätzliche Sicherheitsysteme, basierend auf Kameras, hochauflösenden Karten und Radar bzw. LIDAR-Systemen, sollten daher das System ergänzen und so Sicherheit gewährleisten.

Intel, das das israelische Unternehmen Mobileye im März diesen Jahres übernommen hatte, kündigte dieses Summary Paper in einer Pressemitteilung als "einen Weg für die autonome Fahrindustrie, um die Sicherheit autonomer Fahrzeuge zu beweisen" an. Dies rief auch einige kritische Stimmen auf den Plan. So zitiert die amerikanische Fachzeitschrift EE Times beispielsweise Mike Demler, Senior Analyst der Halbleitermarktexperten von der Linley Group, mit den Worten: "In welchem Universum ist es eine gute Idee, wenn eine Branche selbst definiert, was die Definition von Sicherheit für ihre Produkte ist?"

Was ist "gesunder Menschenverstand"?

Ein Beispiel für das mathematische Modell in der Anwendung: Berechnete Sicherheitskorridore um das Fahrzeug herum sollen bei Einfahrmanövern Fehler feststellen und genug spielraum garantieren, um Unfällen vorzubeugen.
Ein Beispiel für das mathematische Modell in der Anwendung: Berechnete Sicherheitskorridore um das Fahrzeug herum sollen bei Einfahrmanövern Fehler feststellen und genug spielraum garantieren, um Unfällen vorzubeugen.
(Bild: Mobileye / Intel)

Nach Ansicht der Autoren von Mobileyes Studie bestehe durchaus Grund zur Sorge, dass das Fehlen einer Standardisierung der Sicherheitsgarantie und Skalierbarkeit das Interesse der Branche an autonomen Fahren in eine "akademische Nische" drängen und das gesamte Gebiet in einen "Winter des autonomen Fahrens" treiben würde. Es muss also eine Sicherheitsgarantie für selbstfahrende Fahrzeuge geschaffen werden, wenn die fertigende Industrie diese Produkte auch langfristig verfolgen und für den Massenmarkt anbieten möchte.

Der EE Times zufolge gehen einige Branchenanalysten davon aus, dass der Vorschlag von Mobileye ein "gutes Potenzial zur Verbesserung des autonomen Fahrens" hat. Allerdings sieht man dort auch ein solches quasi "blindes Vertrauen" auf mathematische Regeln kritisch. Denn eine solche Sicherheit könne nur garantiert werden, wenn jedes Fahrzeug sich an dieselben mathematischen Grundregeln hält.

Dies wäre aber hinfällig, sobald menschliche Fahrer die Bildfläche betreten. Deren Verhalten lässt sich nämlich nicht anhand mathematischer Modelle exakt vorausberechnen. Verlässt sich das autonome Fahrzeug allerdings blind auf sein mathematisches Modell, verhält es sich in einer kritischen Situation nach einem Fehlverhalten eines menschlichen Fahrers womöglich nicht auf eine Weise, die einen Unfall verhindern würde.

Tatsächlich erwähnen die Autoren des Papers die Problematik einer möglichen Kollision mit einem von einem Menschen gelenkten Fahrzeug. "Wenn das passiert, wird es eine Untersuchung geben, die Monate dauern kann" , führen die Autoren darin auf. "Selbst wenn das vom Menschen angetriebene Fahrzeug dafür verantwortlich war, ist das nicht sofort klar. Die öffentliche Aufmerksamkeit wird hoch sein, da ein autonomes Fahrzeug beteiligt war." Das könnte der Öffentlichkeit das Vertrauen in ein selbstfahrendes Auto nehmen – keine abwegige Vermutung, schließlich hatte ein Unfall eines Tesla-Fahrzeugs, dass mit "Autopilot" unterwegs war, für Aufregung und langwierige Untersuchungen gesorgt.

Das mathematische Modell soll eben dieses grundlegende Vertrauen schaffen. Die Autoren des Papers sehen sich hier auf der sicheren Seite, da ein "richtiges" Fahrverhalten anhand von "common sense" - "gesundem Menschenverstand" gewissermaßen – festgestellt werden könne. Das Team von Mobileye meint, den "[Daten-]Satz von Fahrszenarien, Konzepten der Priorität und des Fahrtweges Weges in Formeln packen zu können" und daraus Gleichungen aufzustellen, mit denen Sicherheitsabstand, Fahrtweg, Geschwindigkeit, Entfernung, etc. grundlegend 'korrekt' ermittelt werden können. Für die EE Times folgt daraus, Mobileye sei der folgenden Ansicht: Derjenige, der sich bei einem Unfall nicht an diese Formeln gehalten habe, sei demnach auch Schuld.

Allerdings räumte Shashua bei seiner Ansprache selbst ein, dass absolute Sicherheit nicht existieren kann, solange menschliche Fahrer am Straßenverkehr teilnehmen. Als "sicher" definiert er daher zunächst autonome Fahrzeuge, die niemals selbst einen Unfall verursachen würden.

Das würde dann aber auch voraussetzen, dass sich wirklich alle autonomen Fahrzeuge an dieselben mathematischen Formeln halten. Und dass alle Entwickler der zugehörigen Software derselben Ansicht sind, wenn es um Einschätzungen anhand von "gesundem Menschenverstand" geht.

Mobileye sagt: "Wenn die Regeln vorherbestimmt sind, dann kann die Untersuchung [nach einem Unfall] sehr kurz sein und auf Fakten basieren, und die Verantwortung kann schlüssig bestimmt werden". Mike Demler bezeichnet das hingegen einfach als "unglaublich naiv": In welcher Untersuchung zu einem Verkehrsunfall würden sich beide beteiligten Parteien eindeutig klar darüber sein, dass seine eigenen Fakten nicht die richtigen seien? Gerade wenn es um Rechtsfragen geht ist "gesunder Menschenverstand" nicht so leicht zu definieren.

"Ein gemeinsamer Satz von Tests für die Sicherheit autonomer Fahrzeuge ist definitiv erforderlich." zitiert die EE Times Demler weiter. "Aber diese Tests werden nicht von einem Algorithmus eines Prozessorherstellers stammen. Das können sie nicht, denn so funktioniert die Gesellschaft nicht."

(ID:44959934)