Moral und Maschine

Wie sollen selbstfahrende Autos über Leben und Tod entscheiden?

Seite: 3/3

Firmen zum Thema

Noch fehlt es an Grundsatzentscheidungen

Hände weg vom Steuer? Bis ein autonomes Fahren umgesetzt werden kann, müssen von Entwicklern und Gesetzgebern noch eine Reihe grundsätzlicher Entscheidungen getroffen werden.
Hände weg vom Steuer? Bis ein autonomes Fahren umgesetzt werden kann, müssen von Entwicklern und Gesetzgebern noch eine Reihe grundsätzlicher Entscheidungen getroffen werden.
(Bild: Audi)

Noch sind viele rechtliche Fragen zum autonomen Fahren ungeklärt. Etwa, ob der Fahrzeughalter oder der Hersteller bei einem Unfall haftet. Für den Rechtsinformatiker Borges ist klar, dass der Gesetzgeber Grundsatzentscheidungen treffen muss. Etwa: Ein autonomes Auto sollte sich im Kollisionsfall so verhalten, dass möglichst wenig Menschen zu Schaden kommen. „Das Thema ist dringlich. Justiz und Politik müssen die technische Entwicklung begleiten, bevor es in die falsche Richtung geht“, sagt Borges.

Die Frage, ob der Tod von Menschen in Kauf genommen werden soll, wenn dadurch weitaus mehr Leben gerettet werden können, wurde schon mehrfach vor dem Bundesverfassungsgericht verhandelt. Menschenleben dürfen nicht gegeneinander aufgerechnet werden, so die obersten Richter in einer Entscheidung 2012. In dem Fall ging es um die Frage, ob ein von Terroristen gekapertes Flugzeug abgeschossen werden dürfte. Das Gericht entschied dagegen.

Für die Programmierung autonomer Autos bedeutet dieses Urteil einen utilaristischen Code. Ganz so, wie es die Mehrheit der Studienteilnehmer fordert. Allerdings, und hier liegt der Unterschied zum Willen der Befragten, würde die Maschine nicht unterscheiden, wer im Wagen sitzt. Genausowenig dürfte sie abwägen, ob das Leben eines Neugeborenen einen höheren Wert hat als das eines Seniors.

Sind Computer also nicht nur die besseren Autofahrer, sondern auch die faireren Menschen? Raúl Rojas zögert einen Moment: „Die Maschine denkt zumindest nicht zuerst an die eigene Haut.“

(ID:44126449)