Neue Regeln für autonomes Fahren: Das darf ein Roboterauto

Johann Philipp

Das autonome Fahren wird unseren Straßenverkehr revolutionieren. Dabei ist die Technik bisher das geringste Problem. Viele ethische und rechtliche Fragen sind bislang ungeklärt. Die Ethikkommission hat nun im Auftrag der Bundesregierung festgelegt, was ein Roboterauto in Zukunft in Unfallsituationen darf und was nicht. Eine der wichtigsten Fragen ließen sie jedoch unbeantwortet.

Tesla Autopilot.

Am 7. Mai 2016 verunglückte der Fahrer eines Tesla Model S auf einer Bundesstraße in den USA. Er prallte mit 120 km/h gegen einen Sattelschlepper, der abbiegen wollte. Später kam heraus: Der Fahrer fuhr mit dem Autopiloten und verließ sich auf die Technik. Doch auch die macht Fehler. Wie ein autonomes Fahrzeug in Zukunft bei kritischen Situationen reagieren soll, haben Ingenieure, Juristen, Philosophen und Datenspezialisten im Auftrag der Bundesregierung festgelegt. Über neun Monate arbeiteten sie an ethischen Leitlinien für autonome Autos und präsentierten gestern ihren Abschlussbericht.

Autonomes Fahren muss Unfälle verhindern

Die Kommission ist sich einig: An erster Stelle steht die Vermeidung von Unfällen durch autonome Fahrzeuge. „Die Technik muss nach ihrem jeweiligen Stand so ausgelegt sein, dass kritische Situationen gar nicht erst entstehen“, heißt es im Abschlussbericht. Doch wie reagiert das Auto, wenn ein Unfall unausweichlich ist?

Bilderstrecke starten
12 Bilder
Top-10-Pedelecs: Die aktuell beliebtesten E-Bikes in Deutschland.

Keine Differenzierung nach Alter und Geschlecht

Zu dieser Frage gibt es zwei Regeln. Regel 1: In Gefahrensituationen habe der Schutz von Menschen immer Vorrang, etwa gegenüber Sach- und Tierschäden. Regel 2: Es dürfe keine Abwägung möglicher Opfer nach Alter, Geschlecht sowie körperlicher und geistiger Konstitution geben. Lediglich eine „allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden“ könne vertretbar sein.

Nach diesen Grundsätzen dürfe der Autopilot keine Entscheidung darüber treffen, ob das Fahrzeug einen 80-jährigen Rentner auf der linken Straßenseite oder ein Kind auf der rechten Seite anfährt. Nur wenn es sich um eine Gruppe von Kindern handelt, dürfe das Auto in Richtung des Rentners fahren, um die Zahl der Verletzten zu reduzieren.

Dilemma-Situation noch nicht geklärt

Die entscheidende Frage bleibt allerdings noch unbeantwortet: Was macht ein Autopilot, wenn es nach den neuen Regeln keine klare Entscheidung treffen kann. Links steht ein Rentner, rechts ein Kind. Ein Unfall kann nicht vermieden werden und einer der beiden Personen wird vermutlich verletzt. Diese sogenannte Dilemma-Situation war in der Kommission so umstritten, dass man sich auf keine Regeln einigen konnte.

Differenzierung bisher gar nicht möglich

Doch die Frage muss bisher noch gar nicht geklärt werden, weil die Systeme der Autos eine solche Differenzierung nach Alter und Verfassung noch gar nicht vornehmen können. Die Kameras und Sensoren können unterschieden, ob eine Person geht oder auf dem Fahrrad sitzt – mehr ist nicht drin.

Zum Tesla-Unfall hat sich nun eine zweite US-Behörde geäußert und bestätigt, dass der Hersteller nicht schuld sei. Der tödlich verunglückte Fahrer habe seine Hände die meiste Zeit nicht am Lenkrad gehabt, obwohl der Autopilot mehrfach darauf hinwies.

Es bleibt ein langer Weg bis zum autonomen Fahren. Der deutsche Verkehrsminister Alexander Dobrindt ist dennoch stolz, dass Deutschland das erste Land weltweit sei, das Leitlinien für autonome Fahrzeuge veröffentlicht.

Quelle: BMVI, Heise

Zu den Kommentaren

Kommentare zu dieser News

Weitere Themen

* Werbung