Wenn das Auto sagt, wer stirbt

Wann fährt ein Wagen wirklich selber? Die Frage ist nicht nur technisch interessant, sondern auch rechtlich und moralisch.

Ein chauffeurloses Postauto im Testbetrieb in Sion: Die Strassenzulassung liegt noch in weiter Ferne.

Ein chauffeurloses Postauto im Testbetrieb in Sion: Die Strassenzulassung liegt noch in weiter Ferne. Bild: Manuel Lopez/Keystone

Feedback

Tragen Sie mit Hinweisen zu diesem Artikel bei oder melden Sie uns Fehler.

Eigentlich war es ein Unfall, wie er in der Schweiz tagtäglich passiert. Ein Auto touchiert ein anderes. Kleiner Blechschaden; keine grosse Sache. Doch es war nicht irgendein Auto, das da am 21. September 2016 in die offene Heckklappe eines stehenden Lieferwagens gerollt ist. Es war das selbstfahrende Postauto, unterwegs auf seiner Testroute durch Sion. Der Vorfall wirft Fragen auf: Wer ist Schuld an einem solchen Unfall? Die Post? Das Auto selber? Der Autobauer? Der Softwarehersteller? Oder die Person, die das autonome «Poschi» begleitet hat? Und wer trägt die Verantwortung?

Es gibt Experten, die meinen, früher oder später werde die Verantwortung an das Auto übergehen. Dabei besteht das Tragen von Verantwortung aus zwei Pflichten: erstens, dafür zu sorgen, dass kein Schaden entsteht, und zweitens, die Konsequenzen seiner Handlungen zu tragen. Während ein Fahrzeug die erste Komponente durchaus übernehmen kann, wird es kaum eine Möglichkeit geben, es für sein Handeln zur Verantwortung zu ziehen.

In zehn Jahren fährt das Auto uns

Vor einem Jahr ist die Sache glimpflich verlaufen. Noch ist das Tempo des Postautos so niedrig, dass kaum mit tödlichen Personenunfällen gerechnet werden muss. Aber das kann sich schon bald ändern. Wenn man Bosch, einem der führenden Unternehmen in Sachen selbstfahrende Autos, glaubt, dann sind in weniger als zehn Jahren die ersten führerlosen Wagen auf unseren Strassen unterwegs. Auch unabhängige Experten wie der ETH-Professor Emilio Frazzoli meinen, dass unsere Autos uns schon bald autonom von A nach B bringen werden. Spätestens wenn Autos mit 80 Kilometern die Stunde autonom über unsere Strassen rauschen, müssen wir uns mit einer weiteren Frage befassen: Wie soll das Auto reagieren, wenn ein Unfall nicht mehr zu vermeiden ist?

Die Ethik kennt in dem Zusammenhang das Trolley-Problem: Ein Zug nähert sich fünf Gleisarbeitern, die so in ihre Arbeit vertieft sind, dass sie den heranbrausenden Zug nicht bemerken. Als Beobachter der Szene haben Sie die Möglichkeit, eine Weiche zu stellen, die den Zug auf ein Nebengleis leitet. Auf diesem Gleis steht aber ebenfalls ein Arbeiter. Was tun Sie? Vor so einer Entscheidung könnten dereinst die autonomen Fahrzeuge stehen. Sollen sie den Kindern ausweichen, die unvermittelt auf der Strasse stehen, und dabei den Opa auf dem Trottoir überfahren? Und wie sieht es aus, wenn beim Ausweichmanöver statt eines Unbeteiligten der Passagier im Auto ums Leben kommen würde? Oder wenn statt mehrerer Kinder nur ein Kind auf die Strasse springt? Soll das Auto dann immer noch ausweichen? Dilemmata, die kaum zu lösen sind.

Nur wenig scheint klar zu sein. Erstens: Das Auto muss mit allen Mitteln versuchen, einen Unfall zu vermeiden. Zweitens: Ein Menschenleben hat immer Vorrang gegenüber Sachund Tierschaden. Im Zweifelsfall muss das Auto also die Katze überfahren, wenn es bei einem Ausweichmanöver riskieren würde, einen Menschen gefährlich zu verletzen. Und drittens: Ein Menschenleben ist gleich viel wert wie das andere. Es wäre äusserst heikel, wenn die Autobauer ihre Fahrzeuge so programmieren würden, dass diese gewisse Leben anderen vorziehen würden.

Im Zweifelsfall ein dummes Auto

Man könnte zudem argumentieren, dass es besser sei, ein Leben zu opfern, wenn dafür mehrere Leben gerettet werden könnten. In der Theorie naheliegend. Aber in der Praxis? Mal ehrlich: Würden Sie in ein Auto steigen, von dem Sie wüssten, dass es im schlimmsten Fall gegen einen Baum rasen würde, um eine Gruppe unaufmerksamer Fussgänger zu retten?

Der Akzeptanz von autonomen Fahrzeugen dürfte es dienen, wenn die Autos möglichst menschlich – aber bedeutend rascher – entschieden. Mit anderen Worten: Das Auto wird nur so klug wie nötig und so dumm wie möglich gebaut. Denn ein menschlicher Fahrer ist viel zu «dumm», um in einer Schrecksekunde einen bewussten moralischen Entscheid zu fällen. Die programmierte Reaktion des Autos auf einen unvermeidlichen Unfall wäre dann wohl: Vollbremsung. (Der Bund)

Erstellt: 14.09.2017, 10:56 Uhr

Artikel zum Thema

Führerlose Fahrzeuge polarisieren

Die Post testet seit gut einem Jahr autonome Postautos. Nun hat sie nachgefragt, was die Bevölkerung von diesen hält. Mehr...

Dossiers

Die Redaktion auf Twitter

Stets informiert und aktuell. Folgen Sie uns auf dem Kurznachrichtendienst.

Paid Post

DSLR-Kamera gewinnen

Halten Sie besondere Momente mit einer Spiegelreflexkamera von Canon für immer fest.

Kommentare

Die Welt in Bildern

Wer wird Präsident? Ein traditionell gekleideter Chilene, ein sogenannter Huaso, verlässt nach seiner Stimmabgabe in Santiago die Wahlkabine. (19. November 2017)
(Bild: Esteban Felix/AP) Mehr...