Autonomes Fahren mit normalen Kraftfahrzeugen gibt es schon. Das Taxiunternehmen Uber schickt in den USA eine Flotte selbst fahrender Taxis auf die Straße, einige Elektromobile von Tesla fahren autonom, auch in Deutschland ist die Technik ausgereift. Bei aller Begeisterung fallen die selbst lenkenden und denkenden Vehikel allerdings bisweilen durch spektakuläre Unfälle auf, die einen Tesla-Fahrer Ende 2016 das Leben kosteten und ein Uber-Taxi im März 2017 in Arizona auf die Seite legten, wobei niemand ernsthaft verletzt wurde.

Im zweiten Fall soll der Unfallgegner die Vorfahrt missachtet haben, im ersten Fall jedoch hat möglicherweise die Technik des autonomen Fahrzeugs versagt, das offenbar zu schnell fuhr. Solche Pannen werfen die Frage auf: Was dürfen autonome Autos “entscheiden”? Diese Frage ist weitreichender, als wir es uns vorstellen können: In einer Gefahrensituation muss der Bordcomputer möglicherweise zwischen dem Leben eines Kindes und eines Greises abwägen. Das wirft schwerwiegende ethische Fragen auf, mit denen sich der Deutsche Bundestag beschäftigt hat.

Autonomes Fahren: Was empfiehlt der nationale deutsche Ethikrat?

Wie überall in der Welt beschäftigen sich auch in Deutschland diejenigen mit der Problematik, die professionell mit Ethik und Moral befasst sind. Es sind vielfach Kirchenvertreter, die in Ethikkommissionen – in diesem Fall im nationalen deutschen Ethikrat – über autonome Autos und ihre Entscheidungsgewalt debattieren. Dabei stehen vorrangig drei Fragen im Fokus:

  • Wie sind Unfälle mit autonomen Autos juristisch zu werten?
  • Was darf das Auto entscheiden (Kind versus Greis)?
  • Geben wir durch autonomes Fahren unsere Freiheit auf?

In der Frage der Unfälle sind sich Forscher und Vertreter in diversen Ethikkommissionen (die es auch in Unternehmen und Verbänden gibt) darüber einig, dass automatisch gelenkte Kraftfahrzeuge die Unfallzahlen verringern werden. Dennoch muss es Algorithmen für die Steuerung des Autos in einer akuten Risikosituation geben. Für die deutsche Bundesregierung hat eine 14-köpfige Kommission ethische Leitlinien zur Thematik erarbeitet und sich in dieser Frage eindeutig positioniert.

Chef der Kommission ist der Jurist und ehemalige Verfassungsrichter Udo di Fabio, der trotz der geringen Wahrscheinlichkeit von Unfällen konstatiert, dass für so einen Fall die entsprechenden ethischen Fragen zu klären sind. Die Ausnahmefälle müssten juristisch einwandfrei zu bewerten sein, wie das auch das gegenwärtige Verkehrsrecht schon regelt, so di Fabio. Die Kommission hat 22 Empfehlungen erarbeitet, nach welchen Regeln die Computersysteme automatischer Fahrzeuge zu programmieren sind. Unter anderem schlägt die Kommission folgende Grundsätze vor:

  • Der Wert zweier Menschenleben darf nicht durch einen internen Algorithmus gegeneinander aufgerechnet werden. Der Rentner ist genauso wichtig wie ein Kind.
  • Menschen dürfen generell nicht nach Alter, Größe oder körperlicher Verfassung unterschieden werden.
  • Mögliche Opferzahlen dürfen nicht gegeneinander aufgerechnet werden. Wenn ein Ausweichszenario weniger Opfer verspricht als ein anderes, darf nicht diese Rechengröße die Entscheidung des Computers im Auto beeinflussen. Diese Entscheidung ist nach anderen Kriterien zu treffen, etwa nach der Wahrscheinlichkeit der Unfallvermeidung.
  • Kein System darf so programmiert werden, dass es das Leben der Insassen um jeden Preis (auch um den des Lebens von Passanten) rettet.
  • Sämtliche Daten von autonom gelenkten Autos sind in einer Black Box aufzuzeichnen, wie das in Flugzeugen Standard ist.

Bewertung der Algorithmen für autonomes Fahren

Von den deutschen Verbraucherzentralen kommt die Forderung nach einem TÜV für die Algorithmen der autonom fahrenden Autos. Dieser TÜV, den es schließlich auch für die Bremsen und andere sicherheitsrelevante Bauteile gibt, soll sicherstellen, dass die programmierten Algorithmen in einer Unfallsituation im Sinne der gesetzlich definierten ethischen Grundsätze funktionieren. Der Chef der deutschen Verbraucherzentralen Klaus Müller äußerte sich dementsprechend gegenüber dem Handelsblatt. Er sagte, die Software müsse künftig ebenso wie die Bremsen und der Motor durch eine unabhängige Stelle überprüft werden.

Diese rein technische Frage gilt es in der Tat zu bedenken. Die Entwicklung der juristischen Grundsätze, nach denen ein TÜV und die Abgasuntersuchung durchzuführen sind, erfolgte auf einem langen Weg, der die Entwicklung der automobilen Technik begleitete. Für computergelenkte, völlig autonom fahrende Autos hat dieser Weg gerade erst begonnen. Der Gesetzgeber muss jetzt schnell agieren, um nicht der technischen Entwicklung nachzulaufen. Wenn nämlich entsprechend ethisch ausgelegte Algorithmen noch nicht definiert, programmiert und überprüft sind, werden die Hersteller diese Algorithmen nach Gutdünken entwickeln. Dabei gibt es wichtige Konflikte:

Welche Moral kann ein Computer für autonomes Fahren haben?

Computer haben keine Moral, sie wird ihnen per Algorithmus eingeimpft. Dieser Algorithmus soll den Maßstäben der menschlichen Moral folgen, doch welchen? So selbstverständlich, wie für manchen Leser die oben postulierten ethischen Grundsätze klingen mögen, sind sie längst nicht für die beteiligten Parteien. Ein unabhängiger Beobachter oder ein Mann der Kirche findet den Grundsatz, dass jedes Menschenleben gleich viel zählt, sicherlich hervorragend. Schon ein Autofahrer kann und wird eine andere Meinung haben, die Hersteller der Systeme – die Automobilkonzerne und ihre Zulieferer – haben sie auf jeden Fall.

Automobilhersteller sind vielfach bestrebt, eher das Leben des Fahrers zu schützen, der ihr Auto kauft. Sie kümmern sich zwar auch um den Fußgängerschutz, doch hierbei folgen sie eher gesetzlichen Vorgaben. Die Einzelentscheidungen, die ein Computer zu treffen hätte, können brisant sein. Man stelle sich vor, das Auto fährt auf Menschen zu, die unvermittelt die Straße passieren, will ihnen ausweichen und hat dabei nur die Gegenfahrbahn zur Verfügung, auf der ihm ein Lkw entgegenrast. Das führt zu einer unweigerlichen Abwägung: Insassenleben gegen Passantenleben.

Bislang obliegt es im menschlich gelenkten Fahrzeug der Entscheidung des Fahrers, in welche Richtung er binnen einer Sekunde steuert. Sollte er sein eigenes Leben retten und dadurch einen anderen Menschen töten oder verletzen, wird anschließend ein Richter entscheiden, inwieweit diese Entscheidung unter den gegebenen Umständen zu billigen ist. Man wird dem Fahrer zugestehen, dass er es aus Angst um sein Leben vermied, auf die Gegenfahrbahn zu lenken. Bei computergesteuerten Fahrzeugen muss hingegen diese Entscheidung per Algorithmus im Vorfeld getroffen werden. Sie führt zu einer Moral von Computern, die aber im Vorfeld strikt nach den festgelegten ethischen Grundsätzen programmiert wurde. Damit ist die große Bedeutung der ethischen Diskussion im Vorfeld unstrittig.

In welche Richtung führt uns autonomes Fahren?

Die Unternehmensberatung Oliver Wyman vermutet als Ergebnis einer internen Studie, dass ab 2035 das teilweise oder vollständig automatisierte Fahren zwischen 20 bis 35 Prozent des globalen Straßenverkehrs beherrschen wird. Das deutsche Fraunhofer-Institut prognostizierte die ausreichende, praxistaugliche technische Reife für 2025, wobei die Studie aus dem Jahr 2015 stammt und gegenwärtig – im Sommer 2017 – schon Fahrzeuge autonom unterwegs sind.

Der Elektromobilhersteller Tesla liefert schon seit Oktober 2016 seine Fahrzeuge hardwareseitig so aus, dass sie mit entsprechender Software autonom fahren können, im selben Jahr schickte Tesla die ersten autonomen Autos auf die Straße. Es gibt fünf Levels für den Grad der Automatisierung. Im Level 0, dem alle konventionellen Fahrzeuge entsprechen, muss der Fahrer alle Steuer- und Lenkfunktionen übernehmen, im Level 5 fährt das Auto vollkommen allein. Dazwischen liegen Assistenzsysteme und die Teilautomatisierung.

Wenn das wirklich autonome Autofahren beschrieben wird, ist immer das Level 5 gemeint. Das wirkt auf uns wie ein Paradigmenwechsel, jedoch fand technisch keine Revolution, sondern eine Evolution statt: Assistenzsysteme wurden seit Jahrzehnten fortentwickelt. Vorläufer des heutigen Tempomaten entstanden beispielsweise schon in den 1950er Jahren. Doch abgesehen von der Technik ist der Paradigmenwechsel durchaus beachtlich, denn juristisch schreibt das Wiener Verkehrsabkommen von 1968 vor, dass der Fahrzeugführer das Fahrzeug dauerhaft beherrschen muss. Das wiederum ist ein sehr handfester Hintergrund für die ethische Diskussion um autonome Autos.