Autonomes Fahren

Es wird ernst, anders kann man es kaum sagen. Was lange wie eine Zukunftsvision erschien, findet mehr und mehr Einsatz in der Praxis: das selbstfahrende, nach offizieller Terminologie „autonome“ Auto steht quasi schon vor der Tür. Also nicht bei mir, falls Sie das jetzt meinen, sondern eher vor unser aller Haustür, als Transportmittel der Zukunft. Vorbei das lange Zeit glorifizierte Gefühl von Freiheit und Unabhängigkeit hinter dem Steuer, jetzt ist der Fahrzeuglenker, dank künstlicher Intelligenz (KI) und Deep Learning, eine Mischung aus Rechenzentrum auf Rädern und HAL 9000, dem Supercomputer aus „2001: Odyssee im Weltraum“. Es wird nicht mehr lange dauern, dann gehören sie ganz selbstverständlich zum Straßenbild. Die Weichen dafür sind gestellt, wie die im Moment immer zahlreicheren Berichte über die Pläne von Herstellern wie Google, Praxis-Tests in Berlin und London  oder die Absicht von Uber, eine Flotte autonomer Fahrzeuge aufzubauen, deutlich machen.

Die Technik ist also einsatzbereit, doch nach und nach rücken andere Aspekte ins Blickfeld, die der Einsatz im Straßenverkehr mit sich bringt: Welches Gefahrenpotenzial bergen Cyberattacken auf die Fahrzeuge? Wie lassen sich Daten des Fahrzeugs oder der Insassen schützen? Wie muss eine den neuen Gegebenheiten angepasste Gesetzgebung aussehen? Welche Auswirkungen haben autonome Fahrzeuge auf die künftige Verkehrsplanung? Und was ist überhaupt, wenn ein selbstfahrendes Auto einen Unfall verursacht? Auch wenn menschliches Versagen in dem Fall ja offensichtlich auszuschließen ist, wer muss zahlen? Vielleicht am Ende der Softwareentwickler? Wie komplex die Steuerung eines Fahrzeuges in der Realität ist, zeigt auch die Tatsache, dass Testfahrzeuge immer mal wieder in Unfälle verwickelt sind, wie jüngst zu beobachten.

Noch komplizierter wird es, wenn ein autonomes Fahrzeug selbst entscheiden muss, welches von zwei denkbaren Übeln denn bitteschön das kleinere ist. Wen gilt es zu schützen, Insassen oder eher Fußgänger? Und nach welchen Kriterien wird bewertet? Diese Entscheidung einer Maschine zu überlassen, ist sicher nicht nur für mich ein mulmiger Gedanke.

Wie groß das moralische Dilemma in so einer Situation tatsächlich sein kann, zeigt die Moral Machine, ein Experiment des MIT (Massachusetts Institute of Technology), bei dem ein führerloses Fahrzeug entweder auf Fußgänger oder eine Betonwand zusteuert. Als außenstehender Beobachter soll man sich für das kleinere Übel entscheiden: Wen opfert man eher, zwei Mitfahrer oder drei Fußgänger? Für Katzenliebhaber wird es noch haariger, soviel sei verraten.

Noch ist unklar, wer darüber entscheidet, wie ein selbstfahrendes Auto in einer bestimmten Situation zu reagieren hat. Bleibt es den Herstellern überlassen, ist anzunehmen, dass sie vor allem die Fahrzeuginsassen schützen wollen, was für andere Verkehrsteilnehmer schlecht ausgehen könnte.

Damit es uns am Ende nicht so geht wie den Fußballern des BVB im Spot eines deutschen Autoherstellers, sollte die Überlegung, wer bei autonomen Fahrzeugen nicht nur steuert sondern auch die Verantwortung trägt, abgeschlossen sein, bevor der praktische Einsatz beginnt.  

Übrigens, heute (am 22. November) ist „Mach-eine-Spritztour-Tag“ (der amerikanische Go For A Ride Day), wenn das kein Omen ist – aber halten Sie das Steuer gut fest!

menuseperator
Autonomes Fahren abonnieren