Autonome Fahrzeuge: Lieber Passanten oder einen Kinderwagen überfahren?

Am 19. März 2018 starb eine 49-jährige Frau in einem Krankenhaus in Tempe, Arizona. Sie hatte versucht, eine Straße zu überqueren und wurde dabei von einem selbstlenkenden Auto des Fahrdienstvermittlers Uber erfasst, das sich auf Testfahrt befand. Der Testfahrer hatte Polizeiberichten zufolge keine Chance einzugreifen, da die Frau nachts um 22 Uhr plötzlich aus dem Schatten auf die Fahrbahn getreten sei. Offen ist die Frage, warum das Roboterauto nicht versucht hat, zu bremsen oder auszuweichen und was dessen Sensoren vor dem Unfall wahrgenommen haben. Uber will Hergang und Ursachen genau untersuchen und hat einstweilen alle Testfahrten gestoppt. Die Frau aus Tempe ist bereits der zweite Mensch, der bei einem Unfall mit einem autonomen Fahrzeug tödlich verunglückte. Allerdings hätte beim Zusammenstoß eines Tesla mit einem Lkw im Frühjahr 2016 der Fahrer eingreifen müssen, weil Teslas Autopilot-Software ausdrücklich nicht für vollständig autonomes Fahren gedacht war.

Natürlich hat das tragische Unglück in Arizona die Debatte um künstliche Intelligenz am Steuer erneut angeheizt. Wer trägt bei solchen Unfällen die Verantwortung? Wie könnte ein Robo Law aussehen, das Verantwortlichkeiten und Strafen in solchen Fällen regelt? Welche Mindestanforderungen müssen autonome Fahrzeuge erfüllen, damit sie auf die Straße gelassen werden? Wenn diese Fragen diskutiert werden, kommt früher oder später das Trolley-Problem ins Spiel. Es handelt sich um ein philosophisches Gedankenexperiment: Eine Straßenbahn rast auf eine Gruppe von Menschen zu. Du hast die Chance, sie zu retten, indem du schnell eine Weiche umlegst, allerdings zu dem Preis, dass jemand anderes überfahren wird. Wie wirst du dich entscheiden?

Weiterlesen bei t3n