Braucht autonomes Fahren eine Ethik?
Es ist ein altes Spiel. Man konstruiert eine extrem unwahrscheinliche Situation und stellt dann mit großem Pathos eine falsche Frage. Zum Beispiel: Wie soll das autonom fahrende Auto entscheiden, wenn ein Unfall mit einer Gruppe von Menschen unvermeidlich ist – warum auch immer – und ein theoretisch mögliches Ausweichmanöver sehr wahrscheinlich eine andere Gruppe oder Person verletzen oder töten könnte? O Drama, wie können wir Algorithmen finden, die in Sekundenbruchteilen die richtige, moralisch-ethische Entscheidung treffen?!