Auf der Webseite http://moralmachine.mit.edu kann man zwischen zwei verschiedenen Optionen entscheiden. Das soll darstellen, wie komplex es ist selbstfahrende Autos zu entwickeln. Ein selbstfahrendes Auto hört sich toll an, ist aber immer auch mit ethischen Problemen behaftet. Ein paar dieser ethischen Probleme werden auf der Webseite dargestellt. Als Nutzer kann man entscheiden, wie die Situation ausgehen soll und welche Personen streben sollen. Eine Abwägung zu treffen, zwischen Situationen, bei denen unterschiedlich viele Menschen sterben, ist meistens relativ leicht. Bei der Entscheidung ob zwei oder sechs Menschen sterben sollen, ist die Entscheidung relativ schnell getroffen. Schwerer wird es, wenn man dagegen zwischen sozialen Aspekten urteilen soll.
Wie soll ein selbstfahrendes Auto soziale Aspekte erkennen?
Was ist, wenn es beim Erkennen von Personen Fehler macht, weil diese Personen eine Maske tragen?
Wer trägt hier die rechtliche Verantwortung?
Als Mensch handeln wir immer instinktiv und entscheiden, ohne zu bemerken, dass wir gerade eine Entscheidung getroffen haben. Doch selbstfahrende Autos müssen entscheiden und es muss Entwickler geben, die diese Algorithmen in den Fahrzeugen entwickeln und dafür sorgen, dass diese die richtigen Entscheidungen treffen. Was ist die richtige Entscheidung?
Ist es eine richtige Entscheidung nach dem Gesetz zu urteilen? Kein Mensch würde sich in ein Auto setzen, das einen im Zweifel umbringt. Diese ethischen Bedenken sind auch der Grund dafür, weshalb es in so vielen Ländern Probleme bei der Zulassung von selbstfahrenden Autos gibt.
Die richtige Lösung für solche Probleme gibt es nicht, denn man muss eine Entscheidung treffen, bei der es um Menschenleben geht und nicht nur um materielle Dinge.