29.04.2019 Aufrufe

ADAC Motorwelt Mai 2019

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

MEINE REGION<br />

Baden-Württemberg<br />

Heidelberg<br />

Heilbronn<br />

Karlsruhe<br />

Stuttgart<br />

Ulm<br />

Freiburg<br />

Konstanz<br />

Selbstfahrendes<br />

Auto: Sensordaten<br />

werden im<br />

Zentralrechner des<br />

automatisierten<br />

Fahrzeugs verarbeitet<br />

An den Grenzen der Moral<br />

In Baden-Württemberg entwickeln Automobilhersteller und -zulieferer<br />

die Technik für autonomes Fahren. Ein Gespräch mit der Stuttgarter<br />

Philosophie-Professorin Catrin Misselhorn über Maschinenethik<br />

<strong>Motorwelt</strong>: Frau Misselhorn, in Ihrem<br />

Buch „Grundfragen der Maschinenethik“<br />

beschäftigen Sie sich mit Maschinen, die<br />

moralische Entscheidungen treffen. Was<br />

können wir uns darunter vorstellen?<br />

Catrin Misselhorn: In der breiten Öffentlichkeit<br />

wurde das Thema Maschinenethik<br />

durch die sogenannten Dilemma-<br />

Situationen bekannt gemacht. Die Grundidee<br />

geht auf die britische Philosophin<br />

Philippa Foot zurück. Ein Beispiel: Eine<br />

außer Kontrolle geratene Straßenbahn<br />

droht, fünf Menschen zu überrollen. Was<br />

tun? Die Straßenbahn auf ein anderes<br />

Gleis umleiten, auf dem sich nur eine<br />

Person befindet? Ein vergleichbares Szenario<br />

beim autonomen Fahren wäre, dass<br />

ein Auto entweder in eine Gruppe mit<br />

zwei alten Menschen und einem Hund<br />

oder in eine Gruppe mit vier Kindern rast.<br />

Welche Gruppe soll das Auto verschonen,<br />

welche tödlich verletzen?<br />

Sollte eine Maschine diese Entscheidung<br />

treffen dürfen?<br />

Ich bin da sehr skeptisch. Dem amerikanischen<br />

Wissenschaftler Patrick Lin zufolge<br />

basieren solche Programme zum<br />

Zweck der Unfalloptimierung auf „Target-<br />

Algorithmen“. Letztendlich müsste die<br />

Software in Dilemma-Situationen ein legitimes<br />

Ziel (Target) auswählen, das getötet<br />

werden darf. Eine solche Entscheidung<br />

würde voraussetzen, dass eine moralische<br />

Pflicht besteht, zur Schadenminimierung<br />

zu töten. Meiner Ansicht nach<br />

gibt es eine solche Pflicht jedoch nicht.<br />

Sind solche Dilemma-Situationen nicht<br />

sehr unwahrscheinlich?<br />

Es geht hier nicht um Wahrscheinlichkeiten.<br />

Gerade bei der Bewertung von neuen<br />

Technologien sind nicht die wahrscheinlichsten<br />

Fälle interessant, sondern die,<br />

die unsere moralische Bewertung am<br />

stärksten auf die Probe stellen. So beziehen<br />

wir zum Beispiel bei der Risikobewertung<br />

der Atomkraft einen nuklearen<br />

Unfall mit ein, auch wenn dieser zum<br />

Glück sehr unwahrscheinlich ist.<br />

Fotos: Daimler AG (3), moralmachine.mit.edu, Stephanie Trenz<br />

54 <strong>ADAC</strong> motorwelt 5/<strong>2019</strong>

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!