10.08.2020 Aufrufe

#9 Verantwortung

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Verantwortung,

Technik & Wissenschaft

eine Entscheidung auch zugleich eine Verantwortung über

dessen Folgen und Konsequenzen. Doch wenn wir Maschinen

die Entscheidung über menschliches Leben lassen, wird

die Kluft zwischen Ethik und Technik nicht mehr zu überbrücken

sein. Hierbei kommt der Wissenschaft eine große

Verantwortung zu, da sie die Forschung und Entwicklung an

intelligenten und autonomen Waffentechnologien zurückweisen

oder zumindest einschränken könnten. Denn sobald

diese Technologien entwickelt werden, ist die Wahrscheinlichkeit,

dass sie ungenutzt bleiben, sehr gering (vgl. Bauman/

Lyon 2013: 110). Dennoch ist die Situation nicht ganz so

aussichtslos wie sie häufig dargestellt wird. Die Entscheidungsgewalt

über Leben und Tod wird nicht an Maschinen

delegiert, denn die Algorithmen, die darüber entscheiden,

werden von Menschenhand programmiert. „Auch wenn sie

lernen, lernen sie nach Regeln, die von Menschen bestimmt

wurden“ (Grunwald 2018). Die Verantwortung bleibt und

sollte auch zukünftig beim Menschen bleiben, nur wird dies

in Zukunft im Kontext der KI eine unterschiedliche Akteurskonstellation

und Prozessdynamik annehmen müssen.

Somit stehen wir im Bereich der KI vor einer großen Herausforderung

in Bezug auf Moral, Verantwortung, Datenschutz,

Sicherheit und Freiheit (vgl. Lenzen 2018: 159). Die

Öffentlichkeit scheint im Hinblick auf die Gegenwart der

KI vom Alarmismus und daraus resultierenden dystopischen

Vorstellungen der Autonomie und Kontrollverlusten geplagt

zu sein. Daher sind die Forderungen nach gemeinwohlorientierter

Regulierung der Technikentwicklung seitens Politik

und Recht nicht überraschend. Schließlich bedarf die

Wahrung moralischer Grundsätze in der Zukunft der KI

einer erfolgreichen Kooperation zwischen Politik, Gesellschaft

und Wissenschaft, die sich gemeinsam um eine gemeinwohlorientierte

Technikentwicklung bemühen. Denn

wenn das Streben nach technischem Fortschritt die Ethik

und Moral besiegt, wird die Entwicklung der KI alles andere

als das Beste sein, was den Menschen je passiert ist.

Awad, E.; Dsouza, S; Kim, R.; Schulz, J.;

Henrich, J.; Shariff, A.; Bonnefon, J.-F.;

Rahwan, I. (2018): The Moral Machine

experiment. In: Nature. 563(7729). S. 59–64.

Bauman, Z.; Lyon, D. (2013): Daten, Drohnen,

Disziplin. Ein Gespräch über flüchtige Überwachung.

Berlin: Suhrkamp, 4. Auflage 2018.

Brockman, J. (Hg.) (2017): Was sollen wir von

Künstlicher Intelligenz halten? Die führenden

Wissenschaftler unserer Zeit über intelligente

Maschinen. Frankfurt am Main: Fischer Taschenbuch.

Future of Life Institute (2017): Die KI-Leitsätze

von Asilomar. Online verfügbar unter: https://

futureoflife.org/ai-principles-german/ [Zugriff:

01.11.2019].

Gethmann, C. F.; Sander T. (1999): Rechtfertigungsdiskurse.

In: Grunwald A. et al. (Hg.):

Ethik in der Technikgestaltung. Berlin: Springer

Verlag. S. 117–151.

Grunwald, A. (2009): Zum Handlungsbegriff in

Technikphilosophie und Technikethik. In: www.

widerstreitsachunterrricht.de, Ausgabe 12, März

2009.

Hagendorff, T. (2017): Das Ende der Informationskontrolle:

Zur Nutzung digitaler Medien jenseits

von Privatheit und Datenschutz. Bielefeld:

transcript Verlag.

Lenzen, M. (2018): Künstliche Intelligenz. Was

sie kann & was uns erwartet. München: C.H.

Beck.

29 philou.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!