#9 Verantwortung
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Verantwortung,
Technik & Wissenschaft
eine Entscheidung auch zugleich eine Verantwortung über
dessen Folgen und Konsequenzen. Doch wenn wir Maschinen
die Entscheidung über menschliches Leben lassen, wird
die Kluft zwischen Ethik und Technik nicht mehr zu überbrücken
sein. Hierbei kommt der Wissenschaft eine große
Verantwortung zu, da sie die Forschung und Entwicklung an
intelligenten und autonomen Waffentechnologien zurückweisen
oder zumindest einschränken könnten. Denn sobald
diese Technologien entwickelt werden, ist die Wahrscheinlichkeit,
dass sie ungenutzt bleiben, sehr gering (vgl. Bauman/
Lyon 2013: 110). Dennoch ist die Situation nicht ganz so
aussichtslos wie sie häufig dargestellt wird. Die Entscheidungsgewalt
über Leben und Tod wird nicht an Maschinen
delegiert, denn die Algorithmen, die darüber entscheiden,
werden von Menschenhand programmiert. „Auch wenn sie
lernen, lernen sie nach Regeln, die von Menschen bestimmt
wurden“ (Grunwald 2018). Die Verantwortung bleibt und
sollte auch zukünftig beim Menschen bleiben, nur wird dies
in Zukunft im Kontext der KI eine unterschiedliche Akteurskonstellation
und Prozessdynamik annehmen müssen.
Somit stehen wir im Bereich der KI vor einer großen Herausforderung
in Bezug auf Moral, Verantwortung, Datenschutz,
Sicherheit und Freiheit (vgl. Lenzen 2018: 159). Die
Öffentlichkeit scheint im Hinblick auf die Gegenwart der
KI vom Alarmismus und daraus resultierenden dystopischen
Vorstellungen der Autonomie und Kontrollverlusten geplagt
zu sein. Daher sind die Forderungen nach gemeinwohlorientierter
Regulierung der Technikentwicklung seitens Politik
und Recht nicht überraschend. Schließlich bedarf die
Wahrung moralischer Grundsätze in der Zukunft der KI
einer erfolgreichen Kooperation zwischen Politik, Gesellschaft
und Wissenschaft, die sich gemeinsam um eine gemeinwohlorientierte
Technikentwicklung bemühen. Denn
wenn das Streben nach technischem Fortschritt die Ethik
und Moral besiegt, wird die Entwicklung der KI alles andere
als das Beste sein, was den Menschen je passiert ist.
Awad, E.; Dsouza, S; Kim, R.; Schulz, J.;
Henrich, J.; Shariff, A.; Bonnefon, J.-F.;
Rahwan, I. (2018): The Moral Machine
experiment. In: Nature. 563(7729). S. 59–64.
Bauman, Z.; Lyon, D. (2013): Daten, Drohnen,
Disziplin. Ein Gespräch über flüchtige Überwachung.
Berlin: Suhrkamp, 4. Auflage 2018.
Brockman, J. (Hg.) (2017): Was sollen wir von
Künstlicher Intelligenz halten? Die führenden
Wissenschaftler unserer Zeit über intelligente
Maschinen. Frankfurt am Main: Fischer Taschenbuch.
Future of Life Institute (2017): Die KI-Leitsätze
von Asilomar. Online verfügbar unter: https://
futureoflife.org/ai-principles-german/ [Zugriff:
01.11.2019].
Gethmann, C. F.; Sander T. (1999): Rechtfertigungsdiskurse.
In: Grunwald A. et al. (Hg.):
Ethik in der Technikgestaltung. Berlin: Springer
Verlag. S. 117–151.
Grunwald, A. (2009): Zum Handlungsbegriff in
Technikphilosophie und Technikethik. In: www.
widerstreitsachunterrricht.de, Ausgabe 12, März
2009.
Hagendorff, T. (2017): Das Ende der Informationskontrolle:
Zur Nutzung digitaler Medien jenseits
von Privatheit und Datenschutz. Bielefeld:
transcript Verlag.
Lenzen, M. (2018): Künstliche Intelligenz. Was
sie kann & was uns erwartet. München: C.H.
Beck.
29 philou.