30.08.2019 Aufrufe

11. Osnabrücker Wissensforum

Zukunft. Fragen. Antworten

Zukunft. Fragen. Antworten

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

34<br />

daran, dass Maschinen auf fundamental anderen<br />

Prinzipien der Informationsverarbeitung basieren als<br />

wir Menschen. Deshalb sind sie uns Menschen auch<br />

in einigen Dingen deutlich überlegen, in anderen aber<br />

nicht.<br />

Soweit haben wir einen Widerspruch, was meine<br />

Antworten auf die beiden Fragen angeht. Aber,<br />

und dies ist ein entscheidender Punkt: Maschinen<br />

können natürlich moralisches Handeln simulieren,<br />

beziehungsweise lernen, dieses zu simulieren. Ich<br />

würde so weit gehen zu behaupten, sie können das<br />

vermutlich in Zukunft so gut simulieren, dass sie darin<br />

nicht unbedingt signifikant schlechter sein müssen als<br />

wir Menschen.<br />

Maschinen können nämlich eine Bewertung s ­<br />

funktion lernen, die neue, noch ungesehene<br />

Situationen klassifiziert, beispielsweise in eine<br />

Situation, in der Kollateralschäden beim Abfeuern<br />

einer Luft-Boden-Rakete minimal sein würden – oder<br />

eben auch nicht. Auf dieser Grundlage könnten sie<br />

dann eine Entscheidung fällen, so ähnlich wie das ein<br />

Colonel der US-Armee heute auch macht.<br />

Aber eine solche Bewertungsfunktion könnte<br />

eventuell auch noch andere Dinge: Sie könnte beispielsweise<br />

absolute Regeln beinhalten, zum Beispiel<br />

ein absolutes Folterverbot, oder sie könnte aus vielen<br />

Beispielen eine Hierarchie von Werten erlernen, das<br />

ihr erlaubt, in bestimmten Situationen zu lügen,<br />

um Schlimmeres zu verhindern; oder sie könnte<br />

Abschätzungen erlernen, um den Gesamtnutzen einer<br />

Handlung zu maximieren im Sinne einer utilitaristischen<br />

Ethik. Dadurch würde ein solches System<br />

Entscheidungen fällen können, die wir von außen als<br />

moralische Entscheidungen interpretieren würden,<br />

wenngleich die Maschine im menschlichen Sinne<br />

nicht moralisch handelt. Und in diesem Sinne würde<br />

der scheinbare Widerspruch aufgelöst werden.<br />

Prof. Dr. Kai-Uwe Kühnberger<br />

Universität Osnabrück<br />

Künstliche Intelligenz<br />

Fachbereich Humanwissenschaften<br />

E-Mail: kkuehnbe@uni-osnabrueck.de<br />

Internet: www.ikw.uni-osnabrueck.de/das_<br />

institut/personal.html?no_cache=1

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!