11. Osnabrücker Wissensforum
Zukunft. Fragen. Antworten
Zukunft. Fragen. Antworten
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
34<br />
daran, dass Maschinen auf fundamental anderen<br />
Prinzipien der Informationsverarbeitung basieren als<br />
wir Menschen. Deshalb sind sie uns Menschen auch<br />
in einigen Dingen deutlich überlegen, in anderen aber<br />
nicht.<br />
Soweit haben wir einen Widerspruch, was meine<br />
Antworten auf die beiden Fragen angeht. Aber,<br />
und dies ist ein entscheidender Punkt: Maschinen<br />
können natürlich moralisches Handeln simulieren,<br />
beziehungsweise lernen, dieses zu simulieren. Ich<br />
würde so weit gehen zu behaupten, sie können das<br />
vermutlich in Zukunft so gut simulieren, dass sie darin<br />
nicht unbedingt signifikant schlechter sein müssen als<br />
wir Menschen.<br />
Maschinen können nämlich eine Bewertung s <br />
funktion lernen, die neue, noch ungesehene<br />
Situationen klassifiziert, beispielsweise in eine<br />
Situation, in der Kollateralschäden beim Abfeuern<br />
einer Luft-Boden-Rakete minimal sein würden – oder<br />
eben auch nicht. Auf dieser Grundlage könnten sie<br />
dann eine Entscheidung fällen, so ähnlich wie das ein<br />
Colonel der US-Armee heute auch macht.<br />
Aber eine solche Bewertungsfunktion könnte<br />
eventuell auch noch andere Dinge: Sie könnte beispielsweise<br />
absolute Regeln beinhalten, zum Beispiel<br />
ein absolutes Folterverbot, oder sie könnte aus vielen<br />
Beispielen eine Hierarchie von Werten erlernen, das<br />
ihr erlaubt, in bestimmten Situationen zu lügen,<br />
um Schlimmeres zu verhindern; oder sie könnte<br />
Abschätzungen erlernen, um den Gesamtnutzen einer<br />
Handlung zu maximieren im Sinne einer utilitaristischen<br />
Ethik. Dadurch würde ein solches System<br />
Entscheidungen fällen können, die wir von außen als<br />
moralische Entscheidungen interpretieren würden,<br />
wenngleich die Maschine im menschlichen Sinne<br />
nicht moralisch handelt. Und in diesem Sinne würde<br />
der scheinbare Widerspruch aufgelöst werden.<br />
Prof. Dr. Kai-Uwe Kühnberger<br />
Universität Osnabrück<br />
Künstliche Intelligenz<br />
Fachbereich Humanwissenschaften<br />
E-Mail: kkuehnbe@uni-osnabrueck.de<br />
Internet: www.ikw.uni-osnabrueck.de/das_<br />
institut/personal.html?no_cache=1