karriereführer wirtschaftswissenschaften 2.2021 / Ethik#kf_wiwiUnkontrollierbarWäre es grundsätzlichmöglich, eine superintelligenteKünstliche Intelligenz (KI)zu kontrollieren? Mit dieserFrage beschäftigten sichComputerwissenschaftler*innenund Philosoph*innen in derStudie „Superintelligence cannotbe contained: Lessons fromComputability Theory“. Dabeinimmt der Studientitel schon dieAntwort vorweg: Nein.Foto: AdobeStock/ apopiumvon Christoph BergerZugegeben: Das Szenario ist konstruiert.Und (noch) existiert es nur in derTheorie. Die Wissenschaftler*innengehen in ihrer Annahme von einer KIaus, deren Intelligenz dem Menschenüberlegen ist und die selbstständigalles lernen kann. Zudem ist sie an dasInternet angeschlossen und hat Zugriffauf alle Daten der Menschheit: Sie kannalle bestehenden Programme ersetzenund alle ans Internet angeschlossenenMaschinen kontrollieren. Würde sicheine solche KI für das „Gute“ einsetzenoder die Menschheit vernichten und dieErde übernehmen?„Eine superintelligente Maschine, diedie Welt kontrolliert, klingt nach Science-Fiction.Doch schon heute gibt esMaschinen, die bestimmte wichtigeAufgaben selbstständig erledigen, ohnedass Programmier*innen komplett verstehen,wie sie das gelernt haben.Daher stellt sich für uns die Frage, obdas für die Menschheit irgendwannunkontrollierbar und gefährlich werdenkönnte“, sagt Manuel Cebrian, Leiter derForschungsgruppe „Digitale Mobilisierung“am Forschungsbereich Menschund Maschine am Max-Planck-Institutfür Bildungsforschung und Co-Autorder Studie.Bisher wurden weltweit zwei Ideen entwickelt,wie sich eine superintelligenteKI beherrschen lassen könnte. Entwederwerden die der KI zur Verfügung stehendenRessourcen eingeschränkt. Daswürde bedeuten, dass man sie vomInternet und anderen technischen Gerätenabschottet, also den Kontakt zurAußenwelt blockiert. Dies hätte allerdingsauch zur Folge, dass die Fähigkeitender KI deutlich geringer wären undsich die großen Probleme der Menschheitnicht lösen lassen. Die zweite Optionbesteht darin, die KI von vornhereinzu motivieren, nur Ziele zu verfolgen,die im Interesse der Menschheit liegen.Zum Beispiel könnten ethische Regelneinprogrammiert werden.Die an der Studie beteiligten Forscher*innenzeigen jedoch, dass alldiese Ideen ihre Grenzen haben. Auchsie versuchten einen theoretischenAlgorithmus zu konzipieren, der sicherstellensollte, dass eine superintelligenteKI unter keinen Umständen derMenschheit schadet. Dieser Algorithmussimuliert zunächst das Verhaltender KI und stoppt sie, wenn er es alsschädlich erachtet. Eine genaue Analysedieses Algorithmus zeigte jedoch, dassnach aktuellem Stand der Computerwissenschaftenein solcher Algorithmusnicht programmiert werden kann.„Bricht man das Problem auf einfacheGrundregeln aus der theoretischenInformatik herunter, zeigt sich, dass einAlgorithmus, der einer KI befehlenwürde, die Welt nicht zu zerstören, sichwomöglich aufhängen würde. Manwüsste dann nicht, ob der Algorithmusdie Bedrohung noch analysiert oder ober aufgehört hat, die schädliche KI einzudämmen.Das macht diesen Algorithmuspraktisch unbrauchbar“, sagt IyadRahwan, Direktor des ForschungsbereichsMensch und Maschine.Auf Basis dieser Berechnungen sei essomit nicht möglich, einen Algorithmuszu programmieren, der erkennt, ob eineKI der Welt Schaden zufügen würdeoder nicht. Hinzu komme, dass möglicherweisenicht einmal erkennbar sei,ob eine Maschine superintelligent ist.Denn, ob eine Maschine eine dem Menschenüberlegene Intelligenz besitzt,lasse sich nach aktuellen Erkenntnissenebenfalls nicht berechnen, so die Forschungsgruppe.28
#Karriere-Freeclimber?• Unsicher, ob du weiter studieren willst?• Vom 1. Zweifel zur 2. Chance: Entdecke neueMöglichkeiten.• Du hast dein Studium bereits abgebrochen?• Für deinen persönlichen Neustart:www.karrierefuehrer.de/neustartBilder: Smartphone: Fotolia/handy © vege, Laptop: Fotolia/Sven Bähren, iPad: Fotolia/simo98829