Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Im Jahr 2020 werden es – so vorsichtige<br />
Prognosen – bereits 50 Milliarden<br />
sein. Dinge, nicht Menschen.<br />
„Auf künstliche Intelligenz<br />
gibt es nur zwei Reaktions-<br />
Wir leben heute in einem riesigen<br />
möglichkeiten: Künstliche<br />
Gewebe aus Möglichkeiten – dem<br />
World Wide Web. Der „Web-Stuhl“ des<br />
21. Jahrhunderts wird nur anders<br />
(nämlich englisch) ausgesprochen<br />
und liegt in der sogenannten „Cloud“,<br />
einer Wolke aus Computern, deren<br />
Rechenkapazitäten über das Netz wie<br />
sierten notwendig wird.“<br />
Services zu mieten sind. Sie macht<br />
möglich, dass die intelligente Fabrik<br />
Stephan A. Jansen<br />
von heute an keinem konkreten Ort<br />
stehen muss, weil sich zum Beispiel<br />
eine Gießerei, ein Elektrobetrieb und<br />
ein Fertigungsbetrieb einer Region zu<br />
einem virtuellen Gefüge vernetzen.<br />
Das könnte eine Chance für kleine Unternehmen sein, wenn sie ihren Platz<br />
in diesen neuen digitalen Wertschöpfungsketten finden. Diese Vernetzung<br />
kann im privaten Bereich aber auch bedrohlich werden, wenn auf einmal<br />
der Kühlschrank bestimmt, wann ich Bier bekomme und wann nicht. Manche<br />
mögen es im Einzelfall als eine Entlastung erleben, nicht mehr selbst<br />
nachdenken zu müssen. Aber wie weit geht das? Entscheidet irgendwann<br />
das Internet der Dinge auch darüber, was ich lesen, was ich denken und woran<br />
ich mich erinnern soll? Können wir Emotionen in Beziehungen ausleben,<br />
die vom Computer gesteuert werden? Was machen eingeblendete Zusatzinformationen<br />
mit unserer Fähigkeit zu sehen? Das sind Fragen, um die es<br />
kein Herumnavigieren gibt.<br />
Dummheit oder menschliche<br />
Intelligenz ... Sie beginnt<br />
da wo Kreativität im Nichtwissen,<br />
im Nicht-Regelba-<br />
Der Techniksoziologe Ortwin Renn nennt drei generelle Befürchtungen<br />
im Zusammenhang mit Robotern und der fortschreitenden Digitalisierung:<br />
Arbeitsplatzverlust, Beziehungsverlust und Kontrollverlust. Gerade<br />
Letzterer scheint mit dem Vernetzungsgrad unserer Welt exponentiell zu<br />
wachsen. Weil langsam die Maschinen das Kommando übernehmen und uns<br />
Menschen vorschreiben, was wir lesen, tun und fühlen sollen. Dass viele<br />
Menschen gegenüber Robotern mit ihrer vermeintlichen Intelligenz zu übertriebenem<br />
Gehorsam neigen, macht diese Situation noch brisanter, wie Alan<br />
R. Wagners Experimente zeigen. Dabei geleitete ein Roboter die Versuchspersonen<br />
in einen Raum, in dem sie Aufgaben bearbeiten sollten. Während<br />
die Probanden grübelten, füllten die Forscher die Flure des Gebäudes mit<br />
künstlichem Qualm und lösten Feueralarm aus. Der Roboter, an dem nun in<br />
roter Schrift „Emergency Guide Robot“ leuchtete, erbot sich als Führer. Die<br />
Probanden hätten das Gebäude einfach auf dem Weg verlassen können, auf<br />
dem sie gekommen waren. Doch sie folgten dem Roboter, auch wenn dieser<br />
im Kreis herumfuhr oder sie in einen dunklen Abstellraum ohne erkennbare<br />
Türe führte.<br />
Künstliche Intelligenz: Antworten, ohne zu antworten<br />
In den 1950er-Jahren versucht der britische Mathematiker Alan Turing,<br />
einen messbaren Grundstein für künstliche Intelligenz zu legen. Sein<br />
„Turing-Test“ genanntes Verfahren besteht aus einem Chat, bei dem die Testperson<br />
mit zwei anonymen Gesprächspartnern via Tastatur und Bildschirm<br />
kommuniziert. Wenn die Testperson nicht mehr unterscheiden kann, wer<br />
von den beiden Mensch oder Maschine ist, dann hat der Rechner den Turing-<br />
Test bestanden. Was er dabei übersieht, ist, dass es einen grundsätzlichen<br />
Unterschied zwischen „intelligent sein“ und „Intelligenz<br />
simulieren“ gibt und dass die Stärke seiner Simulationsmaschinen<br />
gerade darin liegt, dass sie dumm sind und<br />
sie sich mit keinem störenden Bewusstsein herumschlagen<br />
müssen.<br />
Noch einen Schritt weiter geht der Informatiker Joseph<br />
Weizenbaum im Jahr 1966 mit seinem selbst entwickelten<br />
Programm Eliza, das auf humorvolle Weise illustriert,<br />
wie ein Rechner menschliche Sprache verarbeiten kann.<br />
Dabei parodierte er Sitzungen der Gesprächspsychotherapie<br />
– und war schockiert, als er feststellen musste, dass<br />
Menschen schon nach kurzer Zeit eine große Nähe zu<br />
ihrem Gegenüber entwickelten und bereit waren, beim<br />
Interagieren mit diesem simplen Algorithmus sehr intime<br />
Dinge von sich preiszugeben.<br />
50 Jahre später gehören sogenannte Bots – Programmminiaturen,<br />
die im Netz automatisiert Aufgaben erledigen<br />
– zu unserem Alltag. Soziale Bots werden eingesetzt, um<br />
mit Nutzern zu interagieren, automatische Antworten zu<br />
setzen, aber auch, um Botschaften in präzise definierten<br />
Zielgruppen zu verbreiten. So kommt eine Untersuchung<br />
der Universität Oxford zu dem Ergebnis, dass nach dem<br />
ersten TV-Duell zwischen Hillary Clinton und Donald<br />
Trump jeder dritte Tweet (37,2% der Kurznachrichten) für<br />
Trump von Computern fabriziert war. Das ist alarmierend,<br />
weil es für normale Benutzer nicht mehr erkennbar<br />
ist, ob ein Beitrag in sozialen Medien wie Twitter von<br />
einer natürlichen Person stammt oder von einer Maschine,<br />
und damit grundlegende, demokratische Meinungsbildungsprozesse<br />
an Algorithmen vergeben werden. Die<br />
Pikanterie daran ist die, dass soziale Medien im Netz<br />
einmal als die großen Demokratieerneuerer gehandelt<br />
wurden. Sind das die Effekte, die sich einstellen, wenn<br />
die Simulation die Intelligenz innen überholt?<br />
Bei näherem Hinsehen liegt der ganzen Debatte um<br />
künstliche Intelligenz wohl eine falsche Grundannahme<br />
zugrunde, dass nämlich biologische und elektronische<br />
Systeme „ähnlich“ arbeiten und unser Gehirn bestenfalls<br />
wie eine Maschine funktioniert. Der italienische Philosoph<br />
Roberto Casati meint, dass wir gut daran täten,<br />
unsere Vorstellungen von Intelligenz zu überdenken:<br />
„Autofahren galt immer als besonders komplexe Aufgabe,<br />
und das ist es ja auch. Inzwischen kommt auch das Google<br />
Car gut durch den Straßenverkehr. Doch es ist nicht intelligent,<br />
es hat eine komplexe Software, die eine Vielzahl von<br />
Situationen erkennen kann und den Wagen eine bestimmte<br />
Reaktion auf einen bestimmten Reiz ausführen lässt. Diese<br />
Inputs bestehen aus telemetrischen Daten. Es regnet, etwas<br />
liegt auf der Fahrbahn herum, da bewegt sich was und so<br />
weiter. Das alles wird vom System registriert und verarbeitet.<br />
Dieses adaptive Verhalten ist keine Intelligenz. Das gilt<br />
auch für Programme, mit denen man Barockmusik in der<br />
Art von Bach komponieren kann. Das ist findige Imitation,<br />
nicht Intelligenz.“<br />
> Fortsetzung nächste Seite<br />
<strong>gangart</strong> 13