22_09_OHO_Blattwerk_Magazin_NEU_web
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Viele Menschen fühlen Panik in sich aufsteigen, wenn
sie an die Zukunft denken und sich vorstellen, dass
Künstliche Intelligenz sie zum Beispiel aus ihrer Arbeit
drängt.
den Autos dem Modell ein Bild und sagt: Wenn du diese
Kurve siehst, musst du das Auto abbiegen lassen. Aufgabe
des Modells ist, herauszufinden: Was muss das Auto als
Nächstes tun? Das Auto kriegt das Bild, denn es hat eine
Kamera auf dem Dach und Sensoren. Basierend auf den
Bildern sagt das Modell, was das Auto als Nächstes tun
soll. Der Mensch muss im Programmiervorgang annotieren
und sagen: Bei dem Bild muss das Auto bremsen, bei
diesem rechts abbiegen, bei Stopptafel stehenbleiben. Der
Autopilot wird also mit riesigen Datenmengen trainiert, und
so werden die freien Parameter im Modell immer weiter
angepasst.
Ein anderes Beispiel: Das Modell bekommt Daten von einer
bestimmten Person – Alter, Geschlecht etc. – und soll voraussagen:
Kauft der Mensch in den nächsten drei Monaten
ein iPad? Oder ein Modell soll die nächste beste Aktion in
einem Videospiel prognostizieren: Das kann es am besten,
wenn man ihm ein Bild gibt.
Der wichtige Schritt in diesem Paradigmenwechsel ist dieser:
Im klassischen Kodieren überlegt sich der Mensch diese
Regel und schreibt sie hin; bei Machine Learning ist es
so, dass das datengetrieben ist. Du sammelst Daten – von
Menschen, die ein iPad kaufen, und Menschen, die keines
kaufen, und dann muss das Modell herausfinden, wie es
die Unterscheidung macht.
Viele fragen das ... es wird wirklich, wirklich, wirklich disrupted
werden (Anm.: „disrupted“ heißt wörtlich „durcheinandergebracht“
oder „gestört“, der Begriff wird in der
Wirtschaft im Zusammenhang mit tiefgreifenden Formen
von zumindest geplanter Innovation verwendet). Wenn die
Programme immer besser werden, werden sicher einige
Arbeitsplätze anders sein oder es wird sie in dieser Form
nicht mehr geben. Der Lastwagen hat die Arbeit von vielen
Leuten geändert – und bei Deep Learning kriegst du auch
ganz andere Berufsgruppen. Es gibt diese generativen Modelle
– zum Beispiel Dall-E: Man gibt dem Programm eine
Beschreibung und es macht eine Zeichnung dazu, das wird
das Feld der Grafikdesignerinnen und -designer betreffen.
Es gibt auch top Sprachmodelle, es ist irre, was die können.
Texte schreiben, Musik machen, Content generieren. Zum
Beispiel: Man füttert der Künstlichen Intelligenz den Werbefilm
und sie macht eine Musik dazu. Das wird vielleicht noch
ein bisschen dauern, ist aber durchaus denkbar. Woran
auch schon gearbeitet wird, ist, dass Computerprogramme
selber coden. Wenn du dann nur mehr einen Text schreiben
musst, der beschreibt, was der Computer tun soll, die
KI liest das, versteht den Text und schreibt das Programm.
In dieser Form ist so etwas noch nicht erhältlich, aber es ist
nicht unmöglich, dass so etwas kommt. Wird es uns dominieren?
Es sind Menschen, die das betreiben, Menschen,
die das bauen – eine solche Dominanz ist, glaube ich, ein
bisschen illusorisch. Wir sind weit, weit weg davon und
können auf dem Weg sicherstellen, dass wir die Oberhand
behalten und nicht dominiert werden.
Welche Rolle spielt denn Künstliche Intelligenz, wenn
es um Kunst geht?
Es gibt generative Netzwerke, die Bilder zeichnen – da sind
auch schon welche versteigert worden um einen Haufen
Geld –, und es gibt Transfer-Learning-Sachen, wo man der
KI sagt: Du hast ein Foto und sagst, mach mir das Bild im
Stil von, zum Beispiel, Munchs „Schrei“, das ist ein Deep-Learning-Tool.
Was Kreativität ist, ist ein superspannendes Thema. Es gibt
Programme, die schreiben Texte, welche, die Musik machen
oder Bilder malen – da sind keine Grenzen gesetzt,
von der Künstlerin oder dem Künstler her und von der
Technik her und es ist superspannend zu sehen, was die
Technik macht. So viel Input und so viel Wissen wie die
Maschine kann ein Mensch nicht haben. Dafür schaffen wir
Menschen es wirklich gut, zu verallgemeinern. Wir brauchen
nur ein Bild einer Katze zu sehen und wir wissen das
nächste Mal, auch wenn die Katze anders aussieht: Das
ist eine Katze. Mit so was hat die KI noch Schwierigkeiten.
Und dann ist noch sehr spannend, wie ein „Interface“ aussehen
kann, also wie man die menschliche Kreativität mit
Machine-Learning-Methoden zusammensetzen kann. Da
kann man ja Sachen ausprobieren.
25