27.09.2022 Views

22_09_OHO_Blattwerk_Magazin_NEU_web

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Viele Menschen fühlen Panik in sich aufsteigen, wenn

sie an die Zukunft denken und sich vorstellen, dass

Künstliche Intelligenz sie zum Beispiel aus ihrer Arbeit

drängt.

den Autos dem Modell ein Bild und sagt: Wenn du diese

Kurve siehst, musst du das Auto abbiegen lassen. Aufgabe

des Modells ist, herauszufinden: Was muss das Auto als

Nächstes tun? Das Auto kriegt das Bild, denn es hat eine

Kamera auf dem Dach und Sensoren. Basierend auf den

Bildern sagt das Modell, was das Auto als Nächstes tun

soll. Der Mensch muss im Programmiervorgang annotieren

und sagen: Bei dem Bild muss das Auto bremsen, bei

diesem rechts abbiegen, bei Stopptafel stehenbleiben. Der

Autopilot wird also mit riesigen Datenmengen trainiert, und

so werden die freien Parameter im Modell immer weiter

angepasst.

Ein anderes Beispiel: Das Modell bekommt Daten von einer

bestimmten Person – Alter, Geschlecht etc. – und soll voraussagen:

Kauft der Mensch in den nächsten drei Monaten

ein iPad? Oder ein Modell soll die nächste beste Aktion in

einem Videospiel prognostizieren: Das kann es am besten,

wenn man ihm ein Bild gibt.

Der wichtige Schritt in diesem Paradigmenwechsel ist dieser:

Im klassischen Kodieren überlegt sich der Mensch diese

Regel und schreibt sie hin; bei Machine Learning ist es

so, dass das datengetrieben ist. Du sammelst Daten – von

Menschen, die ein iPad kaufen, und Menschen, die keines

kaufen, und dann muss das Modell herausfinden, wie es

die Unterscheidung macht.

Viele fragen das ... es wird wirklich, wirklich, wirklich disrupted

werden (Anm.: „disrupted“ heißt wörtlich „durcheinandergebracht“

oder „gestört“, der Begriff wird in der

Wirtschaft im Zusammenhang mit tiefgreifenden Formen

von zumindest geplanter Innovation verwendet). Wenn die

Programme immer besser werden, werden sicher einige

Arbeitsplätze anders sein oder es wird sie in dieser Form

nicht mehr geben. Der Lastwagen hat die Arbeit von vielen

Leuten geändert – und bei Deep Learning kriegst du auch

ganz andere Berufsgruppen. Es gibt diese generativen Modelle

– zum Beispiel Dall-E: Man gibt dem Programm eine

Beschreibung und es macht eine Zeichnung dazu, das wird

das Feld der Grafikdesignerinnen und -designer betreffen.

Es gibt auch top Sprachmodelle, es ist irre, was die können.

Texte schreiben, Musik machen, Content generieren. Zum

Beispiel: Man füttert der Künstlichen Intelligenz den Werbefilm

und sie macht eine Musik dazu. Das wird vielleicht noch

ein bisschen dauern, ist aber durchaus denkbar. Woran

auch schon gearbeitet wird, ist, dass Computerprogramme

selber coden. Wenn du dann nur mehr einen Text schreiben

musst, der beschreibt, was der Computer tun soll, die

KI liest das, versteht den Text und schreibt das Programm.

In dieser Form ist so etwas noch nicht erhältlich, aber es ist

nicht unmöglich, dass so etwas kommt. Wird es uns dominieren?

Es sind Menschen, die das betreiben, Menschen,

die das bauen – eine solche Dominanz ist, glaube ich, ein

bisschen illusorisch. Wir sind weit, weit weg davon und

können auf dem Weg sicherstellen, dass wir die Oberhand

behalten und nicht dominiert werden.

Welche Rolle spielt denn Künstliche Intelligenz, wenn

es um Kunst geht?

Es gibt generative Netzwerke, die Bilder zeichnen – da sind

auch schon welche versteigert worden um einen Haufen

Geld –, und es gibt Transfer-Learning-Sachen, wo man der

KI sagt: Du hast ein Foto und sagst, mach mir das Bild im

Stil von, zum Beispiel, Munchs „Schrei“, das ist ein Deep-Learning-Tool.

Was Kreativität ist, ist ein superspannendes Thema. Es gibt

Programme, die schreiben Texte, welche, die Musik machen

oder Bilder malen – da sind keine Grenzen gesetzt,

von der Künstlerin oder dem Künstler her und von der

Technik her und es ist superspannend zu sehen, was die

Technik macht. So viel Input und so viel Wissen wie die

Maschine kann ein Mensch nicht haben. Dafür schaffen wir

Menschen es wirklich gut, zu verallgemeinern. Wir brauchen

nur ein Bild einer Katze zu sehen und wir wissen das

nächste Mal, auch wenn die Katze anders aussieht: Das

ist eine Katze. Mit so was hat die KI noch Schwierigkeiten.

Und dann ist noch sehr spannend, wie ein „Interface“ aussehen

kann, also wie man die menschliche Kreativität mit

Machine-Learning-Methoden zusammensetzen kann. Da

kann man ja Sachen ausprobieren.

25

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!