09.01.2024 Views

Leseprobe_Fast_Forward

  • No tags were found...

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Im Jahr 2013 hat ein von der niederländischen Regierung eingesetzter Algorithmus<br />

das Leben von 25.000 Eltern durcheinandergebracht. Künstliche Intelligenz wurde<br />

eingesetzt, um eine ihrer besonderen Stärken auszuspielen, nämlich Vorhersagen<br />

durch die Analyse großer Datenmengen zu treffen. Die Regierung wollte wissen,<br />

welche Personen am ehesten Betrug mit Kinderbetreuungsgeld begehen würden.<br />

Anstatt jedoch auf Beweise zu warten, bestrafte sie die durch KI identifizierten<br />

Familien sofort und forderte sie auf, jahrelang bezogene Leistungen zurückzuzahlen.<br />

Die Familien wurden anhand von „Risikofaktoren“ wie geringem Einkommen<br />

oder doppelter Staatsangehörigkeit in Kategorien eingeteilt. Infolgedessen mussten<br />

Zehntausende von Menschen unnötigerweise Geld zurückzahlen und mehr als<br />

1.000 Kinder wurden in Pflegefamilien untergebracht bevor das Problem erkannt<br />

wurde. 40<br />

Es gibt auch aktuellere Beispiele. So wurden KI-Algorithmen zur Vorhersage von<br />

Rückfallquoten eingesetzt, die wiederum als Grundlage für Entscheidungen über<br />

Kautionen und Verurteilungen dienen. Algorithmen wie das COMPAS-System, das<br />

in den US-Bundesstaaten Kalifornien, Florida, New York und Wisconsin eingesetzt<br />

wird, haben sich jedoch als voreingenommen gegenüber bestimmten rassischen<br />

und ethnischen Gruppen erwiesen und diskriminierende Ergebnissen gebracht,<br />

die in einigen Fällen zu Strafen von bis zu sechs Jahren für ein geringfügiges Vergehen<br />

führten. 41 Eine Möglichkeit, solche Ergebnisse zu vermeiden und KI-Modelle<br />

vertrauenswürdiger zu machen, bestünde darin, ihre Vorhersagen oder Empfehlungen<br />

mit einem „Confidence Score“ (Wert über die Vertrauenswürdigkeit) zu<br />

versehen.<br />

In vielen Fällen wissen die Menschen, die Maschinen trainieren, sehr wenig<br />

über die Realitäten, die sie durch ihre Arbeit beeinflussen. Aber einige erkennen<br />

mittlerweile, dass es notwendig und möglich ist, tragische Fehler wie die oben<br />

beschriebenen zu verhindern. Die Lösung liegt auf der Hand: Man muss Menschen<br />

einbeziehen, die sich mit der Materie auskennen. Einfach nur vage Empfehlungen<br />

für eine breitere Beteiligung auszusprechen geht an der Sache vorbei. Ja,<br />

wir brauchen eine viel breitere Beteiligung und damit eine Repräsentation unterschiedlicher<br />

gesellschaftlicher Belange, aber manchmal müssen wir sehr genau<br />

52

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!