Aufrufe
vor 4 Jahren

KEM Konstruktion 04.2020

  • Text
  • Manufacturing
  • Antriebstechnik
  • Anwendungen
  • Dichtungen
  • Digitalisierung
  • Elektromotoren
  • Fertigung
  • Getriebe
  • Hydraulik
  • Konstruktion
  • Leichtbau
  • Lineartechnik
  • Maschinenelemente
  • Motor
  • Sicherheitskupplung
  • Steuerungstechnik
  • Verbindungstechnik
Trendthemen: Digitalisierung, Additive Manufacturing; KEM Porträt: Prof. Christoph Lütge, TU München; KEM Perspektiven: Digitalisierung im Leichtbau - Kein Ende der Diät

MAGAZIN PORTRÄT Im

MAGAZIN PORTRÄT Im Gespräch: Prof. Christoph Lütge, TUM, über Ethik in der künstlichen Intelligenz „Eine Menge ethischer Chancen von KI“ Künstliche Intelligenz (KI) gilt als Schlüsseltechnologie. KI weiterzuentwickeln und in zukunftstragende Anwendungen zu führen, beschäftigt Ingenieure wie auch Mega-Konzerne. Wie Chancen und Risiken künstlicher Intelligenz aus ethischer Sicht zu bewerten sind, erläutert Prof. Christoph Lütge, Leiter des Institute for Ethics in Artificial Intelligence an der TU München, im Interview mit KEM Konstruktion. Interview: Nico Schröder, Korrespondent KEM Konstruktion, Augsburg KEM Konstruktion: Herr Professor Lütge, Sie leiten das 2019 gegründete Institute for Ethics in Artificial Intelligence (IEAI) an der TU München. Mit welcher Arbeitsdefinition von künstlicher Intelligenz oder KI arbeiten Sie? Christoph Lütge: KI muss externe Daten korrekt interpretieren können, muss auf der Basis dieser Daten lernen können und muss sich anhand der Daten flexibel anpassen können. KEM Konstruktion: Machine Learning ist für Sie ein Kernbereich künstlicher Intelligenz? Lütge: Das sehe ich so. Ich behaupte gerade nicht, das wäre noch nicht „die richtige KI“. Bild: Sonja Herpich „KI ist eine Technologie, die viel ändern wird. Ich beantworte lieber die Frage, welche Bereiche sie nicht ändern wird.“ KEM Konstruktion: Worum geht es bei Ethikfragen im Zusammenhang mit künstlicher Intelligenz? Lütge: Gleich zu Anfang weise ich immer darauf hin, dass Ethik nicht nur die Risiken, sondern auch die Chancen behandelt. Bevor man zu den Risiken kommt, gibt es eine Menge ethischer Chancen von KI. Dazu zählen etwa Ansätze, Unfälle zu vermeiden und Leben zu retten – beim autonomen Fahren wird das enorm wichtig. Auch zählen dazu Krebsfrüherkennung, Pflegeleistungen oder Möglichkeiten, Artenschutz und allgemein Nachhaltigkeit zu stärken. KEM Konstruktion: Wo liegen, ethisch betrachtet, hingegen Risiken im Zusammenhang mit KI? Lütge: Die Risikobetrachtung bewegt sich etwa um Fragen, wie sicher die Systeme sind – gerade bei Angriffen von außen. Wichtig ist auch, inwieweit es Fairness oder eben Voreingenommenheiten der Systeme gibt, die häufig auf einer bestimmten Auswahl von Trainingsdaten basieren. Und wie steht es um die Erklärbarkeit von KI, explainable AI? Also wie gestalte ich KI-Systeme zumindest prinzipiell erklärbar, wenngleich sie Black-Box-Charakter haben? Weitere Aspekte sind digitale Kompetenz und Bildung. Dahinter steht die Frage, wie der Umgang mit KI-Systemen erlernt wird. KEM Konstruktion: Sollte erkennbar sein, wo und wann Entscheidungen KI-basiert gefällt werden? Christoph Lütge leitet das Institute for Ethics in Artificial Intelligence (IEAI) an der TU München KEM Konstruktion: Eine eher offene Definition, die auch widerspiegelt, dass unterschiedliche Fakultäten Teil Ihres Teams sind. Lütge: Ja. Und sie erlaubt es, Aspekte miteinzubeziehen, die mit enger gefassten Definitionen nicht gefasst werden können. Wir arbeiten einerseits von der technischen Seite her, vor allem der Informatik, mit KI, aber eben auch aus der Perspektive der Geistes- und Sozialwissenschaften. Lütge: Es gibt gegenwärtig Tendenzen, zu sagen, eine künstliche Intelligenz muss sich sofort als solche identifizieren. Es gibt Studien, die zeigen, dass es hier einen gewissen Trade-off (eine gegenläufige Abhängigkeit; Anm. d. Red.) zwischen dieser Transparenz und der Effizienz geben kann. Das kann ein Problem darstellen. Der Punkt ist einfach, dass für viele Leute – wenn sie sehen, es handelt sich um ein KI-System – das Vertrauen sinkt, obwohl die Systeme eigentlich sehr hilfreich sein könnten. Sie verlieren also an Effizienz: Studien zeigen, dass wenn sich Chat-Bots identifizieren, sie ihren Job nicht mehr so gut erfüllen können. Beim autonomen Fahren ist es ähnlich. Wie soll sich ein autonomes Fahrzeug identifizieren? Eine schwierige Frage. Bild: Sonja Herpich 12 K|E|M Konstruktion 04 2020

Zu Lütges Forschungsschwerpunkten gehören Fragen der Unternehmensethik und der Ethik digitaler Technologien wie künstliche Intelligenz und autonomes Fahren K|E|M Konstruktion 04 2020 13

KEM Konstruktion