21.07.2023 Aufrufe

O+P Fluidtechnik 7-8/2023

O+P Fluidtechnik 7-8/2023

O+P Fluidtechnik 7-8/2023

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

INTERVIEW<br />

Herr Makansi, Sie haben Ihre Ideen für ein Forschungsvorhaben<br />

zur agentenbasierten Regelung und Steuerung von Fluidsystemen<br />

bereits mehrfach einem Fachpublikum vorgestellt. Was ist<br />

kurz gesagt der Kern Ihres Ansatzes? Wer sind die Agenten? Was<br />

ist das Ziel?<br />

Zustand<br />

Agent<br />

Handlungsregel<br />

Aktion<br />

Der Kern des angesprochenen Forschungsvorhabens ist, die<br />

Potenziale der künstlichen Intelligenz zur Lösung komplexer<br />

Regel- und Steueraufgaben für fluidtechnische Anwendungen<br />

nutzbar zu machen. In diesem Kontext ist meistens auch von<br />

Agenten die Rede. Damit sind Software-Agenten gemeint, die<br />

gewissermaßen eigenständig, gemäß eines angelernten Verhaltens,<br />

mit der Umgebung interagieren. Spannend ist hierbei, dass<br />

das Anlernen dieser Agenten in Teilen den menschlichen Lernprozess<br />

imitiert, indem einem Agenten durch Belohnung und<br />

Bestrafung mitgeteilt wird, welches Verhalten von ihm gefordert<br />

ist. Dieser Lern- bzw. Trainingsprozess läuft algorithmisch ab<br />

und ist daher gut automatisierbar. Das Ziel ist, in einem teilautomatisierbaren<br />

Entwicklungsprozess Agenten zu erhalten,<br />

die eine hochperformante Maschinensteuerung ermöglichen.<br />

T<br />

p x<br />

U<br />

U<br />

Reinforcement<br />

Learning<br />

Algorithmus<br />

U<br />

Umgebung<br />

Optimierung<br />

Belohnung<br />

In der Vielzahl von Anwendungen, in der wir beeindruckende<br />

Leistungen von Algorithmen und maschinellem Lernen bereits<br />

gesehen haben - was wäre am ehesten mit Ihrem Ansatz<br />

vergleichbar?<br />

DER AGENT „LERNT“, WELCHE<br />

AKTIONEN IN WELCHEN SITUA-<br />

TIONEN AUSZUFÜHREN SIND<br />

In der Tat findet maschinelles Lernen immer stärkeren Einzug<br />

in vielfältigste Anwendungen, von Computerspielen über autonomes<br />

Fahren bis hin zu Investmentplanung und Chatsystemen.<br />

Auch wenn sie alle im Hintergrund auf ähnlichen Konzepten<br />

basieren, gibt es doch anwendungsspezifische Eigenheiten,<br />

wie etwa die Beschaffenheit und Verfügbarkeit der Daten<br />

oder Anforderungen an die Zuverlässigkeit trainierter<br />

Agenten. Im Bereich industrieller Anwendungen finden wir<br />

meist die Situation vor, dass wir zum einen sicherheitstechnische<br />

Rahmenbedingungen einhalten müssen und zum anderen<br />

qualitativ hochwertige Daten eher rar sind. Hinsichtlich<br />

der sicherheitstechnischen Ansprüche können wir viele Parallelen<br />

zum autonomen Fahren finden. Wir können aus Sicherheits-<br />

und Kostengründen die Agenten nicht einfach frei im<br />

Feld, an realen Maschinen oder Fahrzeugen, üben lassen. Eine<br />

mögliche Lösung, die wir im angestrebten Forschungsvorhaben<br />

verfolgen wollen, besteht darin, die Agenten im Vorfeld<br />

an Simulationsmodellen des Zielsystems vorzutrainieren, sodass<br />

der Trainingsaufwand am realen System reduziert werden<br />

kann. Darüber hinaus müssen wir für unsere fluidtechnischen<br />

Anwendungen, ebenso wie beim autonomen Fahren, absichern,<br />

dass trainierte Agenten keine Unfall- oder Gefahrensituationen<br />

verursachen, um sie in Verkehr bringen zu können.<br />

Dafür möchten wir in dem geplanten Projekt die aktuell in der<br />

Umsetzung befindlichen rechtlichen Rahmenbedingungen,<br />

wie die EU-Maschinenrichtlinie und den Vorschlag der Richtlinie<br />

über KI-Haftung aufgreifen und unsere technischen Lösungen<br />

danach ausrichten und auf Konformität prüfen.<br />

01 Schematische Darstellung des Reinforcement Learning-<br />

Prozesses mit der Rolle des Agenten<br />

Es ist also keine Künstliche Intelligenz, die dahinter sitzt –<br />

oder doch?<br />

Der Ausdruck „Künstliche Intelligenz“ wird meist als Synonym<br />

für allerlei Systeme verwendet, die mit maschinellem Lernen<br />

arbeiten. Das ist auch naheliegend, da es Analogien zum<br />

menschlichen Lernprozess gibt und die entsprechenden Systeme<br />

auch meist darauf abzielen, menschenähnliches Verhalten<br />

zu replizieren. Dahinter stecken dann aber doch im Wesentlichen<br />

skalierbare mathematische Strukturen wie neuronale Netze<br />

und dazu passende Optimierungsalgorithmen, die von Menschen<br />

konfiguriert werden und mit von Menschen ausgewählten<br />

Informationen gespeist werden. Folglich haben diese „künstlichen<br />

Intelligenzen“ keine eigene Intelligenz, sondern können<br />

lediglich Aufgaben innerhalb eines Rahmens ausführen, für den<br />

sie programmiert wurden.<br />

Was hat die agentenbasierte Regelung mit Condition Monitoring<br />

gemeinsam und wo unterscheidet sie sich?<br />

Die wahrscheinlich größte Gemeinsamkeit dieser beiden Techniken<br />

ist, dass sie beide im Kontext von maschinellem Lernen<br />

und industriellen Anwendungen Erwähnung finden. Ansonsten<br />

besteht ein wesentlicher Unterschied zwischen den beiden<br />

Techniken in ihrer Funktionsweise und ihren Zielen. Bei der<br />

agentenbasierten Regelung ist das Ziel, dass ein Agent „erlernt“,<br />

welche Aktionen in welchen Situationen auszuführen sind, um<br />

ein von der Umgebung gewünschtes Verhalten herbeizuführen.<br />

Dafür kommen Methoden des sogenannten Reinforcement<br />

Learnings (deutsch: bestärkendes Lernen) zum Einsatz, bei<br />

denen der Lernprozess auf Interaktion mit der Umgebung, also<br />

gewissermaßen einem Trial-and-Error-Prinzip, beruht. Das Ziel<br />

des Condition Monitorings ist hingegen, den Zustand eines Sys-<br />

www.oup-fluidtechnik.de <strong>O+P</strong> <strong>Fluidtechnik</strong> <strong>2023</strong>/07-08 23

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!