12-2022
Fachzeitschrift für Industrielle Automation, Mess-, Steuer- und Regeltechnik
Fachzeitschrift für Industrielle Automation, Mess-, Steuer- und Regeltechnik
- TAGS
- kuenstliche intelligenz
- elektromechanik
- antriebe
- stromversorgung
- hmi
- industrielle kommunikation
- robotik
- qualitaetssicherung
- bildverarbeitung
- automatisierung
- sensorik
- messtechnik
- bedienen und visualisieren
- messen steuern regeln
- bauelemente
- iot
- embedded systeme
- sbc boards module
- software
- industrie pc
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Big Data<br />
Weiterverarbeiten<br />
der Daten von hoher Qualität<br />
Datengetriebene Verarbeitungsprozesse<br />
setzen Daten in geordneter<br />
Quantität und hoher Qualität<br />
voraus. Man spricht vom Reifegrad<br />
der Daten. Je höher der ist,<br />
umso größer ist auch der potenzielle<br />
Mehrwert.<br />
Eine Erhöhung des Daten-Reifegrads<br />
erfolgt typischerweise in<br />
den folgenden Stufen:<br />
• Datenauswahl<br />
• Datenbereinigung und -verbesserung<br />
• Daten-Labeling<br />
• Datenaufbereitung für die Entwicklung<br />
der geplanten Anwendung<br />
Man spricht von einer Datenstrategie.<br />
Eine gute Datenstrategie bildet<br />
die Basis für das Erreichen eines<br />
hohen Reifegrades und damit auch<br />
für den Erfolg von Projekten.<br />
Bei der Datenauswahl sortiert<br />
man alle Daten heraus, die auf<br />
den ersten Blick Nutzen versprechen.<br />
Datenbereinigung und -verbesserung<br />
sind der zweite Schritt<br />
durch eine eingehendere Einzelprüfung<br />
und eine eventuelle Optimierung<br />
der Daten. Daten-Labeling<br />
braucht man z.B. für maschinelles<br />
Lernen. Hier müssen Systeme<br />
u.a. verstehen, was auf einem Foto<br />
gezeigt, in einer Sprachaufnahme<br />
gesagt oder in einem Text geschrieben<br />
wird. Die Datenaufbereitung<br />
für die Entwicklung der geplanten<br />
Anwendung schließlich könnte ein<br />
Umformatieren der Daten notwendig<br />
machen zwecks optimaler Nutzung<br />
der Daten.<br />
In der Praxis steigern Unternehmen<br />
die Datenreife kostengünstig<br />
z.B. durch folgende Schritte:<br />
• systematisches Erfassen der<br />
Daten (Vorgaben, Filter, Auswahlkriterien)<br />
• Nutzung von vortrainierten Modellen<br />
und/oder gelabelten Datensätzen<br />
• Aufbau eigener Ressourcen<br />
Man erkennt reife Daten u.a. daran,<br />
dass man damit KI-Modelle ohne<br />
weitere manuelle Tätigkeiten trainieren<br />
kann.<br />
Anwenden<br />
der verarbeiteten Daten<br />
Über den Erfolg von KI-Projekten<br />
entscheiden immer mehr die Daten<br />
statt der Algorithmen. Haben die<br />
Daten einen hohen Reifegrad, so<br />
sind zahlreiche KI-Methoden nutzbar,<br />
die von der einfachen Datenstrukturanalysen<br />
über die Erstellung<br />
von Prognosen bis hin zur vollständigen<br />
Automatisierung komplexer<br />
Prozesse reichen. Inzwischen steht<br />
in der KI die datengetriebene Verarbeitung<br />
im Vordergrund.<br />
Das Schlagwort für die datengetriebenen<br />
Verarbeitung könnte lauten:<br />
„Aus Daten lernen“. Neuronale<br />
Netze bilden da eine gute Basis. Die<br />
Lern-Spielarten sind:<br />
• Deep Learning<br />
Learning auf Basis künstlicher<br />
neuronaler Netze und mit großen<br />
Datenmengen<br />
• Unsupervised Learning<br />
Learning mit relativ unreifen Daten<br />
„Benötigt man anfangs noch einen erfahrenen Data-Science-Generalisten,<br />
um die Vielfältigkeit der Anforderung abzudecken, werden mit<br />
zunehmenden Reifegrad Spezialisten (Data- und/oder Machine Learning<br />
Engineers) notwendig, um Lösungen erfolgreich zu erarbeiten.“<br />
Peter Küssner, Ginkgo Analytic<br />
• Supervised Learning<br />
Learning mit gelabelten Daten<br />
• Reinforcement Learning<br />
Learning mit einem realistischen<br />
Bewertungssystem und einer angereicherten<br />
Datenbasis<br />
Damit lassen sich algorithmische<br />
Herausforderungen und Limitierungen<br />
am besten bewältigen. Als<br />
Schlüssel zum Erfolg lassen sich<br />
folgende Schritte festmachen:<br />
• Datenquellen und Integrationspunkte<br />
hierarchisch nutzen<br />
Für den Bereich Data Science/Data Analytics wurden im Jahr<br />
2020 bereits mehr als doppelt so viele Stellenausschreibungen in<br />
den Geschäftsbereichen veröffentlich als in den IT-Abteilungen.<br />
Quelle: Gartner<br />
• möglichst alle betroffenen Mitarbeiter<br />
mit einbeziehen<br />
• Messen/Beurteilen der Teilergebnisse<br />
• nach Möglichkeit gemeinsam mit<br />
anderen Unternehmen agieren<br />
• Teilung von Daten z.B. mit Zulieferern<br />
oder Kunden<br />
• Datenschutzbedenken prüfen und<br />
eliminieren<br />
Die Datenanalyse zur Prozessoptimierung<br />
und -automatisierung kennt<br />
man mittlerweile schon gut, besonders<br />
im Bereich Industrie 4.0. Hier<br />
scheinen datengetriebene und KIgestützte<br />
Anwendungen zur vorausschauenden<br />
Wartung und Instandhaltung<br />
(Predictive Maintenance) die<br />
Nase vorn zu haben. Dabei werden<br />
beispielsweise Produktionsanlagen<br />
per Sensortechnologie überwacht,<br />
die auf Basis von KI-Algorithmen die<br />
Verschleißzustände der Maschinen<br />
analysieren kann. Wartungs- und<br />
Reparaturprozesse werden so im<br />
Voraus planbar. Anlagenstillstandzeiten<br />
und Wartungs- und Servicekosten<br />
nehmen ab.<br />
„Die Unternehmen, die Daten am besten verwenden, werden am<br />
Ende die Gewinner sein. Denn je mehr Daten Unternehmen effektiv<br />
auswerten, desto mehr lernen sie über ihr eigenes Geschäft.“<br />
Dr. Jürgen Ehneß<br />
„Fertigungsdaten ändern sich ständig. Es ist deshalb geschäftskritisch,<br />
diese Informationen in Echtzeit – über Silos hinweg – abrufbar<br />
zu halten. Das Ziel ist, alle Produktionsdaten durchgängig transparent<br />
zur Verfügung zu stellen – auch auf mobilen Endgeräten, wie<br />
im Lager, Außendienst oder bei Produktionsverantwortlichen, die<br />
remote Abläufe kontrollieren.“<br />
Henrik Jorgensen, Tableau Germany GmbH<br />
Auf diese Weise revolutioniert<br />
beispielsweise das Förderprojekt<br />
Pay-per-Stress das Leasing-Modell<br />
für Maschinen: Nutzer der Maschinen<br />
zahlen dank der KI-gestützten<br />
Auswertung der Maschinendaten<br />
nur den tatsächlichen Verschleiß.<br />
Beispiel<br />
SDW-Projekt EVAREST<br />
Dabei werden Daten über die<br />
gesamte Wertschöpfungskette<br />
gesammelt – vom Rohstoffanbau<br />
über Zulieferung und Produktion<br />
bis hin zum Verkauf im Einzelhandel.<br />
All diese Daten laufen auf einer<br />
zentralen Plattform zusammen und<br />
werden durch weitere Informationen<br />
„Viele schwungvoll und mit hohen Erwartungen verbundene Data-<br />
Science- oder KI-Projekte scheitern, weil sie nie in die Umsetzung<br />
kommen bzw. nicht in den produktiven Betrieb des gesamten Unternehmens<br />
implementiert werden. Es gilt die Voraussetzungen hierfür<br />
bereits zu Beginn des PoC mit in die Planung aufzunehmen und<br />
als Erfolgsfaktor zu definieren.“<br />
Peter Küssner, Ginkgo Analytics<br />
ergänzt, wie Wetterdaten oder Angaben<br />
zu den verwendeten Düngemitteln.<br />
Die entsprechende Datenfülle<br />
erlaubt enorm tiefe Einblicke<br />
in die verschiedensten Stationen<br />
der Wertschöpfungskette. Die Analyseergebnisse<br />
sollen im Rahmen<br />
von EVAREST über einen digitalen<br />
Marktplatz angeboten werden und<br />
dazu beitragen, dass sowohl das<br />
Produkt selbst als auch die Herstellungsprozesse<br />
umfänglich optimiert<br />
werden können – so schließt sich der<br />
Kreis, der sich von der Prozessoptimierung<br />
über das Data-Sharing bis<br />
hin zur Datenveredlung erstreckt.<br />
Fazit<br />
Für Unternehmen ist es wichtig,<br />
sich jetzt mit den Potenzialen ihrer<br />
Daten auseinanderzusetzen. Denn<br />
sie lediglich zu sammeln, wird in<br />
Zukunft nicht ausreichen, um mit<br />
der zunehmend digitalisierten Konkurrenz<br />
Schritt halten zu können.<br />
FS<br />
14 PC & Industrie <strong>12</strong>/<strong>2022</strong>