atp edition Automatisierung mit FASA (Vorschau)
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
12 / 2012
54. Jahrgang B3654
DIV Deutscher Industrieverlag GmbH
Automatisierungstechnische Praxis
Virtualisierung im Kontext
eines Prozessleitsystems | 28
Integriertes Engineering mit
Automation Service Bus | 36
Feldgeräte und semantische
Informationsmodell | 44
Automatisierung mit FASA | 52
Effizienz durch ergonomische
Benutzungsschnittstelle | 62
Semantikvielfalt mit
AutomationML beherrschen | 72
Danke!
atp edition ist vom Verband Deutsche
Fachpresse als Fachmedium des Jahres
2012 in der Kategorie Industrie/Produktion/
Design ausgezeichnet worden. atp edition
ist eine Gemeinschaftsleistung aus der
Branche für die Branche. Hinter der hochwertigen
Publikation für Automatisierungstechnik
stecken viele kluge Köpfe. Nicht
nur Chefredakteur, Herausgeber und Beiräte
tragen mit ihrem Agenda-Setting dazu bei,
dass atp edition in ihrer seit über 50-jährigen
Tradition die maßgeblichen Themen der
Automatisierungstechnik bestimmt. Auch
die Fachredaktion leistet mit einem Peer-
Review-Verfahren für wissenschaftlich
fundierte Veröffentlichungen einen unverzichtbaren
Beitrag. Nicht möglich wäre dies
ohne unsere zahlreichen Fach-Autoren. Ein
großes Dankeschön an alle, die hinter atp
edition stehen und das Fachmagazin zu
einem Erfolg machen – und nicht zuletzt
an Sie, unsere Leser.
Ihre Entscheidung für die hochwertige
Publikation atp edition stärkt die Bedeutung
wissenschaftlicher Forschungsarbeiten
in der Automatisierungstechnik.
Print wirkt
„atp edition“ ist ein Printtitel auf höchster
Qualitätsstufe und mit Nachhaltigkeit im
Sinne wiederkehrender Nutzung. Der Titel
erfüllt den selbstgestellten Anspruch eines
anspruchsvollen und seriösen Magazins für
Top-Entscheider zwischen Wissenschaft
und Praxis konsequent.
Entsprechend der journalistischen Konzeption
ist Online hintenangestellt. Die Jury
sah hier „die beispielhafte Umsetzung einer
wissenschaftlich ausgerichteten Fachzeitschrift
mit Magazincharakter“.
EDITORIAL
Die Wettbewerbsfähigkeit sichern
mit den Architekturen der Zukunft
Warum haben Sie zu diesem Magazin gegriffen? Aus Neugier? Aus Interesse?
Zur Weiterbildung? Und wann lesen Sie es? Gleich nach dem Posteingang?
Schnell noch kurz vor Feierabend? Nach Hause mitgenommen? Oder schon gut
abgelegen auf dem Eingangsstapel? Vielleicht sogar mit etwas schlechtem Gewissen,
weil Ihr Job Ihnen eigentlich keine Zeit mehr für Fachzeitschriften lässt?
Nur Mut: Mit der Lektüre steigern Sie Ihre Kompetenz. Sie wissen mehr als
andere, Sie wissen es eher. Und: Kompetenz ist kein Selbstzweck, sondern sie
steigert Ihre Wettbewerbsfähigkeit und vielleicht auch die Ihres Unternehmens.
Im Deutschen sind die Worte „Kompetenz“ und „Wettbewerbsfähigkeit“ sehr
unterschiedlich, das Englische hilft: Nur „competence“ erhält die „competitiveness“,
steigert Ihre Chance im Wettbewerb, der „competition“.
Das vorliegende Heft widmet sich dem Schwerpunkt „Zukünftige Architekturen
von Automatisierungssystemen“ und enthält sechs spannende Beiträge zu
diesem Thema, wobei der Begriff „Architektur“ nicht nur auf die Hardware,
sondern auch auf das Engineering bezogen ist. Da werden zukünftige Technologien
für Automatisierungssysteme vorgeschlagen und bewertet. Da geht es um
Verbesserungen im Dialog des Menschen mit dem Prozess. Und es werden verschiedene
Möglichkeiten zur Integration in heterogenen Systemlandschaften
präsentiert. Zugegeben: Das sind nicht die Themen, die dem Projekt- oder Betriebsingenieur
ab sofort das Leben erleichtern. Aber es ist ein Blick auf die
Zukunft, auf neue Möglichkeiten, auf das, was wir in drei oder fünf Jahren für
unsere Projekte und Betriebe kennen und bewerten können müssen.
Und neben den eigentlichen Themen gibt es auch noch Impulse zu entdecken,
die über den im Beitrag genannten Fall hinaus interessant sind. So zum Beispiel
die Beobachtung von Draht et al., dass Standardisierung und praktischer Einsatz
sich gegenseitig bedingen – und gleichzeitig behindern: Eine gute Standardisierung
setzt praktische Einsatzerfahrung und damit Verbreitung voraus – und die
Verbreitung setzt häufig erst ein, wenn ein Standard existiert. Der Lösungsansatz
eines gemischten Datenmodells, in dem sowohl standardisierte als auch noch
proprietäre Daten übertragen und ausgewertet werden können, hat etwas Geniales.
Vielleicht ist eine solche Idee auf andere Deadlock-Situationen von Standarisierung
und Einsatz übertragbar und verhindert jahrelanges Warten auf „den
perfekten Standard“.
Wenn Sie also dieses Heft lesen und Ihr Chef oder Ihr Controller fragt, warum
Sie sich denn die Zeit nehmen, die „gute alte atp“ zu lesen, geben Sie ihm dieses
Editorial oder gleich das ganze Heft zu lesen. Auch Chefs oder sogar Controllern
kann es nicht schaden, Kompetenz und Wettbewerbsfähigkeit zu steigern – dafür
werden sie sogar bezahlt.
DR. THOMAS
TAUCHNITZ
Leiter Technik am Standort
Frankfurt Pharma, Sanofi-
Aventis Deutschland GmbH,
Mitglied des Namur-Vorstands
atp edition
12 / 2012
3
INHALT 12 / 2012
VERBAND
6 | IEC würdigt 22 deutsche von insgesamt
139 Normungsexperten mit dem IEC 1906 Award
Umsätze der Elektroindustrie gehen um sechs Prozent zurück
7 | GMA wählt Beirat neu und bestätigt seinen Vorsitzenden
8 | Automatisierungsanwender der Prozessindustrie
wagen mehr Internationalisierung
10 | Goldene Namur-Ehrennadel für Gerhard Rehn und Martin Schwibach
11 | Bouaswaig und Yin ausgezeichnet
BRANCHE
12 | AALE 2013: Mehr über Energieeffizienz, Systeme und
Lehre&Forschung in der Automation erfahren
Die IEC 61508 richtig anwenden
Dechema-Preis 2012 für Prof. Dr. Joachim Groß
13 | Neue Richtlinie VDI/VDE 2632 Blatt 2 vereinfacht
Kommunikation zwischen Anbietern und Anwendern
FORSCHUNG
14 | PENG erzeugt Energie aus minimalen Temperaturunterschieden
Modularisierung fördert schnellere Produktion
Mikrochips sollen Raubkopien verhindern
15 | Flinker Modulator: Baustein für effiziente
Datenübertragung gelangt zur Marktreife
Roboter Hytaq fliegt oder fährt je nach Bedarf
Call for Experts: Digitale Anlage im Lebenszyklus
4
atp edition
12 / 2012
PRAXIS
16 | Vernetzte Sicherheitscontroller überwachen
die komplette Montage von Flugzeugrumpf-Schalen
20 | Punktschweißen von Aluminium-Türen des
Porsche Panamera prozesssicher automatisiert
24 | Energiekonzern ENI setzt erstmals in neuer
italienischer Raffinerie auf Foundation Fieldbus
HAUPTBEITRÄGE
28 | Virtualisierung im Kontext eines Prozessleitsystems
S. RUNDE, M. SCHNEIDER, M. GLASER UND S. THIEME
36 | Integriertes Engineering mit Automation Service Bus
S. BIFFL, R. MORDINYI UND T. MOSER
44 | Feldgeräte und semantische Informationsmodelle
S. HODEK, M. LOSKYLL UND J. SCHLICK,
52 | Automatisierung mit FASA
M. WAHLER, T. GAMER, M. ORIOL, A. KUMAR UND M. NAEDELE
62 | Effizienz durch ergonomische Benutzungsschnittstelle
L. GLATHE UND S. KEMPF
72 | Semantikvielfalt mit AutomationML beherrschen
R. DRATH UND M. BARTH
RUBRIKEN
3 | Editorial: Die Wettbewerbsfähigkeit sichern
mit den Architekturen der Zukunft
82 | Impressum, Vorschau
atp edition
12 / 2012
5
VERBAND
IEC würdigt 22 deutsche von insgesamt
139 Normungsexperten mit dem IEC 1906 Award
EINIGE DER PREIS-
TRÄGER und Michael
Teigeler, Mitglied der
Geschäftsführung
der DKE Deutsche
Kommission Elektrotechnik
Elektronik
Informationstechnik
im DIN und VDE
(VDE|DKE). Bild: DKE
Unter insgesamt 139 Preisträgern des IEC 1906 Awards
können sich in diesem Jahr 22 deutsche Normungsexperten
über die internationale Auszeichnung freuen.
Die Internationale Elektrotechnische Kommission würdigt
mit dem Award jährlich besondere Verdienste bei
der Bearbeitung aktueller Normungsprojekte.
Geehrt wurden Dr. Reinhard Salffner (TC 1 „Terminology“),
Dr. Gabriela Fleischer, (TC 3 „Information structures,
documentation and graphical symbols“), Dr.-Ing. Egid
Schneider, (TC 9 „Electrical equipment and systems for
railways“), Dr.-Ing. Volker Rees (TC 17 „Switchgear and
controlgear“), Dr. rer. nat. Ulrich Spindler, (TC 17 „Switchgear
and controlgear“), Hubert Knapp (TC 27 „Industrial
electroheating and electromagnetic processing“, Dr. Martin
Thedens (TC 36 „Insulators“), Thomas Schmid (TC 46
„Cables, wires, waveguides, R.F. connectors, R.F. and microwave
passive components and accessories“), Leo Stuehler
(TC 47 „Semiconductor devices“ ), Dr.-Ing. Hubert Becker
(TC 56 „Dependability“), Thierry Dufaure (TC 57 „Power
systems management and associated information exchange“),
Dr. Bernd Jäkel (TC 65 „Industrial-process mea-
surement and control“ ), Eckehardt Klemm (TC 65 „Industrial-process
measurement and control“), Eckhard Schwendemann,
(TC 72 „Automatic controls for household use“),
Frank Jetzschmann (TC 77 „Electromagnetic compatibility“),
Prof. Dr.-Ing. Werner Daum (TC 86 „Fibre optics“), Arno
Bergmann (TC 96 „Transformers, reactors, power supply
units and combinations thereof“), Werner Menger (TC 96
„Transformers, reactors, power supply units and combinations
thereof“), Hermann Ruoss (TC 104 „Environmental
conditions, classification and methods of test“), Matthias
Meier (TC 106 „Methods for the assessement of electric,
magentic and electromagnetic fields associated with human
exposure“), Prof. Dr. Werner Bergholz (TC 113 „Nanotechnology
standardization for electrical and electronic products
and systems“), Dr.-Ing. Stephan Kloska (CISPR „International
Special Committee on Radio Interference“).
VDE VERBAND DER ELEKTROTECHNIK
ELEKTRONIK INFORMATIONSTECHNIK E.V.
Stresemannallee 15, D-60596 Frankfurt am Main,
Tel. +49 (0) 69 630 84 61, Internet: www.vde.com
6
Umsätze der Elektroindustrie gehen
um sechs Prozent zurück
Sechs Prozent unter Vorjahresniveau blieben die Umsätze
der deutschen Elektroindustrie im September.
Nach bis zuletzt sehr solider Entwicklung haben die
Elektroexporte damit jetzt einen Dämpfer erhalten, der
Rückgang war der stärkste seit Oktober 2009“, sagte
ZVEI-Chefvolkswirt Dr. Andreas Gontermann. „Aber in
den ersten drei Quartalen 2012 sind die Branchenausfuhren
insgesamt um drei Prozent auf 119,8 Mrd. Euro
gestiegen und steuern so weiter ein neues Jahresallzeithoch
an.“ Der Exportumsatz belief sich im September
2012 auf 12,6 Milliarden Euro.
Die Einfuhren von Elektroerzeugnissen nach Deutschland
gaben um vier Prozent gegenüber Vorjahr auf 11,2
Milliarden Euro nach. Von Januar bis September hatten
sie um zwei Prozent auf 102,7 Mrd. Euro zugelegt. Entsprechend
haben die Ausfuhren die Einfuhren in den
ersten neun Monaten 2012 um 17,1 Mrd. Euro übertroffen.
atp edition
12 / 2012
Der Exportüberschuss lag so drei Prozent
höher als vor einem Jahr.
Eine gute Nachricht kommt von
den Exporten außerhalb Europas. Sie
stiegen um acht Prozent auf 42,1 Milliarden
Euro. 13 Prozent der Branchenunternehmen
gehen von insgesamt
anziehenden Ausfuhrgeschäften
in den nächsten drei Monaten
aus. 64 Prozent der Firmen erwarten
ANDREAS
GONTERMANN:
Dämpfer für
Elektroexporte.
Bild: ZVEI
stabile Exporte, zwölf Prozent rückläufige. Elf Prozent der
Unternehmen sind derzeit unentschieden.
ZVEI – ZENTRALVERBAND ELEKTROTECHNIK- UND
ELEKTRONIKINDUSTRIE E.V.,
Lyoner Straße 9, D-60528 Frankfurt/Main,
Tel. +49 (0) 69 630 20, Internet: www.zvei.org
GMA wählt Beirat neu und
bestätigt seinen Vorsitzenden
Für weitere drei Jahre im Amt bestätigt wurde Dr.-Ing.
Kurt Dirk Bettenhausen. Der Vorsitzende der VDI/
VDE-Gesellschaft Mess- und Automatisierungstechnik
(GMA) wurde am 20. November auf der konstituierenden
Beiratssitzung für die Amtsperiode 2013 bis 2015 wiedergewählt.
„Das Projekt ‚Industrie 4.0’ aktiv vorantreiben,
die GMA als Forum für Wissens- und Informationsaustausch
sowie den Kongress Automation weiter ausbauen“,
so Bettenhausen nach seiner Wahl, „darauf
kommt es in den drei nächsten drei Jahren an.“ Außerdem
sei es wichtig, die Fachgebiete der GMA der breiten
Öffentlichkeit noch näher zu bringen. Bettenhausen ist
hauptberuflich in der Corporate Technology von Siemens
verantwortlich für die Region USA sowie weltweit für
das Technologiefeld Automation & Control.
Die neuen Beiratsmitglieder wurden von den GMA-Mitgliedern
für die Amtsperiode 2013 bis 2015 gewählt. Der
Beirat setzt sich aus den Leitern der GMA-Fachbereiche
und acht gewählten Vertretern zusammen. Zu den acht
gewählten Vertretern gehören Prof. Dr.-Ing. Dirk Abel
(RWTH Aachen), Prof. Dr.-Ing. Jürgen Beyerer (Fraunhofer
IOSB), Prof. Dr.-Ing. habil. Gerald Gerlach (TU Dresden),
Dipl.-Ing. Martin Müller (Phoenix Contact Electronics
GmbH), Dr. rer. nat. Günter Reusing (Bosch Rexroth Mechatronics
GmbH), Dr.-Ing. Eckardt Roos (Festo AG&Co KG),
Prof. Dr.-Ing. Klaus-Dieter Sommer (PTB Braunschweig)
und Dipl.-Inf. Christoph Winterhalter
(ABB AG). Die acht Fachbereiche der GMA werden
in der kommenden Amtsperiode geleitet
von Prof. Dr.-Ing. Frank Allgöwer (Universität
Stuttgart, Fachbereich 1, „Grundlagen und Methoden“),
Prof. Dr.-Ing. Werner Daum (BAM
Berlin, Fachbereich 2 „Prozessmesstechnik
und Strukturanalyse“), Prof. Dr.-Ing. Robert
Schmitt (RWTH Aachen, Fachbereich 3 „Fertigungsmesstechnik“),
Prof. Dr.-Ing. Klaus Janschek (TU
Dresden, Fachbereich 4 „Mechatronik, Robotik und Aktorik“),
Dipl.-Ing. Heiko Adamczyk (Knick Elektronische
Messgeräte GmbH & Co. KG, Fachbereich 5 „Industrielle
Informationstechnik“), Prof. Dr.-Ing. Alexander Fay (HSU
Hamburg, Fachbereich 6 „Engineering und Betrieb“), Prof.
Dr.-Ing. Dr. med. Steffen Leonhardt (RWTH Aachen, Fachbereich
7 „Anwendungsfelder der Automation“) und Dr.-
Ing. Michael Thomas Kramer (LED Linear GmbH, Fachbereich
8 „Optische Technologien“).
(ahü)
VDI/VDE-GESELLSCHAFT MESS UND
AUTOMATISIERUNGSTECHNIK (GMA),
VDI-Platz 1, D-40468 Düsseldorf,
Tel. +49 (0) 211 621 40, Internet: www.vdi.de
DR. KURT D.
BETTENHAUSEN
bleibt an der Spitze
der VDI/VDE-GMA.
Foto: VDI
Freelance Leitsystem.
So einfach ist Prozessautomatisierung.
Freelance kombiniert den günstigen Preis einer SPS mit der höheren Funktionalität eines Prozessleitsystems.
Eine komfortable und intuitive Bedienung und nur ein Werk zeug für das gesamte
Engineering von Inbetriebnahme bis zur SystemDiagnose senken Kosten und sparen Zeit. Dieses
LeitsystemKonzept bewährt sich in weltweit mehr als 14.000 Applikationen in sehr vielen Industriebereichen.
www.abb.de/controlsystems
ABB Automation GmbH
Email: marketing.controlproducts@de.abb.com
atp edition
12 / 2012
7
NAMUR-HAUPTSITZUNG 2012
Automatisierungsanwender der Prozessindustrie
wagen mehr Internationalisierung
Heinrich Engelhard wird neuer Namur-Geschäftsführer/Arbeitskreis „Automation Security“ gegründet
WILHELM OTTEN,
Namur-Vorsitzender,
eröffnete die Namur-
Hauptsitzung 2012
mit einem Vortrag
über die Arbeitsergebnisse
des Jahres.
JÖRG KIESBAUER,
Vorstandsmitglied
der Samson AG, des
Hauptsponsors der
Namur-Hauptsitzung
2012, stellte einen
historischen Abriss
der Aktorik vor.
Mit rund 550 Teilnehmern fand am 8. und 9. November
die Namur-Hauptsitzung 2012 unter dem Motto
„Aktorik – von der Handdrossel zum smarten Stellgerät“
statt. Die Namur, der Verband von Automatisierungsanwendern
in der Prozessindustrie, hatte Experten
der Automatisierung nach Bad Neuenahr geladen.
Auf der Sitzung wurde bekannt, dass Heinrich Engelhard
(Bayer Technology Services) Dr. Wolfgang Morr
als Namur-Geschäftsführer ablösen wird. Ab Januar
2013 startet der 49-Jährige in dem Amt. Dr. Peter Zgorzelski
(Bayer Technology Services) wird als technischer
Referent in der Namur tätig. Bislang war er Geschäftsstellenleiter
der Namur-Projektgruppe „Merkmalleisten“
und Obmann des Arbeitskreises 1.2 sowie
Leiter in Arbeitskreisen von IEC und DKE. Dr. Ulrich
Christmann (Bayer Technology Services) übernimmt
das Arbeitsfeld „Planen und Errichten“
ab 1. Januar 2013. Bei den
Arbeitsfeldern wurde ebenfalls
neu sortiert. Das Arbeitsfeld 4
wird zukünftig „Betrieb und
Instandhaltung“„Operation Support
und Maintenance“ heißen. In
diesem Arbeitsfeld wird der Arbeitskreis
„Automation Security“
gegründet. Diskutiert wird derzeit
die Einberufung eines fünften Arbeitsfeldes
mit Arbeitskreisen, die
nicht technik- oder prozessorientiert
sind. Dazu gehören etwa
Hochschulkontakte oder Normenbeobachtung
und -beeinflussung.
Zur Eröffnung der Veranstaltung,
die von Aktorik-Anbieter
HEINRICH
ENGELHARD
wird ab 1. Januar
2013 Namur-
Geschäftsführer.
Er löst Wolfgang
Morr ab. Bild: Namur
Samson gesponsert wurde, berichtete der Namur-Vorsitzende
Dr. Wilhelm Otten über die Ergebnisse der
Verbandsarbeit des vergangenen Jahres. Die Namur, die
die Interessen der Betreiber in der Prozessindustrie vertritt,
will den Dialog mit Herstellern weiter internationalisieren.
Dazu gab es im September diesen Jahres eine
erste konstituierende Sitzung mit den Verbänden Wib,
Eemura, Exera und Isa. Schon lange tauschen diese Verbände
untereinander Experten in einzelnen Arbeitskreisen
aus. Mit der Isa sei darüber hinaus eine intensivere
Zusammenarbeit angedacht. Die Verbände erfassen
derzeit die Aktivitäten, die Potenzial für mehr
Kooperation bieten. Außerdem sind gegenseitige Besuche
bei Veranstaltungen geplant. Gemeinsame Arbeitsgruppen
sind überdies mit den europäischen Verbänden
für die Bereiche Funktionale Sicherheit, Wireless Automation,
IT-Security, Auswahl
von Durchflussmessern und
Alarm-Management angedacht. Zu
dem Thema fand ebenfalls auf der
Namur-Hauptsitzung ein Workshop
unter dem Titel „Internationale
Kooperation“ statt.
Otten wies auf die Neuerscheinungen
unter den Namur-Empfehlungen
und -Arbeitsblättern hin.
PETER
ZGORZELSKI
wird als
technischer
Refernt bei der
Namur tätig.
Bild: Namur
Die NE 139 (Informationsschnittstellen
in der Prozessautomatisierung
Betriebliche Eigenschaften),
NE 140 (Vorgehensweise zur Steigerung
der Energieeffizienz in
chemischen Anlagen – Beitrag der
Automatisierungstechnik), NE 141
(Schnittstelle zwischen Batch-
8
atp edition
12 / 2012
ETWA 550 TEILNEHMER waren der Einladung auf die Namur-Hauptsitzung 2012 gefolgt. Bilder: Anne Hütter
und MES-Systemen), NE 142 (Funktionale Sicherheit
elektrotechnischer Elemente) und die NE 144
sind neu im Portfolio des Verbandes. Überarbeitet
wurden die NE 21, NA 82, NA 101 und NE 112.
In China traf sich die Namur am 21. November
2012. Das Sponsoring übernahm ABB. Im kommenden
Jahr versammeln sich die Automatisierungsanwender
in Bad Neuenahr am 7. und 8. November.
Hauptsponsor der Veranstaltung, die dann unter
dem Motto „Integriertes Engineering“ steht, ist die
Siemens AG.
AUTORIN
ANNE HÜTTER
ist verantwortlich für
die Redaktion und das
Programmmanagement
der atp im Deutschen
Industrieverlag.
DIV Deutscher Industrieverlag GmbH,
Arnulfstraße 124, D-80636 München,
Tel. +49 (0)89 203 53 66 58,
E-Mail: huetter@di-verlag.de,
Internet: www.di-verlag.de
atp edition
12 / 2012
9
NAMUR-HAUPTSITZUNG 2012
Goldene Namur-Ehrennadel für
Gerhard Rehn und Martin Schwibach
MARTIN SCHWIBACH (li., BASF) erhält die
Auszeichnung von Wilhelm Otten und Monika Reek
(Assistentin der Namur-Geschäftsführung).
GERHARD REHN (li.)
freut sich über die
Namur-Ehrennadel, die
Wilhelm Otten (re.)
überreicht. Bilder: Anne Hütter
Gerhard Rehn (Bayer Technology Services) und Martin
Schwibach (BASF) sind mit der Goldenen Ehrennadel
der Namur (Verband von Automatisierungsanwendern
in der Prozessindustrie) für ihre besonderen
Verdienste in den Arbeitskreisen des Verbandes
ausgezeichnet worden.
Der Namur-Vorsitzende Dr. Wilhelm Otten überreichte
die Auszeichnungen auf der Namur-Hauptsitzung
2012 Anfang November in Bad Neuenahr. Martin
Schwibach erhielt die Auszeichung für seine Unterstützung
bei der Wireless-Thematik. Er ist Obmann der Arbeitskreise
2.6 (Feldbus) und 4.15 (Wireless) sowie Initiator
der Heathrow-Gruppe. Schwibach schloß 1991 sein
Duales Studium an der Berufsakademie Mannheim ab
und begann im selben Jahr bereits bei der BASF. Er leitete
ab 2001 die Fachgruppe IT-Lösungen in der PLT und
fünf Jahre später die Gruppe „Industrielle Kommunikationstechnik“.
Seit 2011 ist er verantwortlich für IT- und
Automation-Security am Standort Ludwigshafen.
Gerhard Rehn ist Mitglied in den Arbeitskreisen 2.6
(Feldbus) und 2.8 (Internettechnologien in der Prozessautomatisierung).
Seit 2004 ist er als Koordinator
für das Arbeitsfeld 1 (Planung und Errichtung) verantwortlich.
Rehn hat bis 1976 an der TU Ilmenau Informationstechnik
studiert. 1989 begann er bei der Bayer
AG und war dort zuständig für die „Systemwelt Prozessleitsysteme“.
Seit 2000 verantwortet er die prozessleittechnische
Planung im Pharma-Bereich und ist derzeit Leiter der
PCT-Planung für die Werke Elberfeld und Bergkamen.
(ahü)
NAMUR-GESCHÄFTSSTELLE,
c/o Bayer Technology Services GmbH,
Gebäude K 9, D-51368 Leverkusen,
Tel. +49 (0) 214 307 10 34,
Internet: www.namur.de
10
atp edition
12 / 2012
Bouaswaig und Yin
ausgezeichnet
Dr.-Ing. Ala Eldin Bouaswaig
und Dr.-Ing. Shen Yin wurden
auf der Namur-Hauptsitzung
2012 mit dem Namur-
Award ausgezeichnet. Bouaswaig
erhielt die Auszeichnung
für seine Doktorarbeit an der
TU Dortmund zum Thema „Simulation,
control, and inverse
problems in particulate processes“.
Nach seinem Studium
an der Bright Star University of
Technology (1993-1997) und
dem Master an der TU Dortmund
(2004-2006) sowie der
dortigen Promotion (2009-2011)
arbeitet Bouaswaig heute in
Ludwigshafen als Automation
Engineer bei BASF.
Dr.-Ing. Shen Yin erhielt die Auszeichnung für
seine Promotion „Data-driven design of fault diagnosis
system“, die er zwischen 2007 und 2012 an
der Universität Duisburg-Essen verfasst hat. Der
Dozent am Harbin Institut of Technology konnte
die Arbeit nicht entgegen nehmen. Sein betreuender
Professor Ding nahm sie an seiner Stelle in
Empfang. Yin hat einen Bachelorstudiengang am
Harbin Institut of Technology (2000-2004) absolviert.
Anschließend blieb er für ein Jahr an der
Technischen Universität Bergakademie Freiberg,
um danach bis 2007 seinen Master an der Universität
Duisburg-Essen in Control and Information
Systems zu absolvieren. Seit 2012 hat er die Dozentur
am Harbin-Institut inne.
(ahü)
NAMUR-GESCHÄFTSSTELLE,
c/o Bayer Technology Services GmbH,
Gebäude K 9, D-51368 Leverkusen,
Tel. +49 (0) 214 307 10 34,
Internet: www.namur.de
SHEN YIN wurde
ebenfalls mit dem
Namur-Award
ausgezeichnet. Er
konnte den Preis
jedoch nicht
persönlich in
Empfang nehmen.
ALA ELDIN
BOUASWAIG
stellte seinen
ausgezeichneten
Beitrag „Simulation,
control, and inverse
problems in
particulate
processes“ vor.
Bild: Anne Hütter
Mit Sicherheit
kompetent
Mit den Stellventilen Typ 3241 von
SAMSON sind Sie immer auf der
sicheren Seite. Dank ihrer hohen
MTBF brauchen Sie sich um einen
Ausfall nicht zu sorgen.
Noch mehr Sicherheit garantieren die
Stellungsregler der Bauarten 3730 und
3731. Mit ihrem zertifizierten Magnetventil
und dem induktiven Grenzkontakt
führen sie die Sprung antworttests
automatisch durch und dokumentieren
die Ergebnisse.
Gehen Sie auf Nummer sicher mit
SAMSON.
SIL
SIL SIL
A01039DE
SAMSON AG · MESS- UND REGELTECHNIK
Weismüllerstraße 3 · 60314 Frankfurt am Main
Telefon: 069 4009-0 · Telefax: 069 4009-1507
E-Mail: samson@samson.de · www.samson.de
SAMSON GROUP · www.samsongroup.net
BRANCHE
AALE 2013: Mehr über Energieeffizienz, Systeme,
Lehre und Forschung in der Automation erfahren
EXPERTENFORUM: Studenten und Praktiker der
Automatisierungstechnik tauschen sich in Stralsund zur
AALE-Fachtagung 2013 aus. Bild: Sebastian Bernhard/pixelio.de
Ans Meer geht es im kommenden Jahr mit der Angewandten
Automatisierungstechnik in Lehre und Entwicklung
an Fachhochschulen (AALE). Die 10. AALE-
Konferenz findet vom 28. Februar bis 1. März 2013 an der
Fachhochschule Stralsund statt. Sie wird vom Fachbereich
Elektrotechnik und Information organisiert und
vom Verein der Freunde und Förderer der Angewandten
Automatisierungstechnik an Fachhochschulen (VFAALE
e.V.) unterstützt. Themen wie Trends der Automatisierungstechnik,
Forschungs- und Entwicklungsarbeiten,
Kooperationen in der Automation zwischen Hochschule
und Industrie sowie Lehre und Ausbildung, Didaktik und
MINT-Projekte stehen auf dem Programm. Am 28. Febru-
ar beginnt der Expertentreff bereits um 9 Uhr mit der
Begrüßung durch Veranstaltungsleiter Prof. Bernd Büchau
(FH Stralsund). Es folgt ein Grußwort von Stefan
Sagert vom VDMA Robotik+Automation. Ab 9.40 Uhr
starten dann die Plenarvorträge unter Vorsitz von Prof.
Büchau. Nach der ersten Pause starten drei Sessions zum
Thema Lehre und Ausbildung, Automatisierungssysteme
I und Robotik I. Steuerungstechnik und die Forführung
der Sessions Automatisierungssysteme und Robotik
stehen danach auf dem Plan. In den Sessions 7, 8 und 9
befassen sich die Vortragenden mit Energieeffizienz, Modellbasierten
Entwürfen und Adaptiven Systemen. Ab
15.45 Uhr wird dann der AALE Student Award 2031 verliehen.
Den Vorsitz führt hier Prof. Viktorio Malisa. Gesponsert
wird der Preis von Bayer Technology Services
und GmbH und Evonik Industries AG. Die besten drei
Abschlussarbeiten erhalten die Chance sich kurz vorzustellen.
Am Ende wird der Gewinner bekannt gegeben.
Zur Abendveranstaltung geht es dann auf einen Exkurs
in die Tiefsee. Am nächsten Tag starten die Teilnehmer
mit der Postersession. Weitere Sessions sind bis kurz nach
12 Uhr geplant. Um 12.30 Uhr werden dann alle mit einem
gemütlichen Ausklang verabschiedet.
(ahü)
ANGEWANDTE AUTOMATISIERUNGSTECHNIK
IN LEHRE UND ENTWICKLUNG (AALE) ,
c/o Fachhochschule Düsseldorf,
Fachbereich Elektrotechnik,
Josef-Gockeln-Straße 9, D-40474 Düsseldorf,
Tel. +49 (0) 211 435 13 08,
Internet: www.aale2013.fh-stralsund.de
Die IEC 61508
richtig anwenden
Eine Tagung zur funktionalen Sicherheit
bietet der Verband der Elektrotechnik
Elektronik und Informationstechnik (VDE)
am 12. und 13. März 2013 in Erfurt an. Die
Sicherheitsgrundnorm für funktionale Sicherheit
IEC 61508 erschien erstmalig
1998, mittlerweile liegt die zweite Ausgabe
SICHERHEIT IN DER vor. Etliche fachspezifische Normen, die
INDUSTRIE definiert die diese umsetzen, sind erschienen. Literatur
IEC 61508. Bild: Katharina und zahlreiche Veranstaltungen befassen
Bregulla / pixelio.de
sich bereits mit ihrer Auslegung. Die Erfahrungen
des GK 914, das bei der DKE für
die IEC 61508 zuständig ist, zeigen, dass die Lücke zwischen
dem Text der Norm und dem konkreten Anwendungsfall
noch groß ist. Das DKE-Komitee GK 914 wird zu
diversen Fragen am 12. und 13. März 2013 in Erfurt Rede
und Antwort stehen. Erstmalig werden auch VDE-Experten
aus der Medizintechnik ihre Sicht einbringen. (ahü)
VDE-VERBANDSGESCHÄFTSSTELLE,
Stresemannallee 15, D-60596 Frankfurt am Main,
Tel. +49 (0) 69 630 80, Internet: www.vde.com
Dechema-Preis 2012 für
Prof. Dr. Joachim Groß
Prof. Dr. Joachim Groß von der
Universität Stuttgart erhält den
diesjährigen Dechema-Preis der
Max-Buchner-Forschungsstiftung
für seine guten Forschungsarbeiten
zur Thermodynamik von Gemischen.
Dank seiner Erkenntnisse
ist es Verfahrenstechnikern möglich,
Eigenschaften von Stoffgemischen
mit polaren Wechselwirkungen
oder am kritischen Punkt
vorauszu erechnen. Die Verleihung
des mit 20.000 Euro dotierten
Preises fand am 30. November 2012,
im Rahmen eines Festkolloquiums,
in Frankfurt am Main statt. (ahü)
DECHEMA E.V.,
Theodor-Heuss-Allee 25,
D-60486 Frankfurt,
Tel. +49 (0) 69 756 40,
Internet: www.dechema.de
PROF. DR.
JOACHIM GROSS
forschte zu
Thermodynamik
von Gemischen.
Bild: Dechema
12
atp edition
12 / 2012
Neue Richtlinie VDI/VDE 2632 Blatt 2 vereinfacht
Kommunikation zwischen Anbietern und Anwendern
Die soeben als Entwurf veröffentlichte Richtlinie VDI/
VDE 2632 Blatt 2 „Industrielle Bildverarbeitung –
Leitfaden für die Erstellung eines Lastenhefts und eines
Pflichtenhefts“ unterstützt Anwender und Anbieter von
Machine-Vision-Systemen bei der Kommunikation miteinander,
um Missverständnisse und eine unvollständige
Aufgabenbeschreibung zu vermeiden. Die Richtlinie
hilft, Bildverarbeitungsprojekte im vollen Funktionsumfang
und innerhalb des geplanten Zeit- und Kostenaufwands
zu realisieren. Viele Methoden, die für die
industrielle Bildverarbeitung entwickelt wurden, sind
längst in den Alltag eingezogen. Moderne Fotoapparate
erkennen das Lächeln von Personen und wählen automatisch
den optimalen Aufnahmezeitpunkt für das
Bild. Handykameras nehmen Fotos einer Plakatwand
auf, finden und lesen den dort abgedruckten Text, erkennen,
dass der Text eine Internet-Seite angibt und
bieten dem Benutzer an, die entsprechende Website zu
öffnen. 2-D-Codes mit Informationen von Flugtickets
werden nicht mehr ausgedruckt, sondern direkt vom
Handy-Display gelesen.
Die hier aufgeführten Beispiele könnten bei den Anwendern
der industriellen Bildverarbeitung den Eindruck
erwecken, dass die modernen bildgestützten Positionier-,
Prüf- und Messeinrichtungen quasi von alleine ihre Aufgaben
erfüllen. Das ist aber nicht so. Eine veränderte
Oberflächenrauheit kann beispielsweise für ein Produkt
nicht qualitätsrelevant sein, ein anderer Farbton dagegen
schon. Bei anderen Produkten können die Qualitätskriterien
genau umgekehrt definiert sein. Daher ist in der
industriellen Bildverarbeitung genau festzulegen, was die
Prüfaufgabe ist, wie die Prüfobjekte aussehen, und wie
die Umgebungsbedingungen sind, um zum Beispiel die
Verständnisschwierigkeiten hinter folgenden Anwenderaussagen
zu vermeiden:
Wir hatten spezifiziert, dass das größte zu inspizierende
Produkt 15 mm lang ist. Unsere neue Produktgeneration
ist 17,5 mm lang. Das ist doch kein Problem,
oder?
Bei der Anlagenreinigung am Schichtende wird
Staub aufgewirbelt. Was dachten Sie denn?
Das war doch von vorne herein klar, dass die Anlage
nach dem erfolgreichen Probelauf hier bei uns im
Werk anschließend nach Indonesien geschickt werden
soll. Wussten Sie das nicht?
Diese frei erfundenen, aber realitätsnahen Aussagen können
ein komplettes Anlagenkonzept infrage stellen:
Wenn telezentrische Objektive in dem Bildverarbeitungssystem
eingesetzt werden, kann das sichtbare
Objektfeld nicht ohne weiteres vergrößert werden: Es
werden andere Objektive mit anderen Einbaumaßen
für größere Produkte gebraucht.
Nicht berücksichtigte Staubeinwirkungen können
zusätzliche Einhausungen und Filter erforderlich
machen.
Der Betrieb bei extrem hohen Temperaturen und hoher
Luftfeuchtigkeit kann zusätzliche Kühlvorrichtungen
und Luftentfeuchter erfordern.
LASTEN UND PFLICHTEN beim Anlagenmagement in der industriellen
Bildverarbeitung erläutert die Richtlinie VDI/VDE 2632 Blatt 2.
Bild: Fraunhofer IOSB/Manfred Zentsch.
In allen Beispielen verlängert die nachträgliche Änderung
der Anforderungen die Lösungserstellung für die Bildverarbeitungsaufgabe
und macht das System teurer. Daher
ist es wichtig, die Anforderungen an ein Bildverarbeitungssystem
möglichst früh, präzise und umfassend zu
beschreiben, damit das fertige System zur vollen Zufriedenheit
aller Beteiligten arbeitet.
Die Richtlinie VDI/VDE 2632 Blatt 2 gibt Hinweise zur
Erstellung eines Lastenheftes und führt detailliert Einflussgrößen
auf, die bei der Spezifikation einer Bildverarbeitungsaufgabe
vom Anwender berücksichtigt werden
sollen. Die hier aufgeführten Aspekte lassen sich auf fast
alle Bildverarbeitungsaufgaben anwenden, seien es Sortier-,
Positionier-, Prüf- oder Messaufgaben. Die Richtlinie
schlägt zudem mögliche Inhalte eines Pflichtenheftes vor,
in dem ein Anbieter dem Anwender seinen Lösungsvorschlag
unterbreitet. Damit erleichtert sie es den Anbietern,
den Leistungs- und Funktionsumfang der angebotenen
Lösung vollständig und für den Anwender transparent zu
beschreiben. Die als Entwurf veröffentlichte Richtlinie
VDI/VDE 2632 Blatt 2 ergänzt die Richtlinienreihe zur
„Industriellen Bildverarbeitung“ des Fachausschusses
3.51 im GMA-Fachbereich 3 „Fertigungsmesstechnik“.
Einsprüche zur Richtlinie können bis zum 28. Februar
2013 über das VDI-Richtlinien-Einspruchsportal (www.
vdi.de/einspruchsportal) eingereicht werden. Das bereits
veröffentlichte Blatt 1 dieser Richtlinie behandelt die
Grundlagen und Begriffe der industriellen Bildverarbeitung.
Weitere Blätter sind in Planung.
VDI/VDE-GESELLSCHAFT MESS- UND
AUTOMATISIERUNGSTECHNIK (GMA),
Dr.-Ing. Erik Marquardt,
VDI-Platz 1, D-40468 Düsseldorf,
Tel. +49 (0) 211 621 43 73,
E-Mail: marquardt@vdi.de,
Internet: www.vdi.de/2632
atp edition
12 / 2012
13
FORSCHUNG
PENG erzeugt Energie aus minimalen
Temperaturunterschieden
Schon Temperaturunterschiede durch einen Luftzug
oder einen Sonnenstrahl können Strom erzeugen.
Doch reicht dieser, um ganze Komponenten dauerhaft
zu versorgen? Forscher des Georgia Institute of Technology
haben einen solchen PENG, einen pyroelektrischen
Nanogenerator, erfunden. Er ist halb so groß wie eine
Briefmarke und kann nach Angaben der Wissenschaftler
Elektronik-Kompontenten mit ausreichend Strom
versorgen. Der pyroelektrische Effekt erlaubt die Erzeugung
von Strom aus zeitlichen Temperaturänderungen,
ist bisher aber kaum erforscht. Bisherige Generatoren
auf dieser Grundlage haben lediglich Spannungen unter
0,1 Volt geliefert. Der PENG besteht aus einer 175
Mikrometer dicken Folie aus Blei-Zirkonat-Titanat. Ein
Stück mit den Maßen 21 x 12 Millimeter liefert bei einer
Temperaturänderung um 45 Kelvin mit einer Geschwindigkeit
von 0,2 Kelvin pro Sekunde bis zu 22 Volt Spannung
bei 430 Nanoampere. Die Stromdichte beträgt 171
Nanoampere pro Quadratzentimeter. Das reicht aus, um
ein kleines LCD mit Energie zu versorgen, wie die Forscher
bewiesen. Auch zum Laden eines Lithium-Ionen-
Akkus kann der erzeugte Storm genutzt werden, allerdings
muss der Output hier für einen sinnvollen Einsatz
noch erhöht werden.
(ahü)
GEORGIA INSTITUTE OF TECHNOLOGY,
North Ave., Atlanta, Georgia 30332, USA,
Tel. +1 404 894 20000,
Internet: www.gatech.edu
Modularisierung fördert schnellere Produktion
Könnte die Lösung für einen schnelleren Martkeintritt
für ein Produkt der Verfahrenstechnik in der Modularisierung
liegen? Ja, sie könnte, erklärte Norbert Kockmann,
anlässlich der Namur-Hauptsitzung Anfang November
in Bad Neuenahr. Der Treffpunkt für Anwender
von Automatisierungstechnik in der Prozessindustrie
stellte in seinem Vortragsprogramm einige Lösungen für
die effiziente Prozesstechnik vor. Dazu gehört auch das
europäische Forschungsprojekt F3 (Fast Flexible Future)
Factory. Das Projekt modularisiert Anlagen in Containern.
Invite heißt das Projekt, das von der Bayer Technology
Services und der TU Dortmund realisiert wurde.
Bei Evonik ist ein ähnliches Projekt, der Evotrainer, im
Einsatz. Er entstand aus dem Forschungsprojekt Copiride.
Dieser 3 x 12 Meter große Container enthält, was für
die Produktion benötigt wird: Reaktoren, Prozessleittechnik,
IT-Module, Lagerfläche für die Einsatzstoffe,
Elemente für konstruktiven Brandschutz, Fluchttüren
und Auffangwannen nach dem Wasserhaushaltsgesetz.
Die Verfahrenstechnik gibt hier also eine neue Marschrichtung
vor; die Automatisierungstechnik muss mit den
Anforderungen Schritt halten. „Die Automatisierungstechnik
darf die Entwicklung nicht bremsen, sie soll sie
unterstützen“, fordert Stephan Bleuel von Sanofi-Aventis.
Die Branche ist sich sicher: Modularisierung hat Potenzial,
die Time-to-Market zu verkürzen.
(ahü)
TECHNISCHE UNIVERSITÄT DORTMUND,
Fakultät Bio- und Chemieingenieurwesen,
Emil-Figge-Strasse 70, D-44227 Dortmund,
Tel. +49 (0) 231 755 30 30,
Internet: www.bci.tu-dortmund.de
Mikrochips sollen Raubkopien verhindern
Verschiedene Möglichkeiten, Maschinenbauer vor dem
Kopieren ihrer Ware zu schützen, schlägt das Fraunhofer-Institut
für Angewandte und Integrierte Sicherheit
AISEC vor. Um das illegale Kopieren von vornehmlich
Textilmaschinen, Kompressoren oder Anlagen für Kunststoffverarbeitung
besser zu kontrollieren, bieten die Wissenschaftler
zahlreiche Verfahren an.
Besonders die integrierten Steuerungprogramme der
Maschinen sind ein beliebtes Angriffsziel für Kopierer.
Ein ganzer Auftragsmarkt hat sich, laut AISEC, darum
gebildet. Dienstleister bieten mittlerweile das "Reverse
Engineering" an. Zunächst analysieren sie den Aufbau
der Hardware und fertigen Schaltpläne des Originalproduktes
an. Dann lesen sie die Software aus und rekonstruieren
daraus die Steuerung und Funktionen der Maschine,
den Kern des Apparats. Sicherheitskritische
Ersatzteile, wie bereits in der Luftfahrtindustrie eingesetzt,
können mit nicht kopierbaren Hologrammen gekennzeichnet
werden.
Effektiver ist es dagegen bereits bei der Entwicklung
der Hardware den Produktschutz einzubeziehen. Auf
Mikrochips können die Daten der Maschine so verschlüsselt
hinterlegt werden. AISEC geht davon aus, dass
eine Prophylaxe dieser Art Maschinenbauer bis zu fünf
Jahre vor Produktpiraterie schützen kann. (ahü)
FRAUNHOFER-INSTITUT FÜR ANGEWANDTE UND
INTEGRIERTE SICHERHEIT AISEC,
Parkring 4, D-85748 Garching b. München,
Tel. +49 (0) 89 3229986-128,
Internet: www.aisec.fraunhofer.de
14
atp edition
12 / 2012
Flinker Modulator: Baustein für effiziente
Datenübertragung gelangt zur Marktreife
Wissenschaftlern aus Berlin und Frankfurt/Oder ist
es gelungen, den bisher kleinsten Hochgeschwindigkeitsmodulator
der Welt zu entwickeln. Der Modulator
mit einer Länge von weniger als 10 Mikrometern
ist für photonisch integrierte Schaltkreise geeignet.
Modulatoren werden in der Nachrichtentechnik zur
Übertragung von Informationen eingesetzt. Bei hohen
Modulationsgeschwindigkeiten von bis zu 25 Gigabaud
besitzt er eine sehr hohe Temperaturstabilität
und einen äußerst geringen Energieverbrauch von nur
200 Femtojoule/Bit. Die Herausforderung bleibt die
effiziente Zusammenführung der Basiselemente zu
einem leistungsstarken marktfähigen Produkt. Siliconon-Insulator
(SOI) Chip stellt sich als technisch besonders
anspruchsvoll dar. Hier gilt es, eine effiziente
Kombination aus Laserquelle, elektro-optischem
Modulator und Treiberelektronik zu entwickeln. Bisher
konnte für dieses Modul keine optimale Lösung
aufgezeigt werden, welche gleichzeitig alle Anforderungen
an die Schaltgeschwindigkeit, Baugröße,
Zuverlässigkeit und den Energieverbrauch für die
Implementierung in einen optischen Transceiver, der
als Schnittstelle zwischen optischer und elektrischer
Übertragungsstrecke fungiert, erfüllt. (ahü)
TECHNISCHE UNIVERSITÄT BERLIN,
Straße des 17. Juni 135, D-10623 Berlin,
Tel. +49 (0) 30 31 40, Internet: www.tu-berlin.de
KLEINER ABER OHO:
Der Silicon-on-Insulator
(SOI)-Chip ist 26×11
Quadratmillimeter klein
und hat über 700
verschiedene optische
Bauelemente.
Foto: TU Berlin
Roboter Hytaq fliegt oder
fährt je nach Bedarf
Ein Automat, der fahren
und fliegen kann. Forschern
am Robotics Lab
des Illinois Institut of
Technology (IIT) ist es gelungen,
einen solchen Hybrid
Terrestrial and Aerial
Quadrotor, kurz Hytaq,
zu entwickeln. Der Flugroboter
besteht aus einem
QUADROTOR: Umgeben von robotischen Hubschrauber
mit vier Rotoren, um
einem runden Schutzkäfig kann
Hytaq auch fahren. Bild: IIT den herum die Entwickler
einen Schutzkäfig angelegt
haben. Dieser ist aus Polykarbonat und Kohlenstofffaser.
Im Inneren auf einer Achse sitzt der Flugroboter.
Man nennt ein solches Konstrukt auch Quadrokopter.
Zum Fahren benutzt der Automat dann den
runden Käfig. Durch die Abrundung muss nur der
Rollwiderstand überwunden werden. Die Erfinder hoffen,
dass es Hytaq gelingt, einfacher an schwierig zu
erreichende Orte zu gelangen. Außerdem kann die Effizienz
seiner Fortbewegung angepasst werden. Die
Batterie von Hytaq reiche zwar nur fünf Minuten, an
alternativen Energieversorgungsmethoden werde jedoch
noch gearbeitet. Hytag kann viermal so lange
Strecken zurücklegen und fast sechs Mal so lang im
Einsatz sein, weie in reines fliegendes System. (ahü)
ILLINOIS INSTITUT OF TECHNOLOGY,
3300 South Federal Street, Chicago, IL 60647, USA
Internet: www.iit.edu
Digitale Anlage im Lebenszyklus
AUSGABE 55 (6) DER ATP EDITION im Juni 2013 greift das Thema der
Digitalen Anlage im Lebenszyklus auf. Die Digitale Anlage ist der Oberbegriff
für ein umfassendes Netzwerk von digitalen Modellen, Methoden
und Werkzeugen die durch ein durchgängiges Datenmanagement
integriert werden. Ihr Ziel ist die ganzheitliche Planung, Evaluierung
und laufende Verbesserung aller wesentlichen Strukturen, Prozesse
und Ressourcen der realen Anlage in Verbindung mit dem Produkt – sie
ist ein essenzielles Element für die Umsetzung der Vision Industrie
4.0. Gesucht sind praxisorientierte Beiträge zur Beschreibung, Modellierung,
Umsetzung, Einführung und Nutzung der Digitalen Anlage bei
Anlagenplanung, Inbetriebsetzung und Prozessführung. Beiträge, die
die Nutzung der Digitalen Anlage im Zusammenhang mit CPS darstellen,
sind ebenfalls willkommen.
Die atp edition ist die hochwertige Monatspublikation für Fach- und
Führungskräfte der Automatisierungsbranche. In den Hauptbeiträgen
werden die Themen mit hohem wissenschaftlichem und technischem
Anspruch und vergleichsweise abstrakt dargestellt. Im Journalteil
werden praxisnahe Erfahrungen von Anwendern mit neuen Technologien,
Prozessen oder Produkten beschrieben.
Alle Beiträge werden von einem Fachgremium begutachtet. Sollten
Sie sich selbst aktiv an dem Begutachtungsprozess beteiligen wollen,
bitten wir um kurze Rückmeldung. Für weitere Rückfragen stehen wir
Ihnen selbstverständlich gerne zur Verfügung.
Ihre Redaktion der atp edition: Leon Urbas, Anne Hütter
CALL FOR
Aufruf zur Beitragseinreichung
Thema: Die Digitale Anlage im Lebenszyklus
Kontakt: urbas@di-verlag.de
Termin: 28. Januar 2013
atp edition
12 / 2012
15
PRAXIS
Vernetzte Sicherheitscontroller überwachen die
komplette Montage von Flugzeugrumpf-Schalen
Premium Aerotec erreicht mit Lösung von ABB Jokab Safety Performance Level PL e und SIL 3
DIE SCHUTZUMHAUSUNG QUICK-GUARD
besteht aus einem Minimum an Komponenten.
Die Computer-Software SafeCAD erstellt
automatisch 3D-Zeichnungen sowie Komponentenund
Schnittlisten. Der Sicherheits-Lichtvorhang
Focus schützt vor unbefugtem Zutritt.
Bild: ABB Jokab Safety
DIE VOLLAUTOMATISIERTE FLÄCHENNIETANLAGE
NOR ist durch eine Sicherheits-Komplettlösung von
Jokab Safety rundum geschützt. Bild: Premium Aerotec
Der Luftfahrtzulieferer Premium Aerotec wählte für
den Personen-, Maschinen- und Anlagenschutz an
den Flächennietern und seiner Pulse-Motion-Montagelinie
eine Sicherheits-Komplettlösung von ABB Jokab
Safety. Sämtliche Sicherheitsfunktionen an den
neuen Fertigungslinien in der Schalenmontage im
niedersächsischen Nordenham werden von zehn miteinander
vernetzten Sicherheitscontrollern Pluto
B46 v2 überwacht und gesteuert. Diese sind über sechs
Protokollumsetzer Gate-P1 mit der übergeordneten
Profibus-DP-Steuerung vernetzt. Mit Erweiterungsund
Sicherheitsrelais, Zustimmungsschaltern, Lichtvorhängen,
Schutzumhausungen sowie Sicherheitsschlössern
mit Zuhaltung erreicht das Unternehmen
durchgängig den höchsten Performance Level PL e
gemäß EN ISO 13849-1 und SIL 3 gemäß EN IEC 61508
sowie EN IEC 62061.
5000 RUMPFSCHALEN PRO JAHR
Jährlich verlassen rund 5000 Schalen das Werk Nordenham,
die unter anderem auf dem Seeweg zum
Hauptkunden Airbus nach Hamburg transportiert
werden. Aus Nordenham erhält der Flugzeughersteller
Schalen für den A380 und zukünftig die komplette
Sektion 13/14 der Rumpfstruktur für den A350 XWB.
Neben der Fertigung von Flugzeugstrukturen für die
gesamte Airbus-Flotte produziert das Werk Nordenham
auch Bauteile für andere Luftfahrtkunden sowie
branchenfremde Unternehmen, wie Komponenten für
den Triebkopf des chinesischen Hochgeschwindigkeitszuges
CRH3.
VOLLAUTOMATISIERTE FLÄCHENNIETANLAGE
Der Sondermaschinenbauer Brötje-Automation GmbH
aus Wiefelstede bei Oldenburg ist als Generalunternehmer
der verantwortliche Lieferant der drei Montagelinien
für die A350 XWB-Rumpfschalen in Nordenham,
Stade und Augsburg. Dies beinhaltet neben einem in der
Flugzeugmontage einzigartigen Förderkonzept auch
vollautomatisierte Bohr- und Nietmaschinen.
Sowohl die vollautomatisierte Flächennietanlage in
Nordenham als auch die Multi-Panel-Assembly-Cell
(MPAC) in Augsburg sind zur Herstellung von Nietverbindungen
und zur Montage von Rumpf-Bauteilen für
den Airbus A 350 bestimmt. Der Bohr- und Nietprozess
erfordert eine beidseitige und geregelte Krafteinleitung,
um die Flugzeugschale vor Beschädigungen zu schützen.
Der eingesetzte Bohr- und Nietendeffektor ist daher zwei-
16
atp edition
12 / 2012
DAS SICHERHEITSSCHLOSS KNOX verhindert,
dass Menschen in die Nähe gefährlicher Maschinenteile
gelangen können, bevor die Maschine
vollständig stillsteht. Bild: ABB Jokab Safety
DER SICHERHEITSCONTROLLER PLUTO B20
unterstützt durchgängig den höchsten Performance
Level PL e und SIL 3. Die Erweiterungsrelais BT51
bieten zusätzliche Ausgangskontakte, und das
Gateway Gate P1 ermöglicht die Kommunikation
mit der übergeordneten Profibus-DP-Steuerung.
Bild: ABB Jokab Safety
geteilt. Das sogenannte Oberwerkzeug beherbergt diverse
einzelne Werkzeuge wie Bohrer, Nieteinsetzer sowie
Spanabsaugung und kommt ohne Hydraulik aus. Es wird
über ein Portal in die jeweils gewünschte Position verfahren.
Das Unterwerkzeug ist steuerungsseitig gekoppelt
und kann so automatisch in die dazugehörige Gegenhalterposition
verfahren werden. Eine Vielzahl von
Achsen erlaubt auch das Bearbeiten von komplexen Bauteilen
und Strukturen.
SICHERHEITSZELLE SCHÜTZT MITARBEITER
Die Pulse Motion Line (PML) für die Schalenproduktion
ist ein in der Flugzeugmontage weltweit erstmalig eingesetztes
Montagelinienkonzept. Die Taktung des Bauteils
erfolgt in vorab festgelegten Abständen, hier alle 7
Spanten. Die Bauteilträger werden mit einem Transportgestell
in die PML be- und entladen. Ein durchgängiges
Transportsystem in der PML sorgt für den Weitertransport
der Bauteile durch alle Arbeitsbereiche.
Die Anlage ist aus Sicherheitsgründen mit einem
Schutzzaun für den Arbeitsbereich der Nietanlage ausgerüstet.
Die Sicherheitszelle ist mit mehreren Türen
ausgerüstet. Jede Tür verfügt über eine Türverriegelung
Knox von Jokab Safety. Der Eintritt in die Sicherheitszelle
wird erst freigegeben, wenn sich das Positioniersystem
und die Nietmaschine in einem sicheren Zustand
befinden.
Zur Durchführung mehrerer Bohrungen am Testblech
kann der Bediener den Positionierer eingeschränkt
verfahren. Zum Schutz des Bedieners in der
Zelle bewegt sich der Positionierer nur, wenn der Bediener
eine Zustimmtaste betätigt hält. Die Bewegung
des Positionierers ist auf „sichere Geschwindigkeit“
begrenzt. Wenn der Bediener die Zustimmtaste während
eines Zyklus loslässt, stoppt der Zyklus an Unterbrechungspunkten
in der Prozessschrittkette, eine
Bohrvorschubbewegung wird sofort abgebrochen und
der Bohrer zurückgezogen.
Alle diese übergeordneten sicherheitsrelevanten
Steuerungsprozesse sind durch mehrere miteinander
vernetzte Sicherheitscontroller des Typs Pluto B46-2
realisiert. Die von der Sicherheitstechnik geforderte
Flexibilität ließ sich mit dem freiprogrammierbaren
Sicherheitscontroller Pluto problemlos verwirklichen.
Pluto ist ein Controller, der den Entwurf von Sicherheitssystemen
vereinfacht und die höchste Sicherheitskategorie
4 nach EN 954-1 beziehungsweise PL e nach
EN 13849-1 erreicht.
atp edition
12 / 2012
17
PRAXIS
EINFACHER AUSBAU DANK MODULSYSTEM
Für das Projekt benötigte man sowohl eine flexible Automatisierungssteuerung
als auch ein zuverlässiges Sicherheitssystem.
Die Wahl fiel hier auf die SPS Pluto von
ABB Jokab Safety, die beide Anforderungen erfüllen
konnte. Pluto ermöglichte eine leichte und unkomplizierte
sicherheitstechnische Vernetzung der Fertigungslinie.
Mithilfe des Pluto-Systems wurde die Berechnung
des PL stark erleichtert.
Die modulare Architektur des Systems erlaubt einen
einfachen Ausbau falls die Kapazität erhöht werden
muss. Für Brötje-Automation war wichtig, dass die Sicherheitsfunktionen
von Anfang an in das Anlagenkonzept
integriert werden konnten. Schließlich ist es nicht
ganz einfach, ein System im Nachhinein an die zahlreichen
erforderlichen Sicherheitsfunktionen anzupassen.
Eine rein Hardware-technische Realisierung mit dem
damit verbundenen enormen Installationsaufwand und
möglicherweise einem zusätzlichen Schaltschrank wäre
zu aufwendig geworden.
DEZENTRALE AUTOMATISIERUNGSLÖSUNG
Alle Fäden der dezentral strukturierten Automatisierungslösung
für das Transportsystem laufen in einem
zentralen Controller zusammen, der neben den konventionellen
SPS-Aufgaben die gesamte Sicherheitstechnik
des Transportsystems auswertet und steuert. Das Ergebnis
sind mehrere kompakt montierte, dezentrale Schaltschränke,
die über Profibus DP mit dem zentralen Controller
verbunden sind.
Durch den Mischbetrieb der Baugruppen ist es möglich,
in einer dezentralen Station sowohl Standard- als
auch sicherheitsrelevante Prozess-Signale zu verarbeiten.
Der sichere Datenaustausch ist über herkömmliche
Profibus-Kabel und das Protokoll Profisafe realisiert.
Dies erspart einen separaten Sicherheitsbus und den damit
verbundenen Installationsaufwand.
LICHTVORHANG SORGT FÜR FLEXIBILITÄT
Die Roboter-Anlage ist aus Sicherheitsgründen mit einer
Zelleneinhausung für den Arbeitsbereich ausgerüstet.
Die Sicherheitszelle soll verhindern, dass sich während
des Automatikbetriebs ein Mitarbeiter im Gefahrenbereich
des Roboters aufhält. Die Sicherheitszelle wird mit
mehreren Türen ausgerüstet. Jede Tür hat eine Türsicherung
Knox von Jokab Safety. Der Eintritt in die Sicherheitszelle
wird erst freigegeben, wenn der Roboter mit
dem Endeffektor sicher steht.
Damit der Bediener oder das Wartungspersonal an den
Endeffektoren am Ablageplatz arbeiten kann, ist der Bereich
zwischen Ablageplatz und Sicherheitszelle mit
einem Jokab-Safety-Lichtvorhang Focus gesichert. Wenn
mehr als ein Roboter in der Zelle arbeitet, wird mit zusätzlichen
Lichtvorhängen des Typs Focus die Zelle in
Arbeitsbereiche aufgeteilt. Durch diese Querteilung der
Sicherheitszelle wird es möglich, dass sich Bediener oder
Wartungspersonal in einem Teilbereich der Zelle aufhalten
können, ohne dass der zweite Roboter seine Arbeit
stoppen muss.
PROJEKTÄNDERUNGEN OHNE UMVERDRAHTUNG
Ausgezahlt hat sich die fehlersichere SPS-Technik bereits
in der Entwicklungsphase insofern, als im Sondermaschinenbau
immer wieder Änderungen in der Projektphase
vorgenommen werden müssen, die sonst einen
erheblichen Umverdrahtungsaufwand mit sich gebracht
hätten. Die Sicherheitsfunktionalität der fehlersicheren
Steuerung Pluto basiert auf vorgefertigten Funktionsbausteinen.
Diese lassen sich aber auch an individuelle Anforderungen
anpassen. Zum Austausch nicht sicherheitsrelevanter
Daten zwischen den Pluto-Steuerungen wird
das Profibus-Gateway Gate-P1 von ABB Jokab Safety
eingesetzt.
Der bei Premium Aerotec mit der Instandhaltungsplanung
und -steuerung betraute technische Leiter, Peter
Janßen und sein Mitarbeiter Thomas Karges sowie Brötje-Projektleiter
Automatisierungstechnik, Rainer Weber,
schätzen vor allem die hohe Anpassungsfähigkeit des
Sicherheitscontrollers Pluto sowie die leichte Ausrichtung
der Unfallschutz-Lichtvorhänge Focus.
Die drei Automatisierungsspezialisten loben auch den
übersichtlichen modularen Aufbau und die leichte Programmierbarkeit
von Pluto mit der kostenlosen Software
Pluto Manager sowie das durchgängige Erreichen des
höchsten Performance Levels PL e.
AUTOR
ANDREAS STRANGFELD
ist Leiter Produktmarketing
Safety bei ABB Stotz-
Kontakt in Spaichingen.
ABB Stotz-Kontakt GmbH,
Max-Planck-Straße 21, D-78549 Spaichingen,
Tel. +49 (0) 7424 958 65 24,
E-Mail: andreas.strangfeld@de.abb.com
18
atp edition
12 / 2012
Herausforderung
Automatisierungstechnik
Mit dem atp-award werden zwei Autoren der atp edition
für hervorragende Beiträge ausgezeichnet. Ziel dieser
Initiative ist es, Wissenschaftler und Praktiker der
Automatisierungstechnik anzuregen, ihre Ergebnisse
und Erfahrungen in Veröffentlichungen zu fassen und
die Wissenstransparenz in der Automatisierungstechnik
zu fördern.
Teilnehmen kann jeder Autor der zum Zeitpunkt
der Veröffentlichung nicht älter als 35 Jahre ist. Nach
Veröffentlichung eines Beitrags ist der Autor, wenn er
die Bedingung erfüllt, automatisch im Pool. Die Auswahl
des Gewinners übernimmt die atp-Fachredaktion.
Derjenige Autor, der im Autorenteam der jüngste ist,
erhält stellvertretend für alle Autoren die Auszeichnung.
Der Preis wird in zwei Kategorien ausgelobt:
Industrie und Hochschule. Die Kategorien ermittlung
ergibt sich aus der in dem Beitrag angegebenen Adresse
des jüngsten Autors.
Veröffentlichungen – Beitrag zum Wissenspool
im Fachgebiet Automatisierungstechnik
Die Entwicklung eines Wissensgebietes erfolgt durch
einen kooperativen Prozess zwischen wissenschaftlicher
Grundlagenforschung, Konzept- und Lösungsentwicklung
und Anwendung in der Praxis. Ein solcher
Prozess bedarf einer gemeinsamen Informationsplattform.
Veröffentlichungen sind die essentielle Basis
eines solchen Informationspools.
Der atp-award fördert den wissenschaftlichen Austausch
im dynamischen Feld der Automationstechnik.
Nachwuchsingenieure sollen gezielt ihre Forschungen
präsentieren können und so leichter den Zugang zur
Community erhalten. Der Preis ist mit einer Prämie
von jeweils 2000 € dotiert.
Die Auswahl erfolgt in zwei Stufen:
Voraussetzung für die Teilnahme ist die Veröffentlichung
des Beitrags in der atp edition. Jeder Aufsatz,
der als Hauptbeitrag für die atp edition eingereicht
wird, durchläuft das Peer-Review-Verfahren. Die
letzte Entscheidung zur Veröffentlichung liegt beim
Chefredakteur. Wird ein Beitrag veröffentlicht, kommt
er automatisch in den Pool der atp-award-Bewerber,
vorausgesetzt einer der Autoren ist zum Zeitpunkt
der Veröffentlichung nicht älter als 35 Jahre. Ausgezeichnet
wird der jüngste Autor stellvertretend für alle
Autoren der Gruppe. Eine Jury aus Vertretern der atp-
Fachredaktion und des -Beirats ermittelt schließlich
den Gewinner in den jeweiligen Kategorien Hochschule
und Industrie. Der Rechtsweg ist ausgeschlossen.
Beiträge richten Sie bitte an:
Prof. Dr.-Ing. Leon Urbas
Chefredakteur
c/o Technische Universität Dresden
Institut für Automatisierungstechnik
Professur für Prozessleittechnik
01062 Dresden
Tel. +49 351 463-39614, Fax -39681
M +49 177 466-5201
E-Mail: urbas@di-verlag.de
Beachten Sie die Autorenhinweise der atp edition für
Hauptbeiträge unter folgendem Link:
http://www.atp-online.de
Vom Wettbewerb ausgeschlossen sind Mitarbeiter des Deutschen Industrieverlags. Wird ein Beitrag von mehreren Autoren eingereicht, gelten die Bedingungen für den Erstautor. Der Preis
als ideeller Wert geht in diesem Fall an die gesamte Autorengruppe, die Dotierung geht jedoch exklusiv an den jüngsten Autor. Grundlage der Teilnahme am Wettbewerb ist die Einsendung
eines Hauptaufsatz-Manuskriptes an die atp-Chefredaktion.
www.atp-online.de
PRAXIS
Punktschweißen von Aluminium-Türen des
Porsche Panamera prozesssicher automatisiert
Georg Fischer Automotive steuert das Schweißverfahren DeltaSpot mit der Software Xplorer
„DER WECHSEL DES
PROZESSBANDES wird
erst nach rund 5000
Punkten erforderlich,
das heißt, wir schweißen
ohne Unterbrechung
rund 300 Porsche-
Panamera-Türen“,
erläutert Gießerei-
Fachmann Alois Edtbauer.
AUF DEN ZIRKA 3 MM DICKEN RAHMEN der Fahrzeugtüren für
den Porsche Panamera aus Aluminium-Druckguss ist ein 2 mm
dickes Versteifungsblech zu fügen, das gleichfalls aus einem
Aluminium-Werkstoff besteht.
DIE VORRICHTUNG zum exakten Positionieren der Gussstege
entwickelten Experten von Georg Fischer in Kooperation mit ABB.
DIE ANLAGE ZUM
WIDERSTANDS-
PUNKTSCHWEISSEN
mit DeltaSpot läuft
in Altenmarkt seit dem
Start der Serienproduktion
im Jahre
2008 prozesssicher.
Bilder: Fronius
Widerstandspunktschweißen ist das Fügeverfahren
mit der längsten automatisierungstechnischen Tradition.
Sind jedoch Aluminiumteile zu punkten, ist dies
mit dem konventionellen Widerstands-Punktschweißen
nur sehr eingeschränkt realisierbar. Experten des Automobil-Zulieferers
Georg Fischer Automotive (GF) haben
gemeinsam mit denen des Schweißsystempartners Fronius
eine prozessfähige Automationslösung entwickelt.
Sie wird am österreichischen Standort Altenmarkt in der
Fertigung von Rahmen der Türen für den Porsche
Panamera genutzt. Zum Einsatz kommen die Automatisierungssoftware
Xplorer und das Widerstands-Punktschweißverfahren
DeltaSpot.
Das Gießen von Metall, zum Beispiel Aluminium- und
Magnesium-Druckgießen, bildet bei Georg Fischer eine
Kernkompetenz. Alois Edtbauer, der gelernte Werkzeugmacher,
Gießerei-Fachmann und jetzige Facheinkäufer
für Gießereiausstattung und -material, beschreibt den
Aufgabenbereich des Werks mit rund 600 Mitarbeitern:
„Hier an unserem österreichischen Standort Altenmarkt
fertigen wir Strukturbauteile wie Federbein-Aufnahmen
und Türrahmen.“ So ist auf den rund 3 mm dicken Rahmen
von vier Fahrzeugtüren aus Aluminium-Druckguss
für den Porsche Panamera ein 2 mm dickes Versteifungsblech
zu fügen, das gleichfalls aus einem Aluminium-
Werkstoff besteht.
VERSCHIEDENE FÜGEVERFAHREN IM VERGLEICH
Um die fertigungstechnischen Optionen zu erkunden,
untersuchten die Fachleute mehrere Fügeverfahren auf
ihre Eignung und ihre Wirtschaftlichkeit – darunter das
konventionelle Widerstandspunktschweißen, das Rührreibschweißen,
das Clinchen, das Stanznieten, einen Klebeprozess
sowie DeltaSpot, ein von Fronius entwickeltes,
spezielles Widerstands-Punktschweißverfahren.
Vier verschiedene Fahrzeugtüren eines Satzes sind per
Punktschweißverbindung mit der Innen-Versteifung zu
versehen. Die Teile aus Aluminium-Druckguss überzieht
eine Anti-Oxidationsschicht. Dafür wird in vorgelagerten
Arbeitsgängen die bestehende Oxidschicht abgebeizt
20
atp edition
12 / 2012
Die Referenzklasse für die
Automatisierungstechnik
Erfahren Sie auf höchstem inhaltlichem Niveau,
was die Automatisierungsbranche bewegt. Alle
Hauptbeiträge werden im Peer-Review-Verfahren
begutachtet, um Ihnen maximale inhaltliche
Qualität zu garantieren.
Genießen Sie ein einzigartiges Lektüreerlebnis,
das ausgezeichnete Layout und die exklusive
Produktausstattung.
MIT EINEM AUTOMATISIERTEN SYSTEM
werden im Takt von etwa 100 Sekunden pro
Fahrzeugtür 16 Punkte von exakt je 5 mm im
Durchmesser geschweißt.
und eine dünne Lage Titan-Zirkon (TiZrSiO4) aufgetragen.
Dies verhindert das Entstehen der natürlichen Aluminiumoxidschicht.
„Beim fertigen Teil liegt eine Hauptdichtung zwischen
Tür und Rahmen an der zu fügenden Stelle. Hier muss
es deshalb möglichst spritzerfrei zugehen. Der wärmebedingte
Verzug am Werkstück muss in engen Grenzen
bleiben, und wir müssen ihn durch nachträgliches Richten
ausgleichen können“, erläutert Ingenieur Wolfgang
Hintsteiner, Leiter Beschichtung, die Aufgabe.
PROZESSBAND SICHERT KONSTANTE VERHÄLTNISSE
Herkömmliches Widerstandspunktschweißen sei für die
Aufgabe ungeeignet, erläutert Hintsteiner. Es verursache
zu viele Spritzer und wegen der unkontrollierbaren,
punktuell starken Wärmeeinbringung im angeschweißten
Blech entstehe die gefürchtete Kurzwelligkeit, die sich
nicht mehr korrigieren lasse. Das eigentlich für Aluminium
und seine Legierungen prädestinierte Rührreibschweißen
sei ausgeschieden, weil es stark von der Wand-
Wählen Sie einfach das Bezugsangebot,
das Ihnen zusagt!
· Das Heft als gedrucktes, zeitlos-klassisches Fachmagazin
· Das e-Paper als modernes, digitales Informationsmedium
für Computer, Tablet oder Smartphone
· Das Heft + e-Paper als clevere Abo-plus-Kombination
ideal zum Archivieren
Alle Bezugsangebote und Direktanforderung
finden Sie im Online-Shop unter
www.atp-online.de
www.atp-online.de
atp edition erscheint in: DIV Deutscher Industrieverlag GmbH, Arnulfstraße 124, 80636 München
PRAXIS
dicke der Teile abhängig sei. Wegen der Gusstoleranzen
hätte daher vor jedem Schweißvorgang die Dicke der zu
verbindenden Teile ermittelt und berücksichtigt werden
müssen. Die anderen Alternativen schieden aus prozesstechnischen
Gründen aus und die Wahl fiel auf DeltaSpot.
Zwischen Elektrode und Werkstück läuft bei diesem
Verfahren ein Prozessband im Rhythmus der Punktschweißungen.
Das Aluminium legiert auf das nach jedem
Schweißpunktieren weiter geförderte Band statt auf die
fixe Elektrode. Der „gebrauchte“ Abschnitt verlässt jeweils
den Kontaktbereich. Für jeden Schweißpunkt herrschen
somit die gleichen Bedingungen. Die Prozessbänder
schützen damit Elektrode und Werkstück vor Verunreinigungen,
Auflegieren oder anderen werkstückseitigen
Einflüssen. Dies stabilisiert den Schweißprozess und erhöht
die Elektrodenstanddauer. Sie verbessern außerdem
die Kontaktsituation. Das Prozessband hilft, Oberflächenspritzer
zu vermeiden und vergrößert das Prozessfenster.
16 SCHWEISSPUNKTE IN 100 SEKUNDEN
Nachdem sich DeltaSpot in der Fertigungspraxis seit dem
Jahr 2008 bewährt, sehen sich Alois Edtbauer und Wolfgang
Hintsteiner in ihrer Entscheidung bestätigt. „Wir
haben den Prozess jetzt im Griff. Mit dem Prozessband
erzeugen wir wiederholgenau einen gleichmäßigen Punkt
– exakt 5 mm im Durchmesser und 16 Punktverbindungen
in jedem Werkstück. Wir schweißen im Takt von zirka 100
Sekunden eine dieser Türen und brauchen die Oberfläche
hinterher nicht nachzuarbeiten“, führt Hintsteiner aus.
„Optisch zeigt sich ein sehr sauberer Punkt. Der Wechsel
des Prozessbandes dauert weniger als 15 Minuten und
wird erst nach rund 5000 Punkten erforderlich, das heißt
wir schweißen ohne Unterbrechung rund 300 Porsche-
Panamera-Türen“, ergänzt Edtbauer.
Nur einmal pro Band sind auch die Elektroden auszutauschen.
Unter adäquaten Bedingungen könnten Anwender
mit dem konventionellen Widerstands-Punktschweißen
nur 20 Punkte setzen. Das würde praktisch
eine Elektrodennacharbeit pro Tür bedeuten.
Die gefügten DeltaSpot-Verbindungen bestehen die
Zug-Scherprüfung. Eventuell entstehender geringfügiger
Formverzug ist durch Richten leicht korrigierbar. Alois
Edtbauer: „Das Verfahren DeltaSpot hat sich in unserer
Anwendung dank der gelungenen Automatisierungslösung
auch als kostengünstig erwiesen.“ Die Experten in
Altenmarkt sehen die Perspektive positiv. „Die Anlage
läuft prozesssicher“, freut sich Gießereifachmann Edtbauer.
Und Ingenieur Hintsteiner erklärt: „Für Anwendungsfälle
wie den unseren mit schweißbarem Guss,
definierter Oberfläche, Antikorrosionsbeschichtung und
gegebener Zugänglichkeit ist DeltaSpot erste Wahl.“
XPLORER VERKNÜPFT ALLE SCHWEISSSYSTEME
Ein Schlüssel für das Automatisierungskonzept liegt in
der Steuerung mit der Software Xplorer. Sie sorgt für den
einwandfreien Ablauf des gesamten Prozesses inklusive
des Erstellens der variablen Parameter. Dazu gibt der
Anwender den Sollwert des Stromes mit einem analogen
Spannungssignal vor. Die Funktion der Bedienoberfläche
inklusive Visualisieren von Anlagenstatus und Parametern
übernimmt der Xplorer. Er erleichtert per grafischer
Visualisierung das Erstellen der Parameter und den intuitiven
Umgang mit der Anlage just in time. Der Xplorer
verknüpft alle Schweißsysteme am Standort, das heißt
zum Beispiel auch die in Schweißzellen installierten
Lichtbogenstromquellen. So können die Produktionsexperten
jederzeit deren Daten, Ergebnisse und Dokumente
über den Bildschirm verfolgen.
Die Schweißmanagementsoftware Xplorer steht als
Freeware allen Nutzern kostenfrei zur Verfügung. Ihre
Funktionen: Sie vernetzt automatisierte Schweißsysteme
und erzeugt einen virtuellen Leitstand. Ihre grafische
Benutzeroberfläche und selbsterklärende Symbole erleichtern
dem Anwender das übersichtliche Verwalten
von beliebig vielen Schweißsystemen in seiner Produktion.
Deren Standort und Status erkennt er auf einen
Blick. Bewährte Einstellungen (Jobs) kann er einfach von
einem Schweißsystem auf ein anderes kopieren, zum
Beispiel in der Darstellung beider Systeme nebeneinander
auf einem geteilten Bildschirm.
NUTZER KÖNNEN SICH MOBIL EINLOGGEN
Den Xplorer kann der User auch per Touchscreen bedienen.
Mit der mehrplatzfähigen Software können Nutzer
von verschiedenen PC auf die Daten zugreifen. Der Ort
für die Datenspeicherung ist frei wählbar, beispielsweise
ein Serverlaufwerk oder eine Harddisk. Der Xplorer ist
WLAN-tauglich und steht in 13 Sprachen zur Verfügung.
Wählen kann der Anwender auch zwischen vier aufeinander
aufbauenden Xplorer-Funktionspaketen. Jedes
Paket enthält als Basis den Xplorer sowie die mit den
entsprechenden Schnittstellen und der aktuellen Firmware
ausgestatteten Schweißsysteme. Hinzu kommen bei
Paket 2 der JobExplorer und beim dritten Paket zusätzlich
die Software zur Dokumentation. Die Funktionen des
JobExplorer und zur Dokumentation übernimmt beim
vierten Paket die Fernbedienung RCU 5000i. Unabhängig
vom Funktionspaket kann der Anwender die Zugriffsrechte
regeln. Identifiziert sich der Nutzer mit seinem
Passwort, erhält er die ihm zustehenden Ansichts- und
Eingriffsoptionen. Jeder Benutzer kann seine Rechte auf
einen USB-Stick speichern und sich damit bei Bedarf
mobil einloggen. So erschließt der Xplorer dem Schweißen
die moderne Automatisierungswelt.
AUTOREN
CHRISTOPH PANGERL und MARTIN EIERSEBNER
sind Produktexperten Widerstandsschweißen bei
Fronius International.
Fronius International GmbH,
Froniusplatz 1, A-4600 Wels,
E-Mail: eiersebner.martin@fronius.com,
Tel. +43 7242 241 39 75,
E-Mail: pangerl.christoph@fronius.com,
Tel. +43 7242 241 85 17
22
atp edition
12 / 2012
KNOWLEDGE
for the FUTURE
Qualified reading
for automation
experts
Process Control Systems Engineering
Process Control Systems (PCS) are distributed control systems
(DCS) that are specialized to meet specific requirements of the
process industries.
The text book focuses on PCS engineering basics that are common
to different domains of the process industries. It relates to an
experimental research plant which serves for the exploration
of the interaction between process modularization and process
automation methods. This permits to capture features of highly
specialized and integrated mono-product plants as well as
application areas which are dominated by locally standardized
general-purpose apparatus and multi-product schemes. While
the text book’s theory is applicable for all PCS of different
suppliers, the examples refer to Siemens’ control system PCS 7.
Focusing on a single PCS enables readers to use the book in basic
lectures on PCS engineering as well as in computer lab courses,
allowing students to gain hands-on experience.
Editor: L. Urbas
1 st edition 2012, 204 pages, content in English * , hardcover
*
German language version coming soon
Order now by fax: +49 201 / 8 20 02 34 or detach and send in a letter
Yes, I place a firm order for the technical book. Please send me
Company/Institution
___ copies of Process Control Systems Engineering
1 st edition 2012 (ISBN: 978-3-8356-3198-4)
at the price of € 49,80 (plus postage and packing)
First name and surname of recipient
Street/P.O. Box, No.
Reply / Antwort
Vulkan-Verlag GmbH
Versandbuchhandlung
Postfach 10 39 62
45039 Essen
GERMANY
Country, postal code, town
Phone
E-Mail
Line of business
Fax
Date, signature
Please note: According to German law this request may be withdrawn within 14 days after order date in writing to Vulkan Verlag GmbH, Versandbuchhandlung, Postfach 10 39 62, 45039 Essen, Germany.
In order to accomplish your request and for communication purposes your personal data are being recorded and stored. It is approved that this data may also be used in commercial ways
by mail, by phone, by fax, by email, none. This approval may be withdrawn at any time.
PAPCSE2012
PRAXIS
Energiekonzern ENI setzt erstmals in neuer
italienischer Raffinerie auf Foundation Fieldbus
Verteilte Leittechnik, Sicherheitstechnik und Brandschutz sind in einem System zusammengefasst
Die Eni Slurry Technology (EST) ist ein in Italien entwickeltes
Verfahren zur Umwandlung von Abfallstoffen
aus dem Raffinationsprozess in Produkte mit viel
höherer Qualität sowie in ökologische Materialien. Für
die erste EST-Anlage in Sannazzaro dè Burgondi wurde
eine zuverlässige Architektur gewählt, die mehrere Leitstände
und mehr als 15 000 Signale umfasst. Eni kombiniert
in dieser Anlage Foundation Fieldbus von Yokogawa
mit Infrastrukturkomponenten von Pepperl+Fuchs,
um höchste Verfügbarkeit und günstige Wartungskosten
zu erreichen.
Eni, eines der größten integrierten Energieunternehmen,
ist in den Bereichen Öl und Gas, Exploration und
Produktion, Gasleitung und Marketing, Energieerzeugung,
Raffinerie und Vermarktung von Chemikalien und
Dienstleistungen im Bereich Ölfelder tätig. Die EST-Anlage
wird von Saipem, einem großen auf Öl und Gas spezialisierten
Anlagenbauer errichtet. Es ist das bisher
größte Projekt dieser Art in Italien. Die Bauarbeiten begannen
im Mai 2011, der Produktionsbeginn ist für Ende
2012 geplant.
PROBLEMATISCHE RESTSTOFFE AUFGEWERTET
Die Anlage in Sannazzaro wird auch für Versuche und
Forschung bei Eni eingesetzt. Das Verfahren beruht
auf einer Entdeckung italienischer Wissenschaftler,
die ein sehr wichtiges Kapitel im Bereich der Öl- und
Gasverarbeitung schreiben wird. EST ermöglicht die
Verwertung und Aufwertung von Rohöl mit unüblichen
Eigenschaften oder sehr schwerem Rohöl, Bitumen
und Sumpf.
Erstmalig setzt Eni in einer Raffinerie in Italien
Foundation Fieldbus-Technologie (FF) ein, um die Feldinstrumentierung
und Messtechnik mit dem Leitsystem
(DCS) zu verbinden. Betreiber Eni und Anlagenbauer
Saipem wählten digitale Übertragungstechnik
bis zum Feldgerät, weil diese Status-, Alarm und Diagnosefunktion
anlagenweit ermöglicht. Mit Yokogawa
wurde ein starker Partner gewählt, der die Prozessdaten
vollständig in einem System integrieren kann. Hinzu
kommen die Diagnose für Feldgeräte und die Feldbusphysik
selbst.
VOLLE SYSTEMINTEGRATION
Die verteilte Leittechnik (distributed control system,
DCS), Sicherheitstechnik (emergency shut down, ESD)
und der Brandschutz (F&G) sind in einem System zusammengefasst.
Rund 15 000 E/A-Signale wurden fest verdrahtet.
5500 Feldbusinstrumente werden über 650 Segmente
bedient. Trotz der über mehrere Anlagenbereiche
verteilten Installation sollte eine umfassende Integration
sichergestellt werden.
Alessandro Malberti, Produktmanager bei Yokogawa
Italien, erläutert: „Die Lösung umfasst alle Systeme: DCS,
ESD und F&G. Sie ermöglichen den direkten Informationsaustausch
innerhalb der Architektur, wobei nur ein
redundanter Bus verwendet wird, der alle Systeme miteinander
verbindet. Die von Yokogawa vorgeschlagene
Topografie beruht auf der Integration des Distributed-
Control-System Centum VP mit dem ESD-System ProSafe
RS und deckt alle Steuerungs- und Sicherheitsfunktionen
ab“. Das Plant Asset Management wird mit dem
Modul PRM realisiert.
Das Gigabit-Kommunikationsnetz Vnet-IP erlaubt
einen Datenaustausch zwischen Leitsystemen und der
Bedienerstation. Durch die Integration des Systems
MIT ZUBEHÖR UND VORVERDRAHTET IM EDELSTAHLGEHÄUSE:
Die Feldbusverteiler „Segment Protektor“ für die Zone 2 und
Explosionsschutzart Eigensicherheit „Ex ic“.
ADVANCED DIAGNOSTIC
MODULE auf dem
kompakten Power Hub:
acht Segmente mit
Überwachung der
Feldbusphysik.
Wartungsteams erhalten
Meldungen in Klartext
über die Feldbusinstallation.
Bilder: Pepperl+Fuchs
24
atp edition
12 / 2012
erhält der Bediener homogene Daten für die Steuerung
der Anlage. Alle Systeme sind vollständig redundant
in den folgenden Komponenten aufgebaut: CPU, Stromversorgung,
E/A- und Kommunikationskarten. Dies
sorgt dafür, dass die Anlage ausgesprochen zuverlässig
ist. Malberti ergänzt: „Beide Systeme erlaubten uns
dank ihrer Modularität die Gestaltung der Foundation
Fieldbus-Architektur entsprechend den Anforderungen
der Anlage, wodurch alle Kundenwünsche erfüllt
wurden.“
WARTUNG NUR NACH BEDARF UND PROAKTIV
Die große Anzahl von über 5000 Messstellen soll intelligent
instrumentiert werden. Die Feldgeräte übermitteln
via Foundation Fieldbus H1 (FF) Status- und Wartungsdaten.
Es ist vollständig in das Gesamtsystem integriert
und kann alle Konfigurationen der Feldgeräte erfassen,
die mit dem FF-Segment verbunden sind.
„Wir fühlen uns verpflichtet, über einen langen Zeitraum
eine ordnungsgemäße Funktion der FF-Segmente
zu garantieren, und das hat den Ausschlag für die
Lösung von Pepperl+Fuchs gegeben“, so der Produktmanager
von Yokogawa. „Das von Pepperl+Fuchs hergestellte
Advanced Diagnostic Module (ADM) ermöglicht
uns eine kontinuierliche Überwachung sogar der
Installationstechnik integriert im Asset-Management-
System.“
Das ADM erlaubt die Prüfung des Physical Layers, und
überwacht kontinuierlich Messwerte der Versorgungsspannung
sowie Erdfehler oder Störpegel im Netzwerk.
Die Kontrolle all dieser Parameter wird unterstützt
durch ein Expertensystem, das die hohe Zahl von Messungen
in Meldungen mit Klartext übersetzt. Verringert
sich beispielsweise der Signalpegel aller Feldgeräte
schlagartig, liegt das daran, das ein Terminator häufig
ungewollt zugeschaltet wurde. Das ADM lässt den Wartungsfachmann
in diesem Fall nicht mit vielen Meldungen
über falsche Signalpegel allein. Das Expertensystem
interpretiert und meldet in verständlichen Worten und
bietet einen Lösungsvorschlag an: „Termination des
Netzwerkes überprüfen.“ Durch rechtzeitige Wartung
kann die volle Funktionsfähigkeit des Feldbus-Segments
dauerhaft sichergestellt werden. Auf diese Weise werden
Wartungsarbeiten nicht mehr vorbeugend, sondern wenn
notwendig und proaktiv durchgeführt.
SYSTEMINTEGRATION AUCH IM DETAIL
Die Foundation-Fieldbus-Technologie erlaubt den Einsatz
von Geräten und Instrumenten von Drittherstellern,
die die vom FF-Konsortium geforderten Funktionsmerkmale
besitzen. In der Anlage befinden sich
Instrumente der Hersteller: Metso, Emerson, Vega, Biffi
und Auma.
Bei einem gedachten Gang entlang des Netzwerks gerät
zunächst die neue Generation des kompakten Power Hub
für acht Feldbussegmente in den Blick. Über einen Systemstecker
erfolgt die Verbindung zu den Leittechnikkarten.
Das spart Kosten bei der Installation und Überprüfung.
Der Power Hub kann im explosionsgefährdeten
Bereich „Zone 2“ installiert werden.
Im Feld befinden sich Edelstahl-Verteilerboxen, in denen
sich jeweils zwei 8-Kanal-Segment-Protektoren befinden.
An deren Ausgänge sind Füllstand-, Temperaturund
Drucktransmitter sowie Aktoren angeschlossen. Der
Segment-Protektor bietet einen Kurzschlussschutz, sodass
Arbeiten an Feldgeräten auf den Rest des in Betrieb
befindlichen Segmentes rückwirkungsfrei bleiben.
Über feldbusfähige, eigensichere Ventilsteuerbausteine
werden Druckluftventile angesteuert. Sie erfassen
neben den Ein- und Ausgangssignalen auch Losbrechund
Laufzeiten – eine für die bedarfsorientierte Instandhaltung
unerlässliche Information.
Signale von Temperatursensoren und Thermoelementen
finden den Weg in die Leittechnik über das Temperaturinterface
(TI). Kostengünstig teilen sich jeweils bis
zu acht Sensoren eine Feldbusadresse. Der Messwert
liegt digital vor, und die elektrischen Leitungen zu den
Sensoren werden ebenfalls überwacht.
Mit leistungsstarker Feldbustechnologie erreicht Eni
seine Ziele höchster Verfügbarkeit und hält Wartungskosten
im Griff. Denn Instandhaltungsarbeiten an Feldgeräten
und Installation werden nur dann durchgeführt,
wenn es einen Wartungsbedarf gibt. Der Feldbus
ist der digitale Highway, der die Informationsschätze
der Anlage hebt und vorausschauenden, reibungslosen
Betrieb ermöglicht.
AUTOR
ANDREAS HENNECKE
ist Produktmarketingmanager
im Geschäftsbereich
Prozessautomation
bei Pepperl+Fuchs.
Pepperl+Fuchs GmbH,
Lilienthalstraße 200,
D-68307 Mannheim,
Tel. +49 (0) 621 776 16 01,
E-Mail: ahennecke@de.pepperl-fuchs.com
atp edition
12 / 2012
25
www.di-verlag.de
Die neue Adresse für
das Wissen der Industrie:
Deutscher
Industrieverlag
Ein neues Kapitel beginnt:
Aus Oldenbourg Industrieverlag wird Deutscher Industrieverlag
Neue Zeiten erfordern neues Denken. In einer Welt des rasanten Wandels erwarten
Sie von Ihrem Fachverlag, dass er Sie schneller und umfassender als je zuvor mit allen
relevanten Informationen versorgt, die Sie für Ihre berufliche Praxis benötigen.
Wir nehmen diese Herausforderung an: Wir entwickeln uns für Sie zu einem integrierten
Medienhaus, das neben der Zeitschriften- und Buchproduktion künftig immer stärker
auch das Wissen des Fachs digital für alle Online-Kanäle auf bereitet.
Unser neuer Name unterstreicht diesen Wandel. Er verbindet unsere mehr als 150-jährige
Geschichte nahtlos mit der Zukunft.
Was sich nicht ändert: Im Mittelpunkt stehen weiterhin Sie und das Praxiswissen
Ihrer Branche. Ihre Fachkompetenz zu stärken – das ist für uns auch unter dem neuen
Namen Deutscher Industrieverlag Anspruch und Verpflichtung.
WIssEn Für DIE
ZuKunft
HAUPTBEITRAG
Virtualisierung im Kontext
eines Prozessleitsystems
IT-Einfluss auf die Architektur der Prozessautomatisierung
Durch die Verwendung der Technologie Virtualisierung im Kontext eines Prozessleitsystems
(PLS) resultiert ein gewisser Nutzen. Demgegenüber stehen Herausforderungen, die,
wie der Nutzen, in diesem Beitrag beschrieben werden Der Nutzen und die Herausforderungen
sind unabhängig von einer herstellerspezifischen Lösung eines PLS in virtueller
Umgebung. Sie wurden im Rahmen der Vorfeldarbeiten zur Virtualisierung von Teilen
des Siemens-Leitsystems Simatic PCS 7 ermittelt.
SCHLAGWÖRTER IT / PLS / Virtualisierung
Virtualization in the context of a Distributed Control System –
IT influence on the architecture of process automation
On the one hand, through the use of the IT technology virtualization with regard to distributed
control systems (DCS) results a certain benefit. On the other hand, different
challenges have to be taken in account, which are also shown within this paper. The
benefits and challenges are independent of a provider-specific virtualization-solution for
DCS. They were identified at the work to virtualize parts of the Siemens DCS – Simatic
PCS 7. The specific results achieved are also outlined in this review.
KEYWORDS IT /DCS /virtualization
28
atp edition
12 / 2012
STEFAN RUNDE, MARTIN SCHNEIDER, MARTIN GLASER, STEFFEN THIEME, Siemens AG
D
ie Laufzeit von automatisierten technischen
Systemen in der Prozessindustrie beträgt im
Gegensatz zur Fertigungsindustrie durchaus
mehrere Jahrzehnte. Dies ist ein Grund, warum
in der Prozessindustrie mehr Zeit benötigt
wird, bis technische Innovationen in den entsprechenden
Komponenten (zum Beispiel Feldgeräte) und Systemen
(beispielsweise Prozessleitsystem) Einzug halten.
Maßgeblicher Treiber für technische Neuerungen ist
die Notwendigkeit der Kostenreduzierung. Das gilt auch
für Prozessleitsysteme (PLS). Seitens der Anwender wie
BASF, Bayer und Merck werden unter anderem geringere
Investitionskosten gewünscht sowie eine möglichst
schnelle Inbetriebnahme und ein optimierter Betrieb
verbunden mit geringeren Kosten. Bei PLS ist die Kernfunktionalität
Prozessführung und -kontrolle seit ihrer
Einführung nahezu identisch – verschiedene Aufgaben,
wie Datenarchivierung, Prozessvisualisierung und
Alarmmanagement, sind jedoch hinzugekommen oder
komplexer geworden.
Daher handelt es sich bei den Neuerungen häufig um
Optimierungen der bereits existierenden PLS im Produktfolio
der einzelnen Hersteller. Viele dieser Optimierungen
gehen auf Technologien aus der IT zurück. Zu
diesen Technologien zählen beispielsweise Feldbusse,
Visualisierungen und Rechnersysteme. Bei letzteren stehen
derzeit die beiden Technologien Virtualisierung und
Cloud Computing im Fokus. In diesem Beitrag geht es um
die Technologie Virtualisierung, die eng mit dem Cloud
Computing verzahnt ist.
Nachfolgend skizzieren die Autoren die für den Beitrag
notwendigen Grundlagen der Architektur eines automatisierten
technischen Systems in der Prozessindustrie,
danach werden die Grundlagen der Virtualisierung beschrieben.
Einen Schwerpunkt bildet die Darstellung der
erzielten Ergebnisse bei der Anwendung eines nichthochverfügbaren
PLS (nicht-H-PLS) auf Basis von Virtualisierung.
Während dieser Use-Case bereits in der Praxis
Einzug gehalten hat, ist die Realisierung eines hochverfügbaren
PLS (H-PLS) unter Verwendung von Virtualisierung
untypisch. Die Umsetzung eines H-PLS mit
Hilfe von Mitteln der Virtualisierung adressiert eine
nächste PLS-Generation.
1. ARCHITEKTUR IN DER PROZESSAUTOMATISIERUNG
In Bild 1 ist die Automatisierungs-Pyramide im Zusammenhang
mit der Business-Pyramide dargestellt [3].
Die Feldebene mit ihren Sensoren und Aktoren bildet
die Schnittstelle zwischen physikalischem Prozess und
Automatisierungssystem. Die Aufnahme von Messgrößen
eines physikalischen Prozesses erfolgt mit Sensoren und
der Eingriff mittels der Stellgrößen in den physikalischen
Prozess mit Aktoren. Die Feldgeräte werden beispielsweise
an Remote-IOs, welche wiederum an Automatisierungsstationen
(AS) angeschlossen sind, und/oder direkt an die
AS auf der Steuerungsebene angebunden. In dieser Steuerungsebene
erfolgt nach Empfang der Messgröße (Absender:
Sensoren) die Verarbeitung – Steuerung und Regelung
– durch die AS. Anschließend läuft die Vorgabe der aus
der Verarbeitung hervorgegangenen Stellgrößen (Adressaten:
Aktoren). Die einzelnen AS sind eingebettet in ein
anlagenbezogenes PLS auf der Betriebsführungsebene. Im
Fokus dieses Beitrags steht die Betriebsführungsebene der
Automatisierungs-Pyramide mit dem PLS.
Die für die Ausführung der PLS-Kernfunktionalität
–Prozessführung und -kontrolle – notwendigen Informationen
auf dieser Ebene werden durch die prozessnahen
Komponenten auf der Feld- und Steuerungsebene bereitgestellt.
Zu diesen Komponenten zählen beispielsweise
die Sensoren, Aktoren, Remote-IOs, sowie Automatisierungsstationen
(AS) und Bedien-Stationen (OS) bestehend
aus der entsprechenden Hard- und Software [13].
Weiterhin verdeutlicht Bild 1 die Verbreitung der x86-
Technologie von der Ebene des Personalmanagements
(Business-Pyramide) bis in die Betriebsführungsebene
(Automatisierungs-Pyramide). x86 ist die Abkürzung einer
Mikroprozessor-Architektur und der damit verbundenen
Befehlssätze. Ursprünglich entwickelt von Intel, finden die
Befehlssätze (mit Erweiterungen) beispielsweise Anwendung
in den Prozessoren AMD Opteron, VIA C7 und Intel
atp edition
12 / 2012
29
HAUPTBEITRAG
Core i7. Bei genauerer Betrachtung hat die x86-Technologie
zudem bereits in der Steuerungsebene Einzug gehalten.
Beispiel: AS ausgeführt als Soft-SPS auf Basis der x86-Technolgie.
Die bestehenden Virtualisierungslösungen für Clients
und Server fußen mehrheitlich ebenso auf der x86-
Technologie und sind im Kontext der Ebenen der Business-
Pyramide bis hin zur Betriebsführungsebene der Automatisierungs-Pyramide
bereits Stand der Technik.
2. GRUNDLAGEN DER VIRTUALISIERUNG
2.1 Einführung
Die Technologie Virtualisierung umfasst Methoden, die es
erlauben, Ressourcen wie CPU-Leistung und Speicherplatz
effizient zu verwenden und somit Kosten zu sparen. Virtualisierung
ist heute in der IT etabliert und hat dort ihren
Nutzen unter Beweis gestellt. Die überwiegende Zahl der
Rechenzentren von Unternehmen nutzen diese Technologie
zur Konsolidierung der Ressourcen. Weiterhin ist die
Virtualisierung ein stark expandierender Markt, wie Gartner
festhält: „The […] virtualization software market will
grow at a compound annual rate of 46% from 2008 through
2013.“ Es ist daher naheliegend, dass Firmen mit großen
IT-Abteilungen, ausgehend von den IT-Applikationen, die
Technologie Virtualisierung perspektivisch in ihren Rechenzentren
dazu einsetzen, ebenfalls Teile der Automatisierungstechnik
in virtueller Umgebung zu realisieren.
2.2 Ansätze
Bei einem konventionellen Rechnersystem (Server, Client)
bestehend aus Hardware (zum Beispiel Prozessoren,
Speicher, Netzwerkkomponenten) und Software (Betriebssystem,
Applikationen) ist das Betriebssystem direkt
auf der Hardware installiert. Das Betriebssystem
bildet die Schnittstelle zwischen der Hardware und den
Applikationen (beispielsweise Tabellenkalkulation).
Bei der Virtualisierung [1] werden das Betriebssystem
und alle darauf ablaufenden Applikationen eines Rechners
von der Hardware entkoppelt und in einer virtuellen
Maschine (VM) zusammengefasst. Zwischen der Hardware
und dem Betriebssystem beziehungsweise den Betriebssystemen
befindet sich ein weiteres, schlankes Minibetriebssystem,
welches als Hypervisor bezeichnet
wird. Durch den Hypervisor wird es möglich, mehrere
VM – zum Beispiel mit unterschiedlichen Betriebssystemen
wie Microsoft Windows und Linux – parallel auf
einer Hardware zu betreiben. Ein Rechner mit einer Hardware
kann somit wie eine Vielzahl von Rechnern agieren.
Bild 2 zeigt die drei grundsätzlichen Virtualisierungsansätze
mit Hypervisor Typ 1, Hypervisor Typ 1/Paravirtualization
und Hypervisor Typ 2 im Vergleich zu
einem konventionellen System. Der Virtualisierungsansatz
mit Hypervisor Typ 1 wird auch als Stand Alone
Approach, Bare host, Bare Metal Hypervisor oder Native
Host bezeichnet, der Virtualisierungsansatz Hypervisor
Typ 2 als Host, Hosted Virtualization, Hosted Hypervisor
oder Host-Guest Approach.
Beim Virtualisierungsansatz mit Hypervisor Typ 1
läuft dieser direkt auf der Hardware, weshalb sie auch
als Hardwarevirtualisierung bezeichnet wird. Der Hypervisor
ist vollständig unabhängig von weiterer Software
und hat direkten Zugriff auf die Ressourcen der
Hardware. Auf dem Hypervisor sind die VM mit verschiedenen
Betriebssystemen lauffähig und darin wiederum
die Applikationen, wie es beim Virtualisierungsansatz
mit Hypervisor Typ 1/Paravirtualization ebenfalls der
Fall ist. Diese Variante des Virtualisierungsansatzes mit
Hypervisor Typ 1/Paravirtualization ist jedoch nicht vollständig
unabhängig von weiterer Software, sondern wird
mit Hilfe der Parent-Virtual-Machine konfiguriert. Beim
Virtualisierungsansatz mit Hypervisor Typ 2 läuft dieser
auf Basis eines Host-Betriebssystems wie Microsoft Windows
oder Linux. Auf dem Hypervisor wiederum sind
die verschiedenen Gast-Betriebssysteme lauffähig, und
basierend darauf, die verschiedenen Applikationen.
Ein Nachteil der Virtualisierungslösung mit Hypervisor
Typ 1 ist, dass die Rechner-Hardware für den Hypervisor
Typ 1 kompatibel und vom Hersteller der Virtualisierungslösung
zertifiziert sein muss. Beim Ansatz mit Hypervisor
Typ 2 lässt sich jegliche vom Host-Betriebssystem unterstützte
Hardware verwenden. Vorteile der Lösungen mit
Hypervisor Typ 1 und Hypervisor Typ 1/Paravirtualization
sind jedoch die Effizienz und die Performance aufgrund
des direkten Zugriffs auf die Hardware im Gegensatz zum
Ansatz mit Hypervisor Typ 2.
2.3 Virtualisierungslösungen
Die Firmen Citrix, Microsoft und VMware sind die derzeit
bedeutendsten Hersteller von Virtualisierungslösungen.
Die beiden Produkte XenServer und Hyper-V der
Firmen Citrix beziehungsweise Microsoft basieren auf
dem Virtualisierungsansatz Hypervisor Typ 1/Paravirtualisierung.
Neben den ohnehin notwendigen Lizenzen
für die Gast-Betriebssysteme ist eine zusätzliche Lizenz
für das zu installierende Host-Betriebssystem in der
Parent-Virtual-Machine zu erwerben. Es ist jedoch aus-
Personalmanagement
Finanzmanagement
Materialwirtschaft
und Controlling
Produktionsplanung
und -steuerung
Produktionsführungsebene
Betriebsführungsebene
(SCADA / Leitsystem
Steuerungsebene
Feldebene
Software
SAP – HR
SAP – FI
SAP – CO
SAP – MM
SAP – PP
WinCC PCS 7
BILD 1: Automatisierungs-Pyramide
im Gesamtkontext
Hardware
x86-basierende Technologien
30
atp edition
12 / 2012
eichend, dass die verwendete Hardware vom Host-Betriebssystem
unterstützt und zertifiziert sein muss. Microsoft
stellt explizit Anforderungen an die Hardware,
wie beispielsweise, dass der verwendete 64-Bit-Prozessor
Virtualisierungstechnik unterstützen muss. VMware
unterstützt zudem die 32-Bit-Technik. Von Nachteil ist
weiterhin, dass die Gast-Betriebssysteme modifiziert
werden müssen (zum Beispiel Austausch der Treiber).
Bei dem Produkt ESXi von VMware handelt es sich um
eine Lösung basierend auf dem Ansatz mit Hypervisor Typ
1. Damit die verwendete Hardware von diesen Produkten
unterstützt wird, ist diese von der Firma VMware zu zertifizieren.
Ein Vorteil dieser Lösungen ist, dass, anders als
beim Hypervisor Typ 1/Paravirtualization, kein zusätzlicher
Verwaltungsbedarf (unter anderem Konfiguration,
Parametrierung) resultierend aus dem Gast-Betriebssystem
notwendig ist. Die Lösungen von VMware sind etabliert. Sie
werden heute typischerweise in den Rechenzentren der IT-
Abteilungen von Unternehmen zur Server-Virtualisierung
eingesetzt und nehmen nach eigenen Angaben des Unternehmens
einen Gesamt-Marktanteil von mehr als 80 % ein.
Aufgrund der etablierten Basis und der weiten Verbreitung
– auch bei Unternehmen der Prozessindustrie –
wurde im Rahmen der prototypischen Validierung (Realisierung)
des Siemens-Leitsystems PCS 7 in einer virtuellen
Umgebung zunächst die Lösung ESXi der Firma
VMware gewählt.
2.4 Nutzen
Mögliche Motive für den Einsatz von Virtualisierung im
Kontext der PLT:
Verringerung der PLS-Investitions- und Betriebskosten
Eine Herausforderung stellen die unterschiedlichen mittleren
Lebenszyklen von PC-Hardware dar, auf der die Betriebssystem-Software
sowie die PLS-Software laufen [5].
Die PC-Hardware besitzt im Mittel eine Lebenszeit von
etwa 8 Jahren, das Betriebssystem von zirka 4 Jahren und
die Versionen des PLS im Mittel von ungefähr 5 Jahren. Die
mittleren Lebenszeiten divergieren somit im Vergleich zur
etwa 20-jährigen Lebenszeit und Betriebsphase von Anlagen
in der Prozessindustrie [6]. Um die Kompatibilität zwischen
PC-Hardware und Leittechnik-Komponenten über
die gesamte Betriebsphase sicherzustellen, werden oft bei
der Erstellung einer Anlage die entsprechend notwendige
Anzahl an PC-Hardware und Betriebssystem-Lizenzen für
die gesamte Betriebsphase beschafft – verbunden mit zusätzlichen
Investitionskosten. Virtualisierung ermöglicht
es, die Lebenszyklen voneinander zu entkoppeln und somit
diese höheren Investitionen obsolet werden zu lassen.
Virtualisierung kann somit zu einem erhöhten Investitionsschutz
beitragen [6], vorwiegend für die Unternehmen
der Prozessindustrie, die eigene IT-Abteilungen mit
Rechenzentren haben und bereits Virtualisierungs-Technologien
verwenden. Diese Unternehmen können die
PLT in die bestehende IT-Infrastruktur integrieren. Es
sind somit Kosteneinsparungen möglich, zum Beispiel
durch den Wegfall von ansonsten notwendigem Platzbedarf
im Produktionsbereich für die Industrie-Server,
durch Minimierung des Aufwandes für Heizen/Lüften/
Kühlen sowie durch zentralisierte Wartung.
Erhöhung der Effizienz des PLS
Aufgrund zentraler Recheneinheiten lässt sich die Effizienz
des PLS steigern – Verbesserung der Skalierbarkeit
und Verfügbarkeit sowie Steigerung der Produktivität.
Eine verbesserte Skalierung und Verfügbarkeit wird erreicht,
da beispielweise die bestehenden Ressourcen (wie
Prozessoren, Speicher) im Rechenzentrum eines Unternehmens
gezielt ausgelastet werden. Der Wechsel der
Hardware und gegebenenfalls die Installation beziehungsweise
Konfiguration des Betriebssystems aus Sicht
der Automatisierung entfällt, womit Stillstandszeiten
reduziert werden. Die Produktivität kann ebenfalls erhöht
werden, da für das Aufsetzen einer neuen VM bestehende
Templates verwendet werden können.
Virtuelle Maschine (VM)
Applikatiokatiokatiokatiokation
Appli-
Appli-
Appli-
Appli-
Applikation
…
…
Applikation
Applikation
……
Applikation
…
Applikatiokation
Appli-
Applikation
……
…
Applikation
Guest-Betriebssystem
Guest-Betriebssystem
…
…
Applikation
Applikation
Applikatiokation
Appli-
Applikation
Applikation
Betriebssystem
Betriebssystem
…
Gast-Betriebssystem
Gast-Betriebssystem
Hypervisor
Hypervisor
…
Applikation
Hypervisor
Appli-kation
Hypervisor
Host-
Host-
Betriebssystem
Betriebssystem
Host-
Host-
Betriebssystem
Betriebssystem
Gast-Betriebssystem
Gast-Betriebssystem
…
Hypervisor
Hypervisor
…
…
Hardware
Hardware
Hardware
Hardware
Hardware
Hardware
Hardware
Hardware
Konventionelles System
BILD 2: Virtualisierungsansätze
Virtualisierungsansatz:
Hypervisor Typ 1
Virtualisierungsansatz:
Hypervisor Typ 1/
Paravirtualization
Virtualisierungsansatz:
Hypervisor Typ 2
atp edition
12 / 2012
31
HAUPTBEITRAG
Einsatz in bestehenden Anlagen
Eine Erweiterung und Modernisierung der PA erfordert
häufig einen nur schwer realisierbaren Ausbau der bestehenden
Hardware. Daher ist die Hemmschwelle zur
Erweiterung und Modernisierung von vorhandenen PLS
hoch. Ausgehend von dem im Beitrag vorgestellten Ansatz,
das PLS in virtueller Umgebung zu betreiben, wird
die Hemmschwelle hinsichtlich einer Erweiterung und
Modernisierung gesenkt. Es ist einfacher möglich, die
verschiedenen Teile wie Engineering Station(s), Operator
Station(s) und Maintenance Station(s) im Kontext einer
VM zu modernisieren und zu erweitern.
Hochverfügbarkeit auf Basis verbreiteter Technologien
Sobald ein hochverfügbares PLS notwendig ist, kommen
heutzutage proprietäre, firmenspezifische Redudanzlösungen
für die jeweiligen PLS-Server zum Einsatz. In
IT-Rechenzentren wird Virtualisierung häufig zur Erreichung
von Hochverfügbarkeit eingestzt. Die Verwendung
von der in der IT weit verbreiteten Virtualisierung zur
Realisierung von PLS-Server-Redundanz ermöglicht gegebenenfalls
die Fokussierung auf weitere zukünftige
PLS-Herausforderungen (zum Beispiel Security [13]).
Weiterhin könnte eine solche allgemeine Hochverfügbarkeitslösung
dazu beitragen, die Investitionskosten bei
einem zukünftigen PLS für den Anwender zu senken.
3. TESTSYSTEM
Die Erprobung von Simatic PCS 7 in virtueller Umgebung
– als nicht-H-PLS und H-PLS – erfolgte exemplarisch
im Smart-Automation-Center in Karlsruhe (siehe
Bild 3).
Beim Smart-Automation-Center handelt es sich um
ein automatisiertes technisches System, um neue Technologien
im Rahmen von Software- und Hardware-Prototypen
in praxisnaher Umgebung zu erproben. Dieses
automatisierte technische System besteht aus einem
kontinuierlichen Teil und einem diskreten Teil für das
Mischen beziehungsweise Abfüllen von Farbe. Die Basis-
Ausrüstung des PLS sieht wie folgt aus:
PLS-Komponenten: Eine Engineering-Station (ES),
ein redundantes Operator-Station-Serverpaar (OS-
Server), drei Operator-Station-Clients (OS-Client)
und eine Maintenance Station (MS) – alle Komponenten
haben als Basis-Betriebssystem Microsoft
Windows 7
Simatic PCS 7: PCS 7 V8.0
Im folgenden Abschnitt ist Simatic PCS 7 in virtueller
Umgebung als nicht-H-PLS skizziert – technische Details
siehe [10].
4. SIMATIC PCS 7 IN VIRTUELLER UMGEBUNG
ALS NICHT-H-PLS
4.1 Realisierung
Die Realisierung der virtuellen Umgebung des nicht H-
Systems erfolgte auf einem Fujitsu Server TX300 S6 (1
Intel Xeon X5660 mit 6 Kernen à 2,8 GHz, 32 GB RAM).
Auf dieser Hardware wurde die virtuelle Umgebung bestehend
aus VMware vSphere V5.0, VMware vSphere
Client V5.0 und VMware ESXi 5.0 installiert. Server- und
Client-Funktionalität der PLS-Komponenten sind als VM
auf Basis von VMware ESXi 5.0 realisiert worden.
Bild 4 zeigt Komponenten des Leitsystems PCS 7, welche
mit VMware/ESXi in einer virtuellen Umgebung im Smart-
Automation-Center realisiert wurden – diskreter Teil
(inkl. MES) und kontinuierlicher Teil. Detaillierte technische
Informationen finden sich unter [11], [12], [14], [15].
4.2 Ergebnisse
Die Erprobung eines nicht-H-PLS in virtueller Umgebung
ergab, dass die Neuinstallation eines solchen PLS und
die Portierung einer bestehenden Konfiguration in die
virtuelle Umgebung von VMware ESXi mit einem erhöhten
Aufwand möglich ist. Dieser Mehraufwand resultierte
im Wesentlichen aus dem notwendigerweise zu erarbeitenden
Wissen bezüglich der Virtualisierung. Auf
Basis der Vorfeldarbeiten wurden weitere ausführliche
Tests in verschiedenen Anlagen durchgeführt. Die Ergebnisse
führten dazu, dass Komponenten von Simatic
PCS 7 für die Virtualisierung mit VMware unter bestimmten
Bedingungen freigegeben wurden. Weitere
Details sind in [10], [12] aufgeführt.
5. SIMATIC PCS 7 IN VIRTUELLER UMGEBUNG ALS H-PLS
5.1 Realisierung
Für die Realisierung eines H-PLS in virtueller Umgebung
gibt es zwei Varianten.
1 | Kombination bestehender H-Lösungen mit den
Technologien der Virtualisierung
2 | Vollständige H-PLS-Lösung unter Verwendung von
Virtualisierungsmethoden
Zur Realisierung der Variante 1 reicht es aus, dass industriespezifische
Hardware eingebunden werden kann – diese
Variante und der damit verbundene Nutzen und die
Herausforderungen werden daher im Beitrag nicht weiter
verfolgt. Im Fokus der Betrachtungen steht die intuitiv
naheliegende Variante 2. Es wurden unterschiedliche
Konfigurationen im Kontext der Hochverfügbarkeit und
Virtualisierung getestet. Die Autoren behandeln ein redundantes
OS-Serverpaar, welches mit Hilfe der Virtualisierung
redundant ausgeführt wird. Bild 5 zeigt die Grundlagen
zu entsprechend benötigten VMware-Produkten.
Die beiden Funktionen als Bestandteil des Produktes
VMware vSphere für die PLS-H-Lösung im Kontext einer
virtuellen Umgebung lauten VMware High Availability
(VMware HA) und VMware Fault Tolerance (VMware
FT). Die Funktionen verwenden wiederum VMware-
Basistechnologien. Zu diesen Technologien zählt unter
anderem die VMware FT Lockstep Technologie. Diese
Technologie ist hinsichtlich der hochverfügbaren Lösung
im Kontext einer virtuellen Umgebung von besonderer
Bedeutung. Weitere Basistechnologien sind beispielswei-
32
atp edition
12 / 2012
se vSphere vMotion, vSphere Distributed Resource Scheduler
(DRS) und vSphere Distributed Switch (VDS).
Bei VMware HA handelt es sich um das Cold-Standby
– das heißt die sekundäre VM wird gestartet, sobald die
primäre VM ausfällt. Für diskontinuierliche Batch-Prozesse
im Kontext der Prozessindustrie kann diese VMware-Technologie
somit bereits ausreichend sein – unter
Verwendung entsprechender Werkzeuge, die den Batch-
Prozess fortsetzen. Für kontinuierliche Prozesse hingegen
ist dieses Produkt ungenügend. Nach einer ersten Prüfung
eignet sich dafür das Produkt VMware FT. Es verspricht
den Hot-Standby und somit den lückenlosen Serverbetrieb.
Auf Basis der VMware FT Lockstep Technologie
sowie VMware HA einschließend sieht VMware FT vor,
dass die sekundäre VM im Standby-Modus läuft und nicht
erst hochfahren muss nach Ausfall der primären VM.
Die VMware FT Lockstep Technologie unterscheidet
zwischen einer primären VM und einer sekundären VM.
Die primäre VM empfängt beziehungsweise versendet
Ereignisse an unterlagerte Hard- und Softwarekomponenten.
Parallel werden alle Ereignisse mit der sekundären
VM abgeglichen – sowohl primäre als auch sekundäre
VM führen die gleichen Algorithmen aus und
die gleichen Eingabe/Ausgabe-Operationen durch. Jedoch
nehmen im Normalbetrieb lediglich Ausgabe-
Operationen der primären VM Einfluss auf die unterlagerte
Hard- und Software. Alle Ausgabe-Operationen
der sekundären VM werden unterdrückt. Die unterlagerte
Hard- und Software sieht lediglich eine VM mit
entsprechender IP- und MAC-Adresse.
Voraussetzung für VMware HA ist, dass alle ESXi-
Hosts in einem HA-Cluster gekapselt sind. Die folgenden
Fälle führen zum Umschalten von der primären VM im
Master-Host auf die sekundäre VM in einem slave-Host:
a | Auf ein vom Master-Host gesendetes 1-Hz-(Clock-)
Signal wird vom Slave-Host nicht geantwortet
b | Auf Internet Control Message Protocol (ICMP) Signale
wird vom Slave-Host nicht geantwortet
c | Auf ein vom gemeinsamen Speicher (Shared Storage)
gesendetes Clock-Signal wird nicht geantwortet
Unter Berücksichtigung zu erfüllender Anforderungen
bezüglich eines H-PLS (zum Beispiel hinsichtlich Speicher,
Prozessorleistung und Verfügbarkeit) sowie auf
Basis der PLS-Grundausrüstung wurde die folgende
Konfiguration umgesetzt:
BILD 4: Siemens-Leitsystem PCS 7 in virtueller Umgebung
BILD 5: VMware Server-Redundanzkonzept [9]
ES OS-Client OS-Client OS-Client MS
PLS-Komponenten in realer Umgebung
1x ES, 3x OS-Client, 1x MS
PLS-Komponenten in virtueller Umgebung
1x redundanter OS-Server – verteilt auf zwei ESXi-
Servern
Die Realisierung des im Fokus stehenden redundanten OS-
Serverpaares hinsichtlich eines H-PLS auf Basis von VMware
Lockstep, VMware HA sowie VMware FT zeigt Bild 6.
Die H-PLS in virtueller Umgebung wird gebildet von
zwei ESXi-Servern, die sich in einem HP Blade System
C7000 Enclosure G2 befinden. Die primäre VM läuft auf
dem ersten ESXi-Server, die sekundäre VM auf dem
zweiten ESXi-Server. Die Parametrierung der VMs ori-
ESXI-Server 1
Primär
Redundantes OS-Serverpaar
FT Protokollierung
Bestätigung
Virtuelle Maschinen (VM)
ESXI-Server 2
Sekundär
BILD 6:
Umsetzung eines
redundanten
Virtualisierungskonzeptes
atp edition
12 / 2012
33
HAUPTBEITRAG
entiert sich an dem empfohlenen PC-Hardwareausbau
für SimaticPCS 7 V8.0.
Weiterhin wurden in den VM getrennte virtuelle Netzwerkkarten
für Anlagen- und Terminalbus projektiert.
Innerhalb eines ESXi-Servers werden diese virtuellen
Netzwerkkarten in einem virtuellen Switch über Virtual-Machine-Port-Groups
und VLANs getrennt. Nach außen
erfolgte die Kommunikation zwischen den beteiligten
Komponenten über ein VC-Modul (Virtual-Connect-
Modul) an einem physikalischen Kabel mit einem zugeordneten
VLAN.
5.2 Ergebnisse
Die Tests für PCS 7 V8.0 Update 1 in einer virtuellen
Betriebsumgebung wurden in der beschriebenen Konfiguration
erfolgreich beendet. Es wurden keine Probleme
festgestellt. Ansonsten deckten sich die Erkenntnisse
bei dieser Erprobung eines H-PLS auf Basis von
Virtualisierung mit denen bei der Realisierung eines
nicht-H-PLS. Positiv zu beurteilen ist, dass alle Bedienstationen
über genau eine geöffnete Remote Desktop-
Verbindung bedienbar sind.
REFERENZEN
[1] Thorns, F.: Das Virtualisierungs-Buch, C & I Computerund
Literaturverlag, Böblingen, 2008
[2] Gartner: Virtualization Market in EMEA Driven by Cost
Considerations, Resource Use and Management
Benefits, “Dataquest Insight”, 13. Februar 2009
[3] Abel, D.; Epple, U.; Spohr, G.-U.: Integration von
Advanced Control in der Prozess-industrie – Rapid
Control Prototyping, Wiley-VCH, Weinheim, 2008
[4] Goldberg, R.P.: Architectural Principles for Virtual
Computer Systems. Harvard University, 1973
[5] ZVEI Fachverband Automation: Life-Cycle-Management
für Produkte und Systeme der Automation, 2010
[6] NE 121: Qualitätssicherung leittechnischer Systeme.
Namur, 2008
[7] Keith A. und Ole A.: A Comparison of Software and
Hardware Techniques for x86 Virtualization. VMware, 2006
[8] Callow, B. und Turner, R.: Hidden Costs of Virtualization.
http://www.acronis.com/resources/wp/2.html
(23.12.2010)
[9] Waldeck, B.: Netzangriffen keine Chance. In: Computer
+ Automation 2010(12), S. 54, 2010
[10] Runde, S., Schneider, M., Glaser, M., Drinjakovic, D.:
Automatisierungstechnische Architektur in der
Prozessindustrie mit Leitsystem in virtueller
Umgebung. In: Tagungsband Automation 2011, S.
203-208. VDI, 2011
[11] Siemens AG: SIMATIC PCS 7 OS Software Client ab V7.1
+ SP2 für den Einsatz in virtuellen Betriebsumgebungen
freigegeben. http://support.automation.siemens.
com/WW/llisapi.dll?func=cslib.csinfo&lang=de&objid=
51401737&caller=nl (09.08.2012)
[12] Siemens AG: OS Client, BATCH Client und Route
Control Client mit SIMATIC PCS 7 V8.0+Update 1 für
virtuelle Betriebsumgebungen freigegeben. http://
support.automation.siemens.com/WW/view/
de/61052407 [23.11.2012]
[13] Palmin, A., Runde, S., Kobes, P.: Security in der
Prozessautomatisierung – Trends und Entwicklungen
aus dem Fokus der Vorfeldentwicklung. In: Tagungsband
Automation 2012, S. 177 182. VDI, 2012
[14] Siemens AG: WinCC/Server-Virtualiserung.
http://support.automation.siemens.com/WW/view/
de/49368181 (24.08.2012)
[15] Siemens AG: PCS 7 Virtualisierung.
http://support.automation.siemens.com/WW/view/
de/51975791 (24.08.2012)
6. HERAUSFORDERUNGEN UND NUTZEN
DER PLS-VIRTUALISIERUNG
Nachfolgend sind ausgewählte technische und nichttechnische
Herausforderungen im Kontext PLS und Virtualisierung
aufgeführt – die erwähnten Punkte sind
unabhängig von einer spezifischen Virtualisierungslösung
(zum Beispiel VMware, Citrix, Microsoft) [10].
6.1 Technische Herausforderungen
Einbindung industriespezifischer Hardware
Die jeweils gewählte Virtualisierungslösung, basierend
auf Hypervisor Typ 1, Hypervisor Typ 1/Paravirtualization
oder Hypervisor Typ 2, muss die verwendete Hardware
unterstützen. Handelt es sich dabei um industriespezifische
Hardware und nicht um typische Consumer-
Hardware, so ist diese Unterstützung nicht zwangsläufig
gegeben.
Realisierung der Hochverfügbarkeit
Um die Hochverfügbarkeit des automatisierten technischen
Systems mit PLS sicherzustellen, wird häufig industriespezifische
Hardware verwendet. Um dieser Herausforderung
gerecht zu werden, ist somit zunächst die
Einbindung industriespezifischer Hardware zu realisieren.
Weiterhin sind die bisher bestehenden Methoden
und Modelle im Kontext der Hochverfügbarkeit hinsichtlich
einer virtuellen Lösung zu realisieren.
6.2 Nicht-technische Herausforderungen
Kontrolle des erhöhten IT-Investitionsbedarfs
Virtualisierung im Kontext der PLT kann nutzbringend
sein. Wenn jedoch keine geeignete IT-Infrastruktur besteht,
so sind nicht zu unterschätzende zusätzliche Investitionen
(Server, Virtualisierungssoftware, zusätzliche
Supportverträge, IT-Fachleute, und so weiter) notwendig.
Kontrolle der IT-Betriebskosten
Die durch Auslagerung in das Rechenzentrum gegebenenfalls
minimierte Anzahl notwendiger Rechner, auf
denen die einzelnen Bestandteile des PLS installiert
sind, ist nicht linear zu den Energieeinsparungen. Ein
Rechner beziehungsweise Server mit einer Vielzahl an
VM benötigt mehr Energie als ein vergleichbarer Rechner
ohne VM.
34
atp edition
12 / 2012
Notwendigkeit von verbesserter Schulung aufgrund
erhöhter Komplexität
Zwei Aspekte machen eine verbesserte Ausbildung des
Personals im Umgang mit dem PLS nötig. Zum einen die
erhöhte Gesamtkomplexität des Systems, zum anderen
ist das gegenwärtige Personal im Umfeld der PA normalerweise
nicht vertraut im Umgang mit der Technologie
Virtualisierung. Daher ist das notwendige Wissen dem
Personal im Kontext der PA zu vermitteln.
Abhängigkeit vom Lieferanten der Virtualisierungssoftware
Der Einsatz der Virtualisierungs-Technologie bedeutet
eine zusätzliche Abhängigkeit zum Hersteller einer solchen
Software. Deshalb sind die Verantwortlichkeiten
für diese Software und für das Gesamtsystem (zum Beispiel
Support) festzulegen.
Das Siemens-Leitsystem Simatic PCS 7 konnte in einer
exemplarischen Konfiguration erfolgreich in virtueller
Umgebung realisiert werden – als nicht-hochverfügbares
und als hochverfügbares Prozessleitsystem. Der häufig
angeführte Nutzen im Zusammenhang mit Virtualisierung
konnte jedoch, im Gegensatz zu einer konventionellen
Lösung ohne Virtualisierung, nicht vollends belegt
werden. Der mögliche langfristige Nutzen (zum Beispiel
Minimierung von PLS-Betriebskosten) ist über den Anlagenlebenszyklus
zu beobachten. Der kurzfristige Nutzen
ist projektspezifisch. Tendenziell ist ein PLS in virtueller
Umgebung dann für ein Unternehmen von Vorteil,
wenn bereits eine starke IT-Infrastruktur besteht – inklusive
Erfahrungen im Umgang mit dem Thema Virtualisierung.
Für Unternehmen ohne starke IT-Infrastruktur
stellt eine solche Lösung eine große Herausforderung dar.
Es bestehen neben der reinen Herausforderung hinsichtlich
der Virtualisierungs-Umsetzung auch weitere technische
und nicht-technische Herausforderungen. Hinsichtlich
eines zukünftigen, hochverfügbaren PLS auf
Basis von Virtualisierungstechnologien sind weitere
Untersuchungen notwendig. Nur so lässt sich eine vollständige
Vergleichbarkeit mit einem konventionellen
System herstellen.
FAZIT
MANUSKRIPTEINGANG
18.09.2012
Im Peer-Review-Verfahren begutachtet
AUTOREN
Dr.-Ing. STEFAN RUNDE (geb. 1980) ist in der Vorfeldentwicklung
des Sektors Industry der Siemens AG seit Oktober
2010 Projektleiter für das Thema "Future DCS Architecture"
und seit Oktober 2012 zudem Programm Manager für das
Themenfeld "PC-based Architecture". Nach der Ausbildung
zum Energieelektroniker, studierte er Elektro- und Informationstechnik
an der FH Hannover und promovierte an der
Helmut-Schmidt-Universität Hamburg. Aktuelle Schwerpunkte
seiner Arbeit sind die Verbesserung von Engineering
und Architekturen im Umfeld von SCADA und PLS.
Siemens AG, I IA ATS 3 1,
Östliche Rheinbrückenstrasse 50,
D-76187 Karlsruhe, Tel. +49 (0) 721 595 79 77,
E-Mail: stefan.runde@siemens.com
Dipl.-Ing. MARTIN R. SCHNEIDER (geb. 1960) absolvierte ein
Informatik-Studium an der Hochschule Karlsruhe und ist in
der Vorfeldentwicklung des Sektors Industry tätig. Er ist
Teilprojektleiter im Projekt "Future DCS Architectures"
zuständig für das Thema Integration von IT-Trends wie z.B.
Virtualisierung oder Cloud Computing in PLS.
Siemens AG, I IA ATS 3 1
Östliche Rheinbrückenstrasse 50, D-76187 Karlsruhe,
Tel. +49 (0) 721 595 61 13,
E-Mail: martin-rudolf.schneider@siemens.com
Dipl.-Ing. MARTIN GLASER (geb. 1959) leitete bis September
2012 im PCS 7 Produktmanagement die Gruppe "Software
& Innovation" und ist seit Oktober 2012 verantwortlich
als Projektfamilienleiter "DCS SW-Products". Er studierte
Elektrotechnik an der TH Karlsruhe und beschäftigt
sich seit vielen Jahren mit der Entwicklung von PLS,
insbesondere mit dem Focus auf neue Technologien für die
Inno vation von PLS.
Siemens AG, I IA AS PA R&D 1
Östliche Rheinbrückenstrasse 50,
D-76187 Karlsruhe, Tel. +49 (0) 721 595 68 90,
E-Mail: martin.glaser@siemens.com
Dipl.-Ing. STEFFEN THIEME (geb. 1965) arbeitet als
technischer Berater für Simatic PCS 7 im Bereich
"Simatic Systems Support for Process Automation".
Er studierte Informationstechnik an der TH Ilmenau
und beschäftigt sich seit vielen Jahren im Rahmen mit
PLT. Zu seinen aktuellen Aufgaben im Zusammenhang
mit Simatic PCS 7 gehören unter anderem Simatic
Batch, Virtualisierung und Industrial Security.
Siemens AG, I IA AS S SUP PA 2,
Östliche Rheinbrückenstrasse 50, D-76187 Karlsruhe,
Tel. +49 (0) 721 595 71 37,
E-Mail: steffen.thieme@siemens.com
atp edition
12 / 2012
35
HAUPTBEITRAG
Integriertes Engineering mit
Automation Service Bus
Paralleles Engineering mit heterogenen Werkzeugen
Dieser Beitrag stellt einen neuen herstellerneutralen Ansatz zur Integration von Software-
Werkzeugen vor, den Automation Service Bus. Es geht darum, wesentliche Lücken bisheriger
herstellerneutraler Ansätze zu schließen und Vorteile, die sich bisher nur mit herstellerspezifischer
Integration erreichen ließen, auch für die Integration heterogener Werkzeuge
zu ermöglichen.
SCHLAGWÖRTER Paralleles Engineering / Software-Werkzeug-Integration /
Datenaustausch / Werkzeug unterstützte Arbeitsabläufe /
Automation Service Bus
Integrated engineering with the Automation Service Bus –
Making parallel engineering with heterogeneous tools more efficient
This contribution introduces a novel vendor-neutral approach for the integration of software
tools, the Automation Service Bus, in order to close relevant gaps of present vendorneutral
approaches and enable benefits, which were previously achieved only with vendorspecific
integration, also for the integration of heterogeneous tools.
KEYWORDS parallel engineering / software tool integration / data exchange /
tool-supported workflows / automation service bus
36
atp edition
12 / 2012
STEFAN BIFFL, RICHARD MORDINYI UND THOMAS MOSER, Technische Universität Wien
Der erste Teil dieses Beitrags in atp-edition 54(5)
hat den Bedarf an besserer Integration zwischen
Software-Werkzeugen und deren Datenmodellen
anhand exemplarischer Anwendungsfälle
diskutiert. Daraus wurde der Bedarf
für Mechanismen in Software-Werkzeugen abgeleitet
und die Stärken und Beschränkungen von drei
generellen Integrationsansätzen diskutiert: Behelfslösungen
und herstellerspezifische beziehungsweise herstellerneutrale
Ansätze. Das Ergebnis: Herstellerspezifische
Werkzeug-Suiten decken zwar den Großteil der
vorgestellten Anwendungsfälle ab, schränken allerdings
typischerweise die Auswahlmöglichkeiten der
verwendbaren Werkzeuge ein oder geben ein zu verwendendes
Datenmodell fix vor. Herstellerneutrale Ansätze
erlauben die freie Auswahl der Werkzeuge und
Datenmodelle, erfordern aber oft einen erhöhten Grundaufwand
für die Einbindung der Werkzeuge, da es keine
offene Integrationsplattform zur Integration von
Daten und Funktionen aus Software-Werkzeugen zur
Unterstützung von Abläufen auf Projektebene gibt. Die
AutomationML-Initiative [1] definiert zum Beispiel ein
Schema für den Austausch von Topologie-, Geometrieund
Verhaltensinformationen, stellt aber keine automatisierte
Austauschmöglichkeit für diese Informationen
zur Verfügung.
Im Bereich der Wirtschaftsinformatik wurde der Architekturtrend
umfangreicher Software-Werkzeug-Suiten
in den 1990er Jahren etabliert und in den 2000er-
Jahren durch offene, komponentenorientierte Systeme,
etwa auf Basis des Enterprise Service Bus [2], abgelöst.
Ein Beispiel für ein derartiges System ist der Automation
Service Bus (ASB) Ansatz [3], ein Ergebnis der Forschung
des von der Logical automation solutions und services
GmbH betriebenen Christian-Doppler-Forschungslabors
„Software Engineering Integration für flexible Automatisierungssysteme“
(CDL-Flex) an der Technischen Universität
Wien.
Der ASB schließt die Lücke zwischen den spezifischen
Software-Werkzeugen der Fachexperten und den Arbeitsabläufen
der Projektteilnehmer, die unter Verwendung
der Daten aus mehreren Software-Werkzeugen effizient
durchgeführt werden sollen, durch eine systematische
und nicht-proprietäre Integration auf den Ebenen
der (1) technischen Systeme und Funktionen, (2) der
Datenmodelle und (3) der Beschreibung der Arbeitsabläufe.
Die Integration der lokalen Datenmodelle (das „Engineering
Babylon“) wird adressiert, in dem genau die
von den Fachexperten für die Kooperation benutzten
gemeinsamen Konzepte modelliert, auf die lokalen Repräsentationen
der Software-Werkzeuge abgebildet und
so für Maschinen verständlich gemacht werden. In den
folgenden Abschnitten beschreibt der Beitrag die Kernkomponenten
des ASB, spezifiziert den Prozess zum
Entwerfen einer Integrationslösung und diskutiert Vorteile,
Limitierungen und den benötigten Aufwand.
1. DER AUTOMATION-SERVICE-BUS-ANSATZ
Dieser Abschnitt stellt den Automation Service Bus [3]
vor und beschreibt dessen Hauptkomponenten. Ziel des
Einsatzes des ASB ist das Bereitstellen einer offenen
Plattform zur Integration von heterogenen Software-
Werkzeugen für die Entwicklung von Automatisierungssystemen.
Im Lebenszyklus der Herstellung und Operation
von Automatisierungssystemen lassen sich Software-
Werkzeuge und Systeme als Software-Komponenten [4]
betrachten, deren Beitrag zum Entwicklungsprozess
durch eine bessere Kooperation deutlich effektiver und
effizienter werden kann.
Basierend auf dem in der Wirtschaftsinformatik erfolgreichen
Enterprise Service Bus Ansatz [2] werden dafür
die für das Engineering-Umfeld erforderlichen Verbesserungen
wie eine herstellerneutrale Kommunikation vorgenommen,
um das „Engineering-Polynesien“ der Werkzeuginseln
systematisch zu integrieren (siehe Bild 1).
Software-Werkzeuge sind mit dem ASB über Konnektoren
verbunden und stellen an den Schnittstellen Software-
Services [5] bereit, die den Datenaustausch und den Aufruf
von Werkzeugfunktionen als Basis für die Automatisierung
von Arbeitsabläufen im Engineering erlauben.
atp edition
12 / 2012
37
HAUPTBEITRAG
Bild 1 zeigt eine vereinfachte Sicht auf eine konkrete
Lösungskonfiguration mit dem ASB, die folgende Elemente
beinhaltet. (1) Spezifische Werkzeuge für Fachexperten
aus dem Anlagen-Engineering, etwa zur Planung von
Rohrleitungs- und Instrumentenfließbildern, Funktionsplänen,
Elektroplänen, Systemkonfigurationen und SPS-
Kontrollprogrammen. (2) Den Service Bus mit Konnektoren
zur technischen Verbindung der Software-Systeme
miteinander. (3) Die Engineering-Datenbank und die
Engineering-Knowledge-Base, um gemeinsam verwendete
Daten auf Projektebene versioniert zu halten und zur
Übersetzung von gemeinsamen Konzepten auf Projektebene,
die in den Werkzeugen (in Bezug auf Begriffe oder
Datenstrukturen) unterschiedlich repräsentiert sind. (4)
Anwendungen auf Projektebene, die auf die integrierten
Daten und Funktionen aus den Software-Werkzeugen
aufbauen, etwa ein Engineering-Cockpit zur besseren
Projektstatusübersicht oder ein Ticketing System zur Benachrichtigung
relevanter Projektrollen. (5) Die Konfiguration
von Arbeitsabläufen, die Software-Werkzeuge verwenden
und über Regeln gesteuert werden. Nachfolgend
wird näher auf die Kernkomponenten des ASB in Bild 1
eingegangen, die Services anbieten, die die angebundenen
Werkzeuge nicht zur Verfügung stellen.
Datenintegration werden Dateninstanzen entsprechend
dem Datenmodell des Werkzeugs an den ASB geschickt
beziehungsweise vom ASB empfangen. Die entsprechenden
Konnektoren lesen/schreiben Dateninstanzen in
Dateien, die über die Werkzeug-spezifischen Datei-Export/Import-Schnittstellen
verarbeitet werden können.
Werkzeuge, wie Eplan Electric, Eplan Engineering Center
der Hardware-Konfigurator OPM, MS Excel oder MS Visio
gehören zu dieser Kategorie. Bei der Funktionsintegration
werden das Datenmodell und Werkzeug-spezifische
Funktionen bei der Anbindung verwendet. Dies
erfordert eine Kooperation mit dem Werkzeughersteller
oder Werkzeugpartner, um Werkzeug-spezifische
Schnittstellen zu implementieren. Der Konnektor tauscht
also mit dem Werkzeug Informationen über APIs aus, die
der Werkzeugher-steller bereitstellt. Daraus ergibt sich,
dass die erzielbare Qualität beziehungsweise Tiefe der
Anbindung vom Werkzeughersteller abhängt. Aus dem
Bereich der Automatisierungssysteme wurden die Funktionsplansysteme
Logicad und Logidoc angebunden, aus
dem Bereich Software-Engineering-Werkzeuge beispielsweise
das Ticketing-System Trac zur Sammlung und
Organisation von Aufgaben, die aus dem Änderungsmanagement
entstehen [7].
1.1 Spezifische Werkzeuge für Fachexperten
Software-Werkzeuge stellen für Fachexperten Daten und
Funktionen zur Planung von Anlagen in herstellerspezifischer
Technologie bereit und bieten typischerweise
Schnittstellen an, um auf Daten und Funktionen aus den
Werkzeugen von außen zuzugreifen. Der ASB unterstützt
die Anbindung von Werkzeugen auf zwei Arten. Bei der
1.2 Werkzeugdomänen zur Anbindung von Werkzeugen
Konnektoren verbinden Werkzeuge mit dem ASB und bestehen
daher aus einer technisch spezifischen Schnittstelle
zum Werkzeug und einer technisch neutralen
Schnittstelle, die eine Kommunikation mit allen anderen
Komponenten am ASB erlaubt. Die neutrale Schnittstelle
– eine Werkzeugdomäne – entspricht einer Standardisie-
BILD 1: Grundlegende Elemente
einer Soft ware-Werkzeugintegration
mit dem Automation Service Bus.
BILD 2: Semantische Integration [10] heterogener
Repräsentationen von Engineering-Wissen.
38
atp edition
12 / 2012
ung von Konnektoren zu Werkzeugtypen, etwa Hardware-Konfiguratoren,
und ermöglicht einerseits den einfachen
Austausch von Werkzeugdiensten und erlaubt
andererseits anwendenden Fachexperten weiterhin die
gewohnte Verwendung ihrer Werkzeuge (für Details siehe
[8], [9]). Eine neutrale Schnittstellenbeschreibung gestattet
eine von Werkzeugen unabhängige Beschreibung von
Arbeitsabläufen im Projekt und den effizienten Einsatz
von für das Projekt besonders gut passenden Werkzeugen.
1.3 Engineering Knowledge Base
Werkzeugdomänen vermindern die Komplexität der Integration
von Werkzeuginseln. Allerdings sind Konnektoren
und auch Werkzeugdomänen nicht in der Lage, semantisch
heterogene Werkzeuge so an den ASB anzubinden, dass
die unterschiedlichen Datenmodelle für Computer verständlich
werden. Ein wesentlicher Beitrag der Integrationslösung
ist daher die Bereitstellung von Daten, die unterschiedliche
Projektteilnehmer bearbeiten und verwenden,
sogenannten gemeinsamen Konzepten (siehe Bild 2
und Bild 3), in einheitlicher Darstellung auf Projektebene.
Dieses virtuelle gemeinsame Datenmodell lässt sich dynamisch
erzeugen oder an neue Projektbedürfnisse anpassten
und unterscheidet sich dadurch stark von klassischen,
vor Projektbeginn zu definierenden, und starren statischen
Datenmodellen. Die Engineering Knowledge Base (EKB)
[10] repräsentiert das Datenmodell der gemeinsamen Konzepte
auf Projektebene und die Datenmodelle der unterschiedlichen
lokalen Repräsentationen in den Software-
Werkzeugen und erlaubt die notwendigen Transformationen
zwischen den lokalen Datenmodellen.
Das „Engineering-Babylon“ entsteht durch unterschiedliche
lokale Repräsentationen der gemeinsamen
Konzepte des Projektteams in den beteiligten Softwaresystemen
und erfordert vermeidbaren Aufwand von
Fachexperten für wiederkehrende Tätigkeiten, etwa Änderungskaskaden.
Die EKB adressiert dieses Problem
durch die Modellierung der von den Fachexperten für
die Kooperation benutzten gemeinsamen Konzepte, die
Modellierung der lokalen Repräsentationen der Software-Werkzeuge
und die Abbildungen der einzelnen
Konzepte zwischen diesen Modellen (siehe Bild 2) in
einer expliziten und für Computer verständlichen Form,
einer Ontologie. Dadurch wird die Übersetzung zwischen
den unterschiedlichen Darstellungen automatisiert
und die Fachexperten können Abfragen an die Daten
auf Basis der gemeinsamen Konzepte stellen.
Bild 2 zeigt die lokalen Datenmodelle von drei Fachbereichen
(farbige Elipsen) und deren Überlappungsbereiche
(in Weiß), die die gemeinsamen Konzepte beinhalten,
etwa Anforderungen, Geräte, mechatronische
Objekte oder Signale. Diese Überlappungen erlauben es,
ein virtuelles gemeinsames Datenmodell zu erstellen,
das die schematischen und semantischen Informationen
der einzelnen Konzepte beinhaltet und eine Infrastruktur
für semiautomatische Transformationen zwischen
den Konzepten bereitstellt. Die werkzeugunterstützte
Modellierung der Engineering-Konzepte ermöglicht eine
automatische Ableitung der benötigten Transformationsanweisungen.
Ein guter Ansatzpunkt für das Identifizieren
gemeinsamer Konzepte ist die Analyse der Schnittstellen
exportierbarer Daten, die Werkzeuge anbieten,
oder auch von Standards in der Domäne. Sobald die relevanten
Konzepte identifiziert sind, können diese Konzepte
aufeinander abgebildet werden (Bild 2) [11]. Dadurch
lassen sich die Auswirkungen von parallelen
Änderungen in mehreren Engineering-Plänen automatisch
analysieren; dies erlaubt den Abgleich von Engineering-Modellen
aus unterschiedlichen Fachbereichen
in kürzeren Zyklen mit signifikant geringerem Aufwand
für die Fachexperten. Das Finden von Risiken und Beheben
von Fehlern kann früher stattfinden.
1.4 Engineering Database
Die Engineering Database (EDB) [12] ist eine Datenbank,
die zu den im vorigen Unterabschnitt beschriebenen gemeinsamen
Konzepten die Datenbeiträge aus allen relevanten
Werkzeugen versioniert speichert und zum Datenaustausch
sowie für Abfragen zur Verfügung stellt.
Dadurch wird es möglich, jeglichen Datenzustand zu
einem bestimmten Zeitpunkt zu reproduzieren und zeitliche
Analysen über Systemereignisse durchzuführen,
zum Beispiel die Anzahl der Änderungen pro Benutzer
im Gesamtprojekt.
Bild 3 zeigt dazu den grundlegenden Ablauf: Die Verwendung
des virtuellen Datenmodells (1), welches in der
EKB explizit in Form einer Ontologie spezifiziert wurde,
ermöglicht die effiziente und effektive Ableitung und
Herstellung der zur Laufzeit notwendigen Transformationen
(2) zwischen den ausgetauschten Werkzeugdaten.
Die derartig transformierten Daten werden dann in der
EDB (3) abgelegt. Ein Beispiel für eine derartige Transformation
ist im unteren Teil von Bild 3 dargestellt. Hier
wird die Instanz von Cust_Signal namens Cust S1 in eine
Instanz von FB_Signal namens FB 1 transformiert. Die
Darstellung des Inhalts der EDB zeigt, dass sich die gemeinsamen
Elemente beider Konzepte am Anfang des
Eintrags befinden, während am Ende des Eintrags die
werkzeugspezifischen Elemente der Werkzeuge Elektroplan
und Funktionsplan angehängt werden.
1.5 Anwendungen auf Projektebene
Auf Basis der versionierten Werkzeugdaten in der EDB
und der Abfragemöglichkeiten der EKB können auf Projektebene
neue Auswertungs- und Kommunikationsmöglichkeiten
bereitgestellt werden. Das Engineering-Cockpit
[13] ist eine Kollaborationsplattform für Projektmanager
und Ingenieure und kann, basierend auf der Analyse
von automatisch erfassten Prozessdaten, etwa dem
Projektmanager Informationen über den Projektfortschritt
(siehe Bild 4), absehbare Risiken und Unterlagen
für Claim Management ohne zusätzlichen Aufwand
bereitstellen. Die Grundlage für eine Analyse sind die
abgelegten Modelle in der EKB und die Instanzen in der
EDB. Abfragen über die Daten aus mehreren Werkzeugen,
etwa Signale, Planungs- oder Implementierungsstände
und die Team-Konfiguration im Projekt können kombiniert
werden, etwa, um zu sehen, welche Personen in
atp edition
12 / 2012
39
HAUPTBEITRAG
BILD 3: Virtuelles gemeinsames Datenmodell und Transformationen.
einem Zeitraum welche Änderungen an den Signalen
eines Engineering-Objekts durchgeführt haben. Ein Ticket-System
ermöglicht es, die Aufgaben im Team im
Überblick zu behalten, etwa Änderungsbedarfe aufgrund
einer Änderungskaskade, die nicht automatisch adressiert
werden können. Vorkonfigurierte Soll-Werte aus
den Erfahrungen mit Projekten ähnlicher Größe können
dem Projektmanager als zusätzliche Vergleichsbasis dienen,
um über Abweichungen vom Soll-Wert mögliche
Risiken frühzeitig zu erkennen.
Bei der Qualitätssicherung im Engineering und der Inbetriebnahme
einer Anlage müssen Fachexperten zwischen
gemeinsamen Konzepten, etwa Signalen oder Geräten,
in Plänen aus unterschiedlichen Bereichen navigieren,
um die Plausibilität und Konsistenz abzusichern.
Die Software-Werkzeuge der Fachbereiche vernetzen die
gemeinsamen Konzepte oft nicht vollständig und effizient,
sodass die Experten diese in unzureichend vernetzten
Software-Plänen relativ aufwendig suchen müssen.
Durch die Verbindung von gemeinsamen Konzepten können
Anwender effizient zwischen unterschiedlichen Plänen
und Werkzeugen navigieren und behalten dabei den
Kontext, zu dem sie Informationen suchen. Das Netz an
Abbildungen zwischen lokalen und gemeinsamen Konzepten
in der EKB zeigt konkrete Navigationsmöglichkeiten
zwischen Ausgangs- und Zielwerkzeug auf.
1.6 Konfiguration von Arbeitsabläufen
Ein wesentlicher Nutzen des ASB ist die technologieunabhängige
Beschreibung von (bestehenden) Engineering-
Prozessen und deren Automatisierung, um die Fachexperten
von Tätigkeiten zu entlasten, die Software-Werkzeuge
übernehmen sollen. Die in den ASB integrierte
Workflow-Engine unterstützt die automatisierte Ausführung
von Arbeitsabläufen zwischen Werkzeugen und ist
daher für das Management von Regeln und Ereignissen
beziehungsweise für die korrekte Ausführung von Engineering-Workflows
verantwortlich. Technisch beschreibt
ein in einer Sprache wie BPMN modellierter und in die
ASB-Umgebung transformierter Engineering-Workflow
konfigurierbare Prozessschritte, die die gewünschte Art
der Integration der einzelnen Werkzeuge im Projekt darstellen.
Die vom Prozessmanager erarbeiteten und zu
konfigurierenden Schritte [6] basieren auf den in der EKB
beschriebenen Datenmodellen (Rollen, Verantwortlichkeiten,
Gewerken, Signalen, Einschränkungen) und auf
für die Ausführung relevanten Werkzeugdomänen (inklusive
deren Datenmodelle und Funktionen) beziehungsweise
den in der Projektkonfiguration spezifizierten
konkreten Werkzeuginstanzen. Eine im ASB laufende
Komponente zur Prozessanalyse sammelt während
der Ausführung Informationen über die Zustände der
einzelnen Prozesse, um den wirklichen Ablauf mit dem
im BPMN beschriebenen Verlauf zu vergleichen und so
Abweichungen vom Sollzustand zu identifizieren.
Für den Anwendungsfall von Änderungskaskaden und
der automatischen Notifizierung von Projektmitarbeitern
über Änderungen mithilfe eines Ticketing-Systems ist
das projektspezifische Zusammenspiel aller zuvor erwähnten
Komponenten zu beschreiben, zum Beispiel: die
notwendigen Iterationen für eine Überprüfung, die Art
einer Änderungsanfrage, der Umgang mit parallelen Aktivitäten
und mit Konflikten [7, 14]. Änderungen in einem
Werkzeug können je nach Art der Anbindung entweder
direkt aus dem Werkzeug heraus oder über die Export-
Schnittstelle des Werkzeugs dem ASB mitgeteilt werden.
Dies hat zur Folge, dass der aktuelle Datenbestand des
Werkzeugs in der EDB abgelegt wird. Dieser Vorgang wird
über einen Engineering-Workflow gesteuert, der durch
die Versionierung der Daten in der EDB Änderungen im
Datenbestand erkennt, und auf Basis der Abbildungen
zwischen Datenmodellen über gemeinsame Konzepte in
der EKB in der Lage ist, Werkzeuge oder deren Benutzer
zu identifizieren, die über diese Änderung informiert
werden sollten. Je nach Konfiguration des Ablaufs werden
den identifizierten Experten über die Werkzeugdomäne
Ticketing neue Tickets zugeordnet beziehungsweise die
Änderungen nach Durchführung der spezifizierten
40
atp edition
12 / 2012
BILD 4: Auswertungen im Engineering-Cockpit –
etwa die Anzahl der Signale nach Projektphase.
Transformationsschritte entweder sofort oder nach erfolgter
Bestätigung durch die Ingenieure zum jeweiligen
Werkzeug geleitet. Dadurch ist es möglich, den Ablauf
der Änderungskaskaden einfach und flexibel an die Bedürfnisse
der Projektteilnehmer anzupassen.
2. ARBEITSSCHRITTE UND AUFWAND
Dieser Abschnitt beschreibt die Arbeitsschritte und
den Aufwand, um mit dem ASB zu einer auf Projektbedürfnisse
abgestimmte Integrationslösung zu kommen.
Im ersten Schritt „Datenmodellierung“ erstellen
die Werkzeugexperten die Datenmodelle für die jeweiligen
im Projekt verwendeten Werkzeuge einer Werkzeugdomäne
[15]. In einem weiteren Schritt definieren
die Experten gemeinsam das dazu passende Datenmodell
der Werkzeugdomäne. Das Resultat sind in der
EKB gespeicherte semantische Beschreibungen [16] der
Modelle und Abbildungen zwischen den Datenmodellen.
Abschließend werden die Modelle mit qualitätssichernden
Maßnahmen auf Korrektheit und Gültigkeit
überprüft [17, 18]. Die in der EKB verwendete Datenmodellierungsmethode
benutzt Ontologien, wodurch
sich klare Vorteile ergeben in Bezug auf dynamische
Erweiterbarkeit der Datenmodelle, explizite semantische
Beschreibung der Datenmodelle und Unterstützung
von automatisierten Regel- und Abfragesprachen.
Herausforderungen in der Verwendung von Ontologien
ergeben sich aus nicht garantierbaren Laufzeiten von
Abfragen und aus der mit der Handhabung von Ontologien
verbundenen Komplexität.
Im nächsten Schritt „Prozessbeschreibung“ werden
die Arbeitsprozessbeschreibungen [7] (etwa in der BPMN
[19]) analysiert und auf die Funktionen abgebildet, die
die zu verwendenden Werkzeugdomänen bereitstellen.
Die Architektur des ASB ist darauf ausgelegt, ein flexibles
Zusammenspiel der vorgestellten Konzepte zu ermöglichen.
Ein Vorteil ist die iterative Umsetzbarkeit von
Integrationslösungen, die eine schrittweise Migration
bestehender Integrationslösungen Richtung ASB mit
überschaubaren Risiken und Kosten [20, 21] erlaubt.
Im darauffolgenden Schritt „Prozessumsetzung“ erfolgt
die konkrete Umsetzung der Integration, indem die
erfassten Modelle und Arbeitsabläufe dazu verwendet
werden, um projektspezifische ASB-Artefakte wie Konfigurationsdateien,
Quellcode und Testszenarien semiautomatisiert
abzuleiten. In diesem Schritt werden Vorlagen
für Werkzeugkonnektoren erstellt, die neben der
konkreten Anbindung an das Zielwerkzeug die Funktionalität
der Werkzeugdomäne beziehungsweise Gültigkeitsüberprüfungen
von Dateninstanzen implementieren,
(b) Schnittstellen und Funktionsaufrufe der Werkzeugdomänen
angelegt, (c) Transformationsinstruktionen
zwischen Datenmodellen abgeleitet, um zwischen
Werkzeugen Daten semantisch korrekt austauschen zu
können und (d) Testszenarien erstellt, um die Anbindung
der Werkzeuge an den ASB testen zu können. Die
ASB-Integrationslösung kann dann auf einem Server,
etwa in einer Java VM, zur Verwendung im Projekt bereitgestellt
werden.
Erfahrungen aus der Anwendung des ASB mit Software-Werkzeugherstellern
und Fachexperten in der Anlagenplanung
haben folgenden Aufwand ergeben: ein bis
zwei Workshop-Tage für die Analyse der Datenmodelle
für Werkzeugkonnektoren und zu unterstützende Arbeitsabläufe,
einige Personentage für die Umsetzung
eines Werkzeugkonnektors als Java beziehungsweise C#
Klassen anhand des Datenmodells durch Werkzeug- und
ASB-Experten. Werkzeughersteller können unterschiedliche
Versionen von Werkzeugkonnektoren anbieten,
Werkzeugdomänen halten die Auswirkungen von Änderungen
der Werkzeugspezifika auf ASB-Anwendungen
möglichst gering. Die Beschreibung der Transformationsmodelle
ist typischerweise in ein bis zwei Tagen
möglich, allerdings kann Mehraufwand entstehen, falls
Daten in der Organisation bisher inkonsistent verwendet
wurden, was durch die Analyse und den Einsatz der
automatischen Datenabgleiche oft erstmals auffällt.
Die Einbindung bekannter Werkzeuge in etablierte
Standardarbeitsabläufe ist typischerweise in einigen
Personentagen erzielbar. Wesentlicher Aufwand entsteht
durch die Abstimmung und Entwicklung organisationsspezifischer
Arbeitsabläufe, insbesondere gut verständlicher
Anwenderschnittstellen, die je nach Anforderungen
und Umfang typischerweise einige Personenwochen
erfordert. In den ASB-Projekten hat sich eine iterative
Vorgehensweise in Projektphasen über zwei bis drei Monate
bewährt, um nützliche und überschaubare Integrationsschritte
zu setzen.
Mit Bezug zum Aufwand für die Integration ist es wichtig
zu unterscheiden, ob es sich um Initialaufwand oder
um Aufwand für Änderungen der Integrationslösung handelt.
Einen wichtigen Unterschied zu anderen Integrationsansätzen
stellt die explizite Verfügbarkeit von Wissen
über Arbeitsabläufe oder verwendete Software-Werkzeuge
in Form von Ontologien dar, wodurch eine automatisierte
und maschinenverständliche Verwendung dieses
Wissens ermöglicht wird. Der Inititialaufwand anderer
Integrationsansätze ist daher etwas niedriger, da für die
ASB-Integration das explizite Wissen über Arbeitsabläufe
und Software-Werkzeuge zusätzlich modelliert werden
atp edition
12 / 2012
41
HAUPTBEITRAG
muss. Dieses externalisierte Wissen macht jedoch Änderungen
der Integrationslösung leichter. Zusätzlich unterstützt
das Konzept der Werkzeugdomänen effektiv die
Stabilität von Arbeitsabläufen, auch bei Änderungen an
Software-Werkzeugen, die lokal in den Konnektoren adressiert
werden können. Einen weiteren Vorteil bietet der
ASB im Bereich von qualitätssichernden Maßnahmen.
Durch die explizite Verfügbarkeit von Wissen über Arbeitsläufe
und Software-Werkzeuge wird die automatisierte
Durchführung von qualitätssichernden Maßnahmen
erleichtert, wodurch die konsistente und plausible
Datenhaltung verbessert wird; zusätzlich können automatisiert
Testfälle abgeleitet werden, um die Integrationslösung
bereits vor der Inbetriebnahme zu testen.
ZUSAMMENFASSUNG UND AUSBLICK
Dieser Beitrag hat den Automation Service Bus (ASB)
vorgestellt, einen offenen herstellerneutralen Ansatz zur
Integration von Software-Werkzeugen. Die Vision des
ASB ist die offene Integration von Daten und Funktionen
aus Software-Werkzeugen, um Abläufe in Engineering-
Projekten systematisch zu automatisieren. Wesentliche
Eigenschaften des ASB sind die herstellerneutrale, offene
Anbindung von Software-Werkzeugen an eine Integrationsplattform.
Diese Plattform beschreibt die Datenmodelle
der anzuschließenden Werkzeuge in expliziter
Form mithilfe von Ontologien, und ermöglicht dadurch
einerseits die effiziente Konfiguration benötigter Modelltransformationen
und andererseits die versionierte Speicherung
von Werkzeugdaten. Gleichzeitig erlaubt der
ASB die werkzeugunabhängige Definition von Arbeitsabläufen,
die auch bei Austausch von konkreten Werkzeugversionen
weitgehend stabil bleiben.
Der ASB-Ansatz ermöglicht, vorhandene Engineering-
Prozesse sichtbar und analysierbar zu machen und diese
Prozesse nach dem Bedarf der Fachexperten zu automatisieren
oder anzupassen. Der ASB-Ansatz wurde
anhand realer Projekterfordernisse von Industriepartnern
aus dem Bereich des industriellen Anlagenbaus
konzipiert, iterativ verbessert und evaluiert. Die Erstellung
von Konnektoren für Software-Werkzeuge durch
die einschlägigen Experten ließ sich je nach Umfang der
anzubindenden Daten und Funktionen in zwei bis zehn
Tagen erledigen. Durch die Integration von Daten und
Funktionen werden neue Funktionen auf Projektebene
ermöglicht, etwa die Navigation zwischen Sichten auf
ein mechatronisches Objekt in den unterschiedlichen
Werkzeugen oder die Datenauswertungen auf Projektebe-
REFERENZEN
[1] Drath, R. und Barth, M.: Concept for interoperability between
independent engineering tools of heterogeneous disciplines.
In: Proceedings Emerging Technologies & Factory Automation
(ETFA 2011), S. 1-8, 2011
[2] Chappell, D.: Enterprise Service Bus - Theory in Practice.
O’Reilly, 2004
[3] Biffl, S. und Schatten, A.: A Platform for Service-Oriented
Integration of Software Engineering Environments. In:
Proceedings SoMeT 09, S. 75–92, 2009
[4] Szyperski, C.: Component Software: Beyond Object-Oriented
Programming. Addison-Wesley, 2002
[5] Papazoglou, M.P. und Heuvel, W.-J.: Service oriented
architectures: approaches, technologies and research
issues. The VLDB Journal 16(3), S. 389 415, 2007
[6] Sunindyo, W., Moser, T., Winkler, D., Mordinyi, R., Biffl, S.:
Workflow Validation Framework in Distributed Engineering
Environments. In: Proceedings 3rd International Workshop
on Information Systems in Distributed Environment (ISDE'11),
S. 1 10, 2011
[7] Winkler, D., Moser, T., Mordinyi, R., Sunindyo, W.D., Biffl, S.:
Engineering Object Change Management Process Observation
in Distributed Automation Systems Projects. In: Proceedings
18th European System & Software Process Improvement
and Innovation, S. 1-12, 2011
[8] Biffl, S., Mordinyi, R., Moser, T.: Automated Derivation of
Configurations for the Integration of Software(+) Engineering
Environments. In: Proceedings 1st International Workshop on
Automated Configuration and Tailoring of Applications
(ACoTA 2010), S. 6 13, 2010
[9] Mordinyi, R., Moser, T., Biffl, S., Dhungana, D.: Flexible
Support for Adaptable Software and Systems Engineering
Processes. In: Proceedings 23rd International Conference on
Software Engineering and Knowledge Engineering (SEKE
2011), S. 1 5, 2011
[10] Moser, T. und Biffl, S.: Semantic Integration of Software and
Systems Engineering Environments. IEEE Transactions on
Systems, Man, and Cybernetics, C-42(1), S. 38 50, 2012
[11] Moser, T., Schimper, K., Mordinyi, R., Anjomshoaa, A.: SAMOA
- A Semi-Automated Ontology Alignment Method for Systems
Integration in Safety-Critical Environments. In: Proceedings
International Conference on Complex, Intelligent and
Software Intensive Systems, S. 724 729, 2009
[12] Waltersdorfer, F., Moser, T., Zoitl, A., Biffl, S.: Version
Management and Conflict Detection Across Heterogeneous
Engineering Data Models. In: Proceedings 8th IEEE International
Conference on Industrial Informatics (INDIN 2010), S.
928 935, 2010
[13] Moser, T., Mordinyi, R., Winkler, D., Biffl, S.: Engineering
Project Management Using The Engineering Cockpit. In:
Proceedings 9th IEEE International Conference on Industrial
Informatics (INDIN'2011), S. 579 584, 2011
[14] Mordinyi, R., Moser, T., Winkler, D., Biffl, S.: Navigating
between Tools in Heterogeneous Automation Systems
Engineering Landscapes. In: Proceedings 38th Annual
Conference of the IEEE Industrial Electronics Society (IECON
2012), S. 6182 6188, 2012
[15] Moser, T., Mordinyi, R., Mikula, A., Biffl, S.: Making Expert
Knowledge Explicit to Facilitate Tool Support for Integrating
42
atp edition
12 / 2012
ne über heterogene Datenmodelle aus den verwendeten
Software-Werkzeugen.
Der ASB wurde seit 2010 mit Industriepartnern konzipiert
und entwickelt. Aktuell laufen Evaluierungsprojekte
mit mehreren Werkzeugpartnern und Anwendern aus dem
Bereich Anlagenbau, deren Ergebnisse zum Teil bereits in
realen Projekten eingesetzt werden. Eine Open-Source-
Variante des ASB, durchläuft den Prozess Richtung Apache-Projekt.
Gemeinsam mit dem Unternehmenspartner
Logicals wird der ASB laufend verbessert, um die Konfiguration
und Verwendung nicht nur für Softwareentwickler
mit Kenntnis der Modellierungssprachen, sondern
auch für Anwendungsexperten leicht zugänglich zu machen,
und damit die Entwicklungszeiten zu verkürzen.
Die Entwicklung und Anwendung systematischer Ansätze
zur offenen Integration von Daten (etwa AutomationML
[22]) und Funktionen (etwa der Automation Service
Bus) beschleunigen die Innovation von Software-
Werkzeugen für das Engineering. Sie stärken durch
Verbesserungen der Effizienz im Engineering die Wettbewerbsfähigkeit
der europäischen Industrie.
MANUSKRIPTEINGANG
02.04.2012
Im Peer-Review-Verfahren begutachtet
Complex Information Systems in the ATM Domain. In:
Proceedings International Conference on Complex, Intelligent
and Software Intensive Systems(CISIS '09), S. 90 97, 2009
[16] Moser, T., Mordinyi, R., Winkler, D.: Extending Mechatronic
Objects for Automation Systems Engineering in Heterogeneous
Engineering Environments. In: Proceedings 17th
IEEE Conference on Emerging Technologies and Factory
Automation (ETFA), S. 1-8, 2012
[17] Biffl, S., Mordinyi, R., Schatten, A: A Model-Driven
Architecture Approach Using Explicit Stakeholder Quality
Requirement Models for Building Dependable Information
Systems. In: Proceedings 5th International Workshop on
Software Quality, Minneapolis, S. 6, 2007
[18] Biffl, S., Mordinyi, R., Moser, T., Wahyudin, D.: Ontologysupported
quality assurance for component-based
systems configuration. In: Proceedings the 6th international
Workshop on Software Quality (WoSQ), S. 59 64, 2008
[19] Allweyer, T.: BPMN 2.0 Introduction to the Standard for
Business Process Modeling. Books on Demand, 2010
[20] Biffl, S., Mordinyi, R., Moser, T.: Anforderungsanalyse für
das integrierte Engineering Mechanismen und Bedarfe
aus der Praxis, atp edition – Automatisierungstechnische
Praxis 54(5), S. 28 35, 2012
[21] Biffl, S., Moser, T., Mordinyi, R.: Automation Service Bus
löst Software-Problematik, Computer & AUTOMATION
2012(6), S. 41-44, 2012
[22] Drath, R.: Datenaustausch in der Anlagenplanung mit
AutomationML: Integration von CAEX, PLCopen XML und
COLLADA. Springer, Berlin Heidelberg, 2010
AUTOREN
Ao. Univ. Prof. DI Mag. Dr.
techn. STEFAN BIFFL (geb. 1967)
ist Leiter des Christian Doppler
Forschungslabors „Software
Engineering Integration für
flexible Automatisierungssysteme“
(CDL-Flex) an der Fakultät
für Informatik der Technischen
Universität Wien. Seine Forschungsinteressen
liegen im Bereich der Produktund
Prozessverbesserung für Software-intensive
Systeme sowie der empirischen Evaluierung im
industriellen Umfeld.
Technische Universität Wien,
Favoritenstr. 9-11/188, A-1040, Wien,
Tel. +43 (0) 1 58 80 11 88 10,
E-Mail: stefan.biffl@tuwien.ac.at
DI Mag. Dr. techn. RICHARD
MORDINYI (geb. 1979) ist Postdoc
im Christian Doppler Forschungslabor
„Software Engineering
Integration für flexible Automatisierungssysteme“
(CDL-Flex)
an der Fakultät für Informatik
der Technischen Universität
Wien. Seine Forschungsinteressen
liegen im Bereich der Modell-getriebenen
Konfiguration von Integrationsplattformen, Agiler
Softwarearchitekturen und sicherer Koordinationsstrategien
in komplexen verteilten Systemen.
Technische Universität Wien,
Favoritenstr. 9-11/188, A-1040, Wien,
Tel. +43 (0) 1 588 01 18 80 51,
E-Mail: richard.mordinyi@tuwien.ac.at
Mag. Dr. rer. soc. oec. THOMAS
MOSER (geb. 1981) ist Postdoc
im Christian Doppler Forschungslabor
„Software
Engineering Integration für
flexible Automatisierungssysteme“
(CDL-Flex) an der Fakultät
für Informatik der Technischen
Universität Wien. Seine Forschungsinteressen
liegen im Bereich der Datenmodellierung
und Datenintegration für Softwareintensive
Systeme sowie im Bereich Semantic Web.
Institut für Softwaretechnik und interaktive Systeme,
Technische Universität Wien,
Favoritenstr. 9-11/188, A-1040 Wien,
Tel. +43 (0) 1 588 01 18 80 51,
E-Mail: thomas.moser@tuwien.ac.at
atp edition
12 / 2012
43
HAUPTBEITRAG
Feldgeräte und semantische
Informationsmodelle
Plug-and-play-Integration und dynamische Orchestrierung
Programmierung und Rekonfiguration von Anlagensteuerungen sind mit sehr vielen manuellen
Tätigkeiten verbunden und daher zeitaufwendig und fehleranfällig. Konkrete
semantische Informationsmodelle und Middlewareparadigmen schaffen Abhilfe. Sie sind
daher die Basis für automatisierte Vorgänge wie beispielsweise bei der Feldgeräteintegration
oder der dynamischen Anpassung von Produktionsprozessen zur Laufzeit. Dieser
Beitrag erläutert Arten der Wissensrepräsentation, diskutiert existierende Wissensquellen
zum Aufbau von konkreten Informationsmodellen und weist Nutzenpotenziale auf.
SCHLAGWÖRTER Feldgeräteprofil / Plug-and-play / Dynamische Orchestrierung /
Informationsmodell
Semantic information models for field device control –
Plug-and-play integration and dynamic orchestration
Programming and reconfiguration of control systems are combined with many manual
operations and therefore timeconsuming and error prone. Specific semantic information
models and middleware paradigms remedy and are the basis for automated procedures
at field device integration or the dynamic adaption of production processes at runtime.
This treatise explains different kinds of knowledge representation, discusses existing
knowledge sources for the setup of specific information models and presents potential
benefits.
KEYWORDS field device profile / plug&play / dynamic orchestration / information model
44
atp edition
12 / 2012
STEFAN HODEK, MATTHIAS LOSKYLL, JOCHEN SCHLICK,
Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI)
Heutige Produktionsanlagen bestehen aus einer
Vielzahl unterschiedlicher Feldgeräte. Die Intelligenz
der Feldgeräte erlaubt dezentrale und
verteilte Steuerungskonzepte, was eine Interaktion
zwischen Feldgeräten und Steuerungen
über industrielle Kommunikationssysteme voraussetzt.
Kernproblem bei der Realisierung ist die Integration der
unterschiedlichen Feldgeräte zu einem Gesamtsystem.
Zentraler Aspekt: die Feldgeräteansteuerung durch verschiedene
Systeme. Beispiele für solche Systeme sind
SPSen, Qualitätsleitrechner, Betriebsdatenerfassung,
Auftragsverwaltung oder Liniensteuerung. Die Ansteuerung
von Feldgeräten setzt bei der Systemintegration
detaillierte Kenntnisse des Ingenieurs über die aktivierbaren
Funktionalitäten voraus. Diese Kenntnisse bilden
die Basis für das Programmieren von Steuerungen sowie
für den elektronischen Datenaustausch und damit für
die horizontale und vertikale Integration.
Die Aktivierung dieser Funktionen erfolgt meist
durch Steuer- und Statuswörter, die mithilfe von industriellen
Kommunikationssystemen übertragen werden.
Die Bedeutung der Wörter ist in der Dokumentation in
Fließtext und Tabellen beschrieben und wird durch den
Systementwickler nachgeschlagen und in Form von
Programmcodes in die Steuerung implementiert. Die
zu übertragenden Nutzdaten müssen daher manuell
und explizit eingerichtet werden, was zu einem hohen
Arbeitsaufwand führt. Die Qualität der Dokumentation
und die Erfahrung des Ingenieurs sind maßgebend für
den zeitlichen Arbeitsaufwand bei der Feldgeräteintegration.
Die Integrationsphase ist damit schwer abzuschätzen
und eines der wesentlichen Hemmnisse für
wandelbare Fabriken.
Die Plug-and-play-Feldgeräteintegration intendiert
die automatische Erkennung, Konfiguration und Integration
von Feldgeräten in die Steuerungsprogramme
von Automatisierungssystemen während der Betriebsphase
[1]. Neu angeschlossene Peripheriegeräte und
deren Basisfunktionalitäten lassen sich ohne manuelle
Arbeitsschritte nach dem elektromechanischen Einbringen
sofort nutzen. Der Integrationsaufwand wird
folglich auf nahezu Null reduziert. Die dynamische
Orchestrierung [2] bildet eine konzeptionelle Weiterentwicklung
des Plug-and-play-Gedankens und geht
davon aus, dass abstrakt beschriebene Programmabläufe
erst unmittelbar vor ihrer Ausführung, das heißt
in der Lebenszyklusphase des produktiven Betriebs,
auf die in der Anlage verfügbaren Geräte abgebildet
werden. Der zur Fertigung eines bestimmten Produkts
beziehungsweise einer Produktvariante benötigte konkrete
(ausführbare) Prozessablauf wird also ad hoc gebildet,
beispielweise in dem Moment, in dem ein Rohprodukt
in die Anlage eingebracht wird. Damit ein
solches Plug-and-play und eine dynamische Orchestrierung
realisierbar sind, muss der Datenaustausch auf
einer semantisch beschriebenen Ebene beruhen [3].
Grundvoraussetzung ist es, ein explizites semantisches
Informationsmodell zur Beschreibung der Datensemantik
zu verwenden.
In diesem Beitrag werden drei Aspekte zur Charakterisierung
von Informationsmodellen unterschieden –
Grundkonzepte der Modellierung, Arten der Wissensrepräsentation
und konkrete Instanzen von Informationsmodellen
(siehe Bild 1). Modellierungsprinzipien oder
Grundkonzepte sind Hierarchie, Aggregation, Variablen,
Funktionen, Referenzierung, Klassen, Methoden, Vererbung
und Datentypen [4]. Da der Zusammenhang zwischen
Informationsmodellen und Modellierungsprinzipien
mit Bezug zu existierenden Standards bereits in der
genannten Veröffentlichung untersucht wurde, werden
diese hier nicht weiter behandelt. Abschnitt 1 erläutert
stattdessen verschiedene Arten der Wissensrepräsentation,
welche unterschiedliche Grundkonzepte der Modellierung
benutzen, und legt damit einen Grundstein
zur Bewertung existierender Standards und zur Weiterentwicklung
von Programmierweisen bei Automatisierungssystemen.
Weiterhin liefern die Autoren einen Überblick und
eine Bewertung bestehender Standards zur Beschreibung
von Feldgerätefunktionalitäten (Abschnitt 2). Ziel
ist es, die Erstellung von Instanzen bei der Modellierung
von Automatisierungssystemen durch Wiederver-
atp edition
12 / 2012
45
HAUPTBEITRAG
GLOSSAR
wendung exsistierender Standards zu erleichtern. Einsatzmöglichkeiten
und Mehrwerte solcher Instanzen
(explizite semantische Informationsmodelle) werden
anhand der Plug-and-play-Feldgeräteintegration und
der dynamischen Orchestrierung beschrieben (Abschnitt
3). Erst diese einheitliche Abbildung des Datenund
Informationsraums in Kombination mit einer Abstraktion
der Kommunikation in Form einer Middleware
[5] ermöglicht die postulierte Reduzierung des
Engineeringaufwands, wie es die zwei genannten Anwendungen
darstellen.
1. ARTEN DER EXPLIZITEN WISSENSREPRÄSENTATION
Konkrete semantische Informationsmodelle beschreiben
explizites Wissen, wie beispielsweise konkrete Feldgerätefunktionalitäten,
und werden mittels einer ausgewählten
Art der expliziten Wissensrepräsentation modelliert.
Semantische Informationsmodelle machen es
möglich, Daten formal zu beschreiben und somit eine
semantische Verarbeitung dieser Daten durch Maschinen
zu gewährleisten, das heißt die Interpretation elektronisch
gespeicherter Informationen hinsichtlich ihrer
Inhalte und Bedeutung, zu gewährleisten. Der Bereich
der expliziten Wissensrepräsentation umfasst die Modellierung
des Wissens und die Definition formaler Logiken,
welche Regeln bereitstellen, um Schlüsse über die
modellierte Wissensbasis ziehen zu können. Die explizite
Definition der Semantik komplexer Wissenszusammenhänge
ermöglicht die eindeutige Interpretation der
Bedeutung von Information durch Maschinen. Hierdurch
lassen sich Inkonsistenzen und Widersprüche
automatisiert erkennen. Des Weiteren bilden semantische
Technologien die Grundlage für einen strukturierten
Informationsaustausch zwischen heterogenen Systemen
(semantische Interoperabilität). Der entscheidende
Mehrwert semantischer Technologien besteht in der
Möglichkeit, automatisiert Schlussfolgerungen (logische
Konsequenzen) ziehen und aus explizit modelliertem
Wissen neues implizites Wissen ableiten zu können.
Es existieren verschiedene Konzepte zur expliziten
Wissensrepräsentation, die sich in ihrer Ausdrucksstärke
und semantischen Mächtigkeit unterscheiden [6], siehe
Infokasten.
Glossar: eine einfache Auflistung von Begriffen und deren Erklärung.
Taxonomie: eine hierarchische, strukturierte Auflistung von Begriffen ohne
komplexe Beziehungen zwischen diesen.
Thesaurus: ähnlich der Taxonomie, erweitert um Relationen, die Ähnlichkeiten
und Synonyme beschreiben.
Topic Map: erweitert Thesauri um objektorientierte Prinzipien (Unterteilung
in Klassen und Instanzen) und beliebige Relationstypen (zum Beispiel:
istTeilVon oder nutztInterface).
Ontologie: erweitert zuvor genannte Repräsentationsarten um logische
Regeln, um ein komplexes Wissensnetzwerk zu bilden und automatisches
Reasoning zu ermöglichen.
Die semantisch reichhaltigste Form der expliziten Wissensrepräsentation
stellen Ontologien dar. Als Ontologie
wird eine explizite formale Spezifikation einer gemeinsamen
Konzeptualisierung bezeichnet [7]. Das bedeutet,
dass Ontologien einen bestimmten Wissensbereich mithilfe
einer standardisierten Terminologie sowie Beziehungen
und Ableitungsregeln zwischen den dort definierten
Begriffen beschreiben.
Im Laufe der letzten Jahre wurden diverse standardisierte
Beschreibungssprachen zur Abbildung semantischer
Informationsmodelle entwickelt. Dabei hat sich die
Web Ontology Language (OWL) als die durch das W3C
empfohlene Ontologie-Beschreibungssprache durchgesetzt.
OWL basiert auf RDF (Resource Description Framework)
und auf einer Beschreibungslogik, die eine Untermenge
der Prädikatenlogik erster Stufe darstellt. Jedes in
OWL modellierte Objekt (Klasse, Instanz, Relation) wird
mittels eines Uniform Resource Identifiers der Ontologie
und des entsprechenden Objektnamens identifiziert. Ein
großer Vorteil von OWL ist die Möglichkeit, mithilfe von
Reasoning-Systemen Schlussfolgerungen auf Basis der
Ontologie ziehen zu können. Diese erlauben beispielsweise
die automatische Prüfung der Systeminteroperabilität
sowie den Abgleich zwischen benötigten und angebotenen
Feldgerätefunktionalitäten (Abschnitt 3).
2. BESCHREIBUNG VON GERÄTEN UND FUNKTIONEN
2.1 Typisierung von Standards
Spezifische Informationen über die Automatisierungstechnik
sind in unterschiedlichsten Standards hinterlegt. Beispiele
dafür: Prozessbeschreibungen, Produktbeschreibungen,
Klassifizierungssysteme, Merkmalleisten, Kommunikationsprotokolle,
Gerätebeschreibungen und Feldgeräteprofile
(siehe Bild 2). Im Folgenden werden diese
erläutert und hinsichtlich ihres Informationsgehaltes über
Feldgerätefunktionalitäten zur Wiederverwendung beim
Erstellen von Modellinstanzen argumentativ bewertet.
Die Prozessbeschreibungen in der VDI 2411 (Förderwesen)
oder VDI 2860 (Handhabungstechnik) definieren Elementarfunktionen
und Prozessschritte. Zur Realisierung
dieser Elementarfunktionen ist oft ein Zusammenspiel
mehrerer Feldgeräte notwendig. Diese Art von Standards
eignet sich daher zur Beschreibung der Fähigkeiten komplexer
mechatronischer Einheiten. Basisfunktionalitäten
einzelner Feldgeräte lassen sich damit nicht erklären.
STEP (STandard for the Exchange of Product model
data, ISO-Norm 10303) ist ein Standard zur Beschreibung
von Produktdaten, der neben den physischen auch funktionale
Aspekte eines Produktes erläutert. Sogenannte
Anwendungsprotokolle (Application Protocols) geben
die oberste Gliederung vor und decken unterschiedliche
Industriezweige ab. Der Fokus von STEP liegt auf der
Beschreibung von Dimensionen, mechanischen Eigenschaften,
elektrischen Anschlüssen und Strukturen.
Über Kommunikationsnetzwerke aufrufbare Funktionen
sind darin nicht für einzelne Feldgeräteklassen in ausreichendem
Maße beschrieben.
Klassifizierungssysteme, wie ecl@ss und Unspsc für
Produkte oder ETIM und IEC 61360-4 für elektrische
46
atp edition
12 / 2012
Grundkonzepte der Modellierung
Prozessbeschreibungen
• Begriffe im Förderwesen (VDI 2411) und Handhabungstechnik (VDI 2860)
Produktbeschreibungen
• STEP (ISO 10303)
Arten der Wissensrepräsentation
Klassifizierungssysteme
• eCl@ss, UNSPSC, ETIM, ICS, IEC 61360-4
Merkmalleisten
• Prolist (NE 100), Elektrische Komponenten (IEC 61360-4)
Konkrete Instanzen von Informationsmodellen
Kommunikationsprotokolle
• Industrielle Kommunikationsnetze (DIN IEC61784-1), Manufacturing Message
Specification (ISO 9506), Feldbusanwendungsprofile (DIN IEC 61158-500 u.600)
Go
6000
3000
10
FB_MoveAbsolute
Execute Done
Position Active
Velocity ErrorID
Acceleration
Finish
Gerätebeschreibungssprachen
• GSD, EDD, FDT/DTM, FDI, EDS, FDCML, XIF
Feldgeräteprofile
• Siehe Bild 3
BILD 1: Aspekte zur Charakterisierung
von Infomationsmodellen
BILD 2: Übersicht zu Typen von Standards
mit Beispielen
Produkte, sind planmäßige Sammlungen von abstrakten
Typen oder Kategorien, die zur Abgrenzung und Ordnung
verwendet werden. Objekte werden anhand von
Merkmalen einzelnen Kategorien zugeordnet und dadurch
hierarchisiert. Zu den Typen gehörende Funktionen
oder Methoden sind nicht standardisiert. Bei den in
dieser Abhandlung dargestellten Anwendungen (siehe
Abschnitt 3) unterstützen sie daher lediglich die Einteilung
von Feldgeräten im Vorfeld der Modellierung, jedoch
nicht den Aufbau aufrufbarer Schnittstellen.
Merkmalleisten weisen eine große Ähnlichkeit zu
Klassifizierungssystemen auf, jedoch steht bei ihnen
nicht die Klassifizierung von Produktspektren, sondern
die Standardisierung von Produktmerkmalen im Vordergrund.
Prolist (Namur-Empfehlung NE 100) stellt eine
solche Merkmalleiste für Produkte und Systeme aus dem
Bereich der Prozessleittechnik (Elektro- und MSR-Technik)
dar. Die Merkmale umfassen keine Beschreibung
der aufrufbaren Feldgerätefunktionen.
Kommunikationsprotokolle, auch Kommunikationsprofile
oder Feldbusprofile genannt, sind Vereinbarungen,
nach denen die Datenübertragung zwischen zwei
oder mehreren Parteien abläuft. Diese beschreiben nicht
die anwendungsbezogenen Fähigkeiten der Kommunikationspartner,
sondern deren Fähigkeiten zur Kommunikation.
Beispiele sind DIN IEC 61158-500&600 (Feldbusanwendungsprofile),
DIN IEC 61784-1 (Industrielle
Kommunikationsnetze – Feldbusprofile) oder ISO 9506
(Manufacturing Message Specification).
Gerätebeschreibungen (beispielsweise GSD, EDD, EDS,
FDCML, XIF) und Integrationskonzepte (FDT/DTM, FDI)
machen Informationen und Funktionen von Feldgeräten
zugänglich und erlauben somit das Bedienen, Ansteuern
und Parametrieren von Feldgeräten über ein Kommunikationssystem.
Feldgeräteparameter und -funktionen
sind zwar in einer formalen Sprache beschrieben, jedoch
herstellerindividuell festgelegt. Anwendungsbezogene
Semantik ist daher nicht standardisiert.
Zusammenfassung: Die Typisierung und Bewertung
unterschiedlichster Standards hinsichtlich ihrer Eignung
als Wissensquellen zum Aufbau von semantischen
Informationsmodellen für die Plug-and-play-Feldgeräteintegration
und die dynamische Orchestrierung hat
ergeben, dass bestehende Richtlinien (beispielsweise
die VDI 2411 und VDI 2860) Elementarfunktionen von
komplexen mechatronischen Einheiten vorgeben können.
Die Fähigkeiten einzelner Feldgeräte sind zwar
computerlesbar in Gerätebeschreibungssprachen enthalten,
jedoch ist die Semantik der Feldgerätefunktionen
nicht geräteklassenübergreifend standardisiert. Klassifizierungssysteme
und Merkmalleisten stellen dagegen
eine wichtige Grundlage zur Einordnung und Abgrenzung
im Vorfeld der Modellierung dar. Kommunikationsprotokolle
und Produktbeschreibungen liefern den
für die hier definierte Zielsetzung geringsten wiederverwendbaren
Informationsgehalt.
2.2 Feldgeräteprofile als Basis für Instanzen
Aufgrund der fehlenden Anwendungssemantik eignen
sich die zuvor genannten Standards nur eingeschränkt
für den Aufbau konkreter semantischer Informationsmodelle
zur Beschreibung der Feldgeräteansteuerung.
Eine weiterführende Analyse hat ergeben, dass die benötigte
Information primär in Feldgeräteprofilen enthal-
atp edition
12 / 2012
47
HAUPTBEITRAG
ten ist. Beispiele für Feldgeräteprofile und deren zugehörige
Anwendungsgebiete zeigt Tabelle 1.
Zu unterscheiden sind Sammlungen von Feldgeräteprofilen
(beispielsweise CiA device profile, CIP oder spezielle
Applikationsprofile der PNO), die für spezielle
Kommunikationssysteme definiert sind und solche für
einzelne Gerätetypen. Zur Verdeutlichung des in Feldgeräteprofilen
enthaltenen Wissens werden einige Antriebsprofile
nachfolgend vorgestellt:
Das CiA 402 drives and motion control device profile
beschreibt auf 274 Seiten allgemeine Definitionen, Betriebszustände,
Anwendungsdaten, Operation Modes zur
Abbildung verschiedener Betriebsarten sowie anwendungsunabhängige
Parameter (Metadaten) wie Motortyp,
Katalognummer, Hersteller und Fehlercodes.
Das CIP Volume 1 enthält auf zwölf der insgesamt 1494
Seiten ein Profil für AC- und DC-Antriebe, welches optionale
und vorgeschriebene Objekte von Antrieben vorgibt,
zugehörige Parameter festlegt und auf Wertebereiche
referenziert.
Das Profidrive-Profil der PNO (Zeile drei in Tabelle 1)
definiert auf 287 Seiten Betriebsmodi, Gerätezustände,
Datentypen, funktionale Objekte, Anwendungsszenarien,
Kommunikationsbeziehungen, Kommunikationsdienste
sowie Abbildungsvorschriften der Kommunikationssysteme
Profibus und Profinet.
PLCopen Motion Control definiert auf 141 Seiten Funktionsblöcke
für die Antriebssteuerung. Ein Zustandsdiagramm
erklärt, in welchem Zustand welche Funktionen
möglich sind.
Zusammenfassende Bewertung: Kerninhalt von Feldgeräteprofilen
ist die Definition von Parametern, Funktionen
und Verhalten von Feldgeräteklassen. Dabei sind jedoch
erhebliche Unterschiede in Bezug auf die zugrunde liegenden
Modellierungskonzepte, die Art der Wissensrepräsentation
sowie den Grad und Umfang der standardisierten
Inhalte die Regel. Die Art der Wissensrepräsentation bei
Feldgeräteprofilen folgt meist dem Steuer-/Statuswort-Paradigma,
das heißt, unterschiedliche Funktionen werden
auf Bitstreams abgebildet. Ein direktes und intuitives Ablesen
von Funktionen oder Parametern aus dem Profil wird
dadurch erschwert. Zur Reduzierung des Engineeringaufwands
ist die Anhebung der Abstraktionsebene auf eine
funktionsorientierte, taxonomieähnliche Wissensrepräsentation
notwendig. Durch Abbildung der Beziehungen zwischen
den einzelnen Funktionen und Parametern, beispielsweise
mithilfe von Ontologien, kann darüber hinaus
die Semantik der Daten dem Computer verständlich gemacht
werden, was somit neue Wege des computergestützten
Engineerings eröffnet. Trotz ihrer Unterschiede enthalten
Feldgeräteprofile einen hohen Anteil anwendungsbezogener
Semantik, wodurch die Basis für Anwendungsfälle
wie die Plug-and-play-Feldgeräteintegration oder die
dynamische Prozessorchestrierung vorhanden ist.
2.3 Ontologiebasierte Informationsmodelle
Neben der Möglichkeit, bestehende Standards zur Erstellung
konkreter Instanzen von semantischen Informationsmodellen
zu nutzen, bietet sich die Wiederverwendung
existierender Ontologien an. Trotz des steigenden Interesses
an der semantischen Modellierung im Bereich der Automatisierungstechnik,
siehe [8] und [9], existieren nur
wenige wiederverwendbare und frei verfügbare Ontologien.
Dieses Defizit ist insbesondere auf die aufwendige und
komplexe Modellierung von Ontologien zurückzuführen.
Neben der fehlenden Unterstützung durch intuitive Modellierungswerkzeuge,
die auch von Nicht-Experten genutzt
werden können, mangelt es insbesondere an Möglichkeiten
zur effizienten Wissensakquisition. Diese umfasst
die Identifizierung geeigneter Wissensquellen sowie
die Extraktion des enthaltenen Wissens als Grundlage zur
Erstellung semantischer Informationsmodelle. Der in diesem
Beitrag verfolgte Lösungsansatz besteht in der Nutzung
existierender Standards (Abschnitt 2.1), um einerseits
den Wissensakquisitionsprozess effizienter zu gestalten
und andererseits eine breite Akzeptanz der erstellten
Informationsmodelle zu erreichen.
Bei der Untersuchung existierender wiederverwendbarer
Ontologien wird deutlich, dass es sich dabei meist
um Ontologien handelt, die domänenunabhängiges Allgemeinwissen
definieren (zum Beispiel Sumo, Cyc). Mit
Mason, Adacor und Avilus existieren jedoch auch produktionsspezifische
Ontologien, die grundlegende Terminologien
und Begriffszusammenhänge darstellen,
beispielsweise über Produkte, Produktionsmittel und
Funktionen. Diese Ontologien bilden durch die Festlegung
einer anwendungsübergreifenden Terminologie
eine wichtige Grundlage, um eine semantische Interoperabilität
zwischen heterogenen Systemen zu gewährleisten.
Es mangelt jedoch weiterhin an konkreten, formal
definierten Domänenontologien zur Abbildung
verschiedener Terminologien von Feldgerätefunktionalitäten
wie sie sich beispielsweise aus Feldgeräteprofilen
und Richtlinien extrahieren lassen.
3. ANWENDUNGSFÄLLE
3.1 Plug-and-play-Feldgeräteintegration
Die Inbetriebnahme und Integration von Feldgeräten
lässt sich in den mechanischen Einbau inklusive Verkabelung
(I), die Einzelinbetriebnahme der Feldgeräte (II),
die Konfiguration der Kommunikationsverbindung (III),
die Programmierung der SPS (IV) und den Test des Gesamtprogramms
(V) gliedern. Durch die Plug-and-play-
Feldgeräteintegration lassen sich die Schritte II und III
sowie große Teile des Schrittes IV automatisieren. Dazu
sind abstrakte Programmierschnittstellen, selbstkonfigurierende
Kommunikationssysteme sowie laufzeitadaptierbare
SPS-Programme nötig. Abstrakte Programmierschnittstellen
stellen aufrufbare Funktionen für
einzelne Feldgeräteklassen zur Verfügung. Dadurch
muss das später zu verwendende Feldgerät zum Zeitpunkt
der Programmentwicklung nicht bekannt sein.
Ein Gerätetausch zur Betriebszeit erfordert darüber hinaus
eine um spezielle Softwaremodule erweiterte SPS.
Neben einem Gerätemanager, der unter anderem die
Konfigurationssätze aller benötigten Feldgeräte vorhält,
muss das den Produktionsprozess beschreibende SPS-
Programm auf Basis abstrakt definierter Programmierschnittstellen
erstellt sein. Letztere sind ein Beispiel für
48
atp edition
12 / 2012
konkrete semantische Informationsmodelle. Bei bekannter
Geräteposition kann eine SPS dadurch einen
Abgleich zwischen der weggefallenen und der neu hinzugefügten
Gerätefunktionalität vornehmen und so ein
Ersatzgerät automatisch einbinden. Weitere Details eines
ersten Konzeptdemonstrators können [1] entnommen
werden. Dieser ist Teil der Versuchsanlage der
Technologie-Initiative Smartfactory kl e.V. (Bild 3).
3.2 Dynamische Orchestrierung von Produktionsprozessen
Der Ansatz der dynamischen Orchestrierung baut auf
Ideen zur digitalen Veredelung von Anlagenkomponenten
auf, bei der die mechatronischen Funktionalitäten
von Feldgeräten einer Anlage, beispielsweise dem Paradigma
der Serviceorientierung folgend, zusammen
mit der ausführenden Hardware gekapselt werden. Eine
Implementierung dieses Ansatzes erfolgt oft mithilfe
von Webservices, also über Internetprotokolle aufrufbare,
abgeschlossene Anwendungen, deren Schnittstellen
mit standardisierten Beschreibungssprachen definiert
werden. Die somit durch Webservices bereitgestellten
Funktionalitäten von Feldgeräten lassen sich
zu höherwertigen Prozessen kombinieren und zur Anlagensteuerung
nutzen.
Eine dynamische Orchestrierung ist auf Basis heutiger
Standardtechnologien (zum Beispiel WSDL, BPEL) jedoch
kaum möglich, da diese auf syntaktischer Ebene arbeiten.
Die Bedeutung der hinter einer Webservice-Definition
Name Anwendungsgebiet Ersteller Implementierung
CiA device profile
Diverse Geräte der
Automatisierungstechnik
CAN in Automation
CAN, Canopen,
Ethercat, Powerlink
Common Industrial
Protocol
Diverse Geräte der
Automatisierungstechnik
Open DeviceNet Vendor
Association (ODVA)
Componet, Controlnet,
Devicenet, Ethernet/IP
Spezifische
Applikationsprofile
Diverse Geräte der
Automatisierungstechnik
Profibus Profinet Nutzerorganisation
(PNO)
Profibus, Profinet
Controller-to-
Controller Profile
DIN EN 61800-7-1/-20x/
-30x: Antriebsprofile
Antriebe Sercos international e.V. Ethercat, Sercos
Antriebe
Deutsches Institut für Normung
CiA, CIP, Profidrive,
Sercos
DriveCom Profile Antriebe DriveCom User Group e.V. Interbus
PLCopen Motion Control
Function Blocks
Antriebe PLCopen organization in SPSen
OPC UA ADI (Analyzer
Device Interface)
Mess- & Analysegeräte der
Verfahrenstechnik
OPC Foundation
OPC UA
PackML: Packaging
Machine Language V3.0
Verpackungsmaschinen
Organization for Machine Automation
and Control (OMAC)
continuous flow process
colored soap production
discret handling process
bottling, handling, labeling, QC, packaging...
TABELLE 1: Auswahl von
Feldgeräteprofilen in der
Automatisierungstechnik
BILD 3:
Die Versuchsanlage
Smart Factory
Kaiserslautern
atp edition
12 / 2012
49
HAUPTBEITRAG
BILD 4:
Ausschnitt einer Ontologie
zur Beschreibung von
Feldgerätefunktionalitäten
liegenden Funktionalität wird durch Maschinen also
nicht verstanden. Durch die semantische Annotation von
Webservices kann die zur Verfügung gestellte Funktionalität
in einer maschinenverständlichen Art und Weise
beschrieben werden, wodurch beispielsweise Webservices
mit gleicher oder ähnlicher syntaktischer Beschreibung
hinsichtlich der Semantik ihrer Schnittstellen- und
Funktionsbeschreibungen unterschieden werden können.
Des Weiteren wird es möglich, mittels Reasoning-
Prozessen, basierend auf der semantischen Beschreibung,
einen automatischen Abgleich und eine entsprechende
Selektion geeigneter Funktionalitäten umzusetzen.
Grundgedanke des realisierten Anwendungsfalls ist
die Orchestrierung von Produktionsprozessen ausgehend
von einer abstrakten Prozess- und Produktbeschreibung
abhängig vom konkreten Aufbau der Produktionsanlage
und der von den Feldgeräten angebotenen Funktionalitäten.
Zudem können Produktionsprozesse dynamisch sogar
zur Laufzeit an vorkommende Ereignisse (zum Beispiel
Ausfall eines Feldgeräts) angepasst werden, indem
ähnliche Funktionalitäten anderer Feldgeräte gefunden
und in den Prozess eingebunden werden.
Der beschriebene Anwendungsfall einer dynamischen
Orchestrierung entstand im Rahmen der Smart Factory
Kaiserslautern. Dazu wurden verschiedene Feldgeräte der
Anlage mit Mikrokontrollern ausgestattet, über die die
Funktionalitäten der Feldgeräte als Webservices im Netzwerk
der Anlage angeboten und durch ein Orchestrierungsprogramm
von einem zentralen PC aufgerufen werden
[10]. Das Orchestrierungsprogramm ermittelt, ausgehend
von der abstrakten Prozessbeschreibung des zu
fertigenden Produkts, welche Webservices in der vorliegenden
Anlage aktuell verfügbar sind und wie diese orchestriert
werden müssen, um den gewünschten Prozess
zu realisieren. Dabei findet ein semantischer Abgleich der
benötigten und vorhandenen Funktionalitäten statt. Die
semantische Beschreibung der Webservices erfolgt durch
Annotation mit den Konzepten verschiedener OWL-Ontologien,
die beispielsweise Feldgerätefunktionalitäten,
Geräteklassen sowie Anlagenstrukturen beinhalten.
Bild 4 zeigt einen Ausschnitt einer Ontologie zur semantischen
Beschreibung von Feldgerätefunktionalitäten.
Neben den zur Annotation genutzten Instanzen von Funktionalitäten
(zum Beispiel Write, Hold) werden aktuell im
System vorhandene Webservices durch Instanzen repräsentiert
(zum Beispiel Camera_Keyence_CA900011).
REFERENZEN
[1] Hodek, S. und Schlick, S.: Plug&Play Feldgeräteintegration
– Methoden, Softwarekonzepte und technische Realisierungsformen
für eine ad hoc Feldgeräteintegration. In:
Tagungsband Automation, S. 63-66, VDI, 2012
[2] Loskyll, M., Heck, I., Schlick, J., Schwarz, M.: Contextbased
Orchestration for Control of Resource-efficient
Manufacturing Processes. Future Internet 4(3), 737-761,
2012
[3] Zühlke, D.: SmartFactory – Towards a factory-of-things,
IFAC journal Annual reviews in control 34(1), 129 138, 2010
[4] Mahnke, W., Gössling, A., Urbas, L.: Informationsmodellierung
für Middleware in der Automatisierung. In: Tagungsband
Automation, S. 119-124, VDI, 2011
[5] VDI/VDE 2657: Middleware in der Automatisierungstechnik,
Dezember 2010
[6] Blumauer, A. und Pellegrini, T.: Semantic Web und
semantische Technologien: Zentrale Begriffe und
Unterscheidungen. In: T. Pellegrini und A. Blumauer (Hrsg.)
50
atp edition
12 / 2012
FAZIT
Die Realisierung eines Plug-and-play erfordert die Existenz
einer Schnittstelle, die es zur Betriebszeit erlaubt, den Funktionsaufruf
im SPS-Programm einer zur Entwurfszeit unbekannten
Feldgerätefunktionalität zuzuordnen. Ein semantisches
Informationsmodell, welches die Funktionalitäten
der Feldgeräte beschreibt, gewährleistet die Interoperabilität
dieser Schnittstelle. Die dynamische Orchestrierung basiert
auf dem semantischen Vergleich von Eigenschaften von
Feldgerätefunktionalitäten zur Laufzeit. Kern dieses Beitrags
ist die Untersuchung existierender Standards zur Wissensextraktion
bei der Instanziierung dieser semantischen Informationsmodelle.
Das Ergebnis: Vor allem Feldgeräteprofile
stellen eine grundlegende Wissensquelle dar, da hier
bereits herstellerübergreifend einzelne Funktionalitäten von
Feldgeräteklassen genormt sind. Diese Vereinheitlichung
basiert jedoch meist auf Bit/Byte-Ebene und einer Prosa-
Beschreibung der Funktionalität, was eine manuelle Formalisierung
notwendig macht. Spezifische semantische Informationsmodelle
und Middleware-Paradigmen sind damit
Grundlage dafür, den Integrationsaufwand erheblich zu
reduzieren und somit den Weg zur flexiblen und wandelbaren
Fabrik zu ebnen.
MANUSKRIPTEINGANG
01.07.2012
DANKSAGUNG
Im Peer-Review-Verfahren begutachtet
Die hier beschriebenen Arbeiten wurden teilweise mit
Mitteln des Bundesministeriums für Bildung und
Forschung unter dem Förderkennzeichen 01IA11001
(Projekt RES-COM) gefördert. Die Verantwortung für
den Inhalt dieser Veröffentlichung liegt bei den Autoren
AUTOREN
Dipl-Ing. STEFAN HODEK
(geb. 1981) studierte
Elektrotechnik an der TU
Kaiserslautern. Seit 2008 ist
er Researcher am DFKI und
Mitglied im VDI Fachausschuss
für Middleware.
Seine Forschungstätigkeiten
liegen im Bereich von
Steuerungs- und Kommunikationssystemen im
Allgemeinen und in der Feldgeräteintegration
im Speziellen.
Deutsches Forschungszentrum
für Künstliche Intelligenz,
Trippstadter Str. 122, D-67663 Kaiserslautern,
Tel. +49 (0) 631 205 75 34 07,
E-Mail: stefan.hodek@dfki.de
M.Sc. MATTHIAS LOSKYLL
(geb. 1984) studierte Informatik
an der Universität des
Saarlandes. Seit 2009 ist er
als Researcher am DFKI im
Forschungsbereich „Innovative
Fabriksysteme“ tätig.
Seine Forschungsaktivitäten
beschäftigen sich hauptsächlich
mit der Anwendung semantischer Technologien
in der Automatisierungstechnik.
Deutsches Forschungszentrum
für Künstliche Intelligenz,
Trippstadter Str. 122, D-67663 Kaiserslautern,
Tel. +49 (0) 631 205 75 52 85,
E-Mail: matthias.loskyll@dfki.de.
Semantic Web. Wege zur Wissensgesellschaft,
S. 9-25. Springer, 2006
[7] Gruber, T.: A Translation Approach to Portable Ontology
Specifications. Knowledge Acquisition 5(2), 199-220, 1993
[8] Wollschlaeger, M., Runde, S., Brauen, A., Mühlhause, M.,
Drumm, O., Thomalla, C., Sabov, A., Lindemann, L.:
Semantische Integration im Lebenszyklus der Automation.
In: Tagungsband Automation, S. 169-170. VDI, 2009
[9] Runde, S., Dibowski, H., Fay, A., Kabitzsch, K.: A semantic
requirement ontology for the engineering of building
automation systems by means of OWL. In: Proceedings
14th IEEE International Conference on Emerging Technologies
and Factory Automation (ETFA’09), S. 1-8, 2009
[10] Loskyll, M., Schlick, S., Hodek, S., Ollinger, L., Gerber, T.,
Pîrvu, B.: Semantic Service Discovery and Orchestration
for Manufacturing Processes. In: Proceedings 16th IEEE
International Conference on Emerging Technologies and
Factory Automation (ETFA’11), S. 1-8, 2011
Dr.-Ing. JOCHEN SCHLICK
(geb. 1974) promovierte
2005 an der TU Kaiserslautern
im Bereich von kognitiven
Mikromontagesystemen.
Nach einer mehrjährigen
Tätigkeit in der strategischen
Produktionsoptimierung
bei Bosch kehrte er
2009 als stellvertretender Forschungsbereichsleiter
für innovative Fabriksysteme in die
Forschung zurück.
Deutsches Forschungszentrum
für Künstliche Intelligenz,
Trippstadter Str. 122, D-67663 Kaiserslautern,
Tel. +49 (0) 631 205 75 34 05,
E-Mail: jochen.schlick@dfki.de
atp edition
12 / 2012
51
HAUPTBEITRAG
Automatisierung mit FASA
Eine Architektur für flexible, verteilte Systeme
Multicore-Prozessoren werden vermehrt in der Automatisierungstechnik eingesetzt. Dies
erzeugt neue Herausforderungen für die Softwareentwicklung: Einerseits soll die vorhandene
Hardware optimal ausgenutzt, andererseits müssen strenge Echtzeitanforderungen
auch von paralleler Software erfüllt werden, und die Systeme sollen flexibel bleiben, um
zeitnah auf Änderungen der Systemanforderungen reagieren zu können. Der Beitrag befasst
sich mit Fasa (Future Automation System Architecture), einer komponentenbasierten
Architektur und Ausführungsumgebung für modulare, verteilte und dynamische Automatisierungssysteme
mit Multicore-Prozessoren. Die Architektur vereinfacht die deterministische
verteilte Ausführung von Applikationen. Fasa bietet Features wie softwarebasierte
Fehlertoleranz und Softwareupdates zur Laufzeit als einfach zu nutzende Dienste
für den Anwendungsentwickler.
SCHLAGWÖRTER Verteilte Systeme / Multicore / Modularität / Fehlertoleranz
Flexible distributed automation systems with FASA –
A software architecture for parallel real-time systems
The advent of multicore CPUs in automation raises some challenges for software engineering.
On the one hand, existing hardware should be optimally used. On the other hand,
strict real-time requirements must be satisfied by parallel software. At the same time,
systems should remain flexible to be able to react quickly to changing system requirements.
Fasa is a component-based architecture and execution environment for modular, dynamic
automation systems with multicore CPUs and distributed execution. Fasa simplifies the
deterministic distributed execution of applications and offers novel features such as
software-based fault tolerance and software updates during runtime as transparent and
easy-to-use services for application developers.
KEYWORDS distributed systems / multicore / modularity / fault tolerance
52
atp edition
12 / 2012
MICHAEL WAHLER, THOMAS GAMER, MANUEL ORIOL, ATUL KUMAR, MARTIN NAEDELE,
ABB Corporate Research, Industrial Software Systems
Die Zeit des Free Lunch [3] ist leider vorbei, in
der regelmäßig immer schnellere Prozessoren
entwickelt wurden, auf denen herkömmliche
sequenzielle Software immer schneller lief.
Performancegewinne werden in Zukunft nur
mit einer größeren Anzahl von CPU-Cores erzielt. Sequenzielle
Software aber läuft auf mehreren Cores nicht
schneller. Von Multicore-Prozessoren kann nur profitieren,
wer Software parallelisiert. Das ist jedoch nicht
einfach, da parallele Software die Synchronisierung von
parallelen Threads erfordert, was in der Praxis zu fehlerhaften
Abläufen (race conditions) oder zum Stillstand
des Systems (deadlocks) führen kann. Als wäre das nicht
genug, müssen Softwareentwickler die immer komplexeren
CPU-Architekturen berücksichtigen, in denen es
mehrere Cache-Levels gibt und manche Caches von mehreren
Cores gemeinsam benutzt werden.
Diese Probleme werden mit der zukünftigen Hardwareentwicklung
sogar noch zunehmen. Während es
relativ einfach ist, die eigene Software an Dual-Core-
Prozessoren anzupassen, ist es ungleich schwieriger,
Software für 16, 48 oder 100 Cores zu skalieren. Daher
muss schon während der Entwicklung einer Ausführungsumgebung
und deren Softwarearchitektur darauf
geachtet werden, dass potenziell eine große Anzahl an
Ausführungsressourcen (CPUs in einem Multi-CPU-
System oder Cores in einer Multicore-CPU) zur Verfügung
steht.
In diesem Beitrag stellen die Autoren Fasa (Future
Automation System Architecture) vor, eine Softwarearchitektur
und Ausführungsumgebung für zukünftige
Automatisierungssysteme mit Multicore-Prozessoren
und verteilter Ausführung. Fasa kombiniert
eine flexible Erstellung und Verteilung von Anwendungen
mit streng statischer, deterministischer Ausführung.
Dabei bietet Fasa dem Anwendungsentwickler
vollständige Transparenz bezüglich des Ausführungsortes:
Je nach Systemkonfiguration lässt sich die gleiche
Anwendung auf einem CPU-Core, auf mehreren Cores
der gleichen CPU, oder auf mehreren CPUs verteilt über
mehrere Rechnerknoten (Controller) ausführen. Hierfür
wird beim Deployment ein Schedule errechnet, der die
zeitlichen Anforderungen der Anwendungen, Abhängigkeiten
zwischen Komponenten und Latenzen der
Kommunikationsmechanismen berücksichtigt. Darüber
hinaus bietet Fasa neuartige Features wie softwarebasierte
Fehlertoleranz und unterbrechungsfreie
Softwareupdates zur Laufzeit, die für den Anwendungsentwickler
transparent sind.
Bild 1 zeigt die grundlegende Architektur von Fasa.
Auf Hardwareseite gibt es eine beliebige Anzahl von
Prozessoren, die über einen Echtzeit-Bus kommunizieren
können. Das Fasa-Runtime-Framework bietet eine
Abstraktion der Hardware und eine Ausführungsumgebung
für Applikationen. Applikationen werden, wie
im Bild gezeigt, transparent in dieser Ausführungsumgebung
ausgeführt.
1. GRUNDKONZEPTE VON FASA
Fasa stellt einige Basiskonzepte und -mechanismen zur
Verfügung, die die Grundlage für komplexere Mechanismen
bilden, beispielsweise Softwareupdates oder softwarebasierte
Fehlertoleranz.
1.1 Komponenten, Blöcke und lineare statische Schedules
Fasa ist ein Framework für die Entwicklung und Ausführung
zyklischer Kontrollanwendungen. Fasa unterstützt
eine komponentenbasierte Definition der Kontrollanwendungen;
durch die erreichte Modularität
bietet Fasa eine erhöhte Flexibilität und Anpassbarkeit.
Komponenten bestehen aus einem oder mehreren Blöcken,
die die elementaren Ausführungsbausteine darstellen.
Jeder Block realisiert genau einen Aspekt der
Funktionalität seiner Komponente, das heißt, Blöcke
implementieren in sich abgeschlossene Funktionalitäten.
Blöcke in Fasa dürfen daher nicht blockieren und
müssen immer terminieren [2]. Eine Komponente hat
einen Zustand, auf den die in ihr enthaltenen Blöcke
atp edition
12 / 2012
53
HAUPTBEITRAG
zugreifen können. Zudem kann eine Komponente Parameter
definieren, welche während der Laufzeit durch
eine definierte Schnittstelle von außen verändert werden
können. Alle Blöcke derselben Komponente haben
gemeinsamen Zugriff auf den Zustand und die Parameter
der Komponente. Zustandsdaten in unterschiedlichen
Komponenten sind jedoch streng voneinander
getrennt. Da die Blöcke selbst zustandslos sind (nur die
sie umgebende Komponente hat einen Zustand), lassen
sich diese sehr einfach während der Laufzeit austauschen.
Der Kontext der Blöcke bleibt durch die Zustandshaltung
in den Komponenten jedoch erhalten. In
Bezug auf das Deployment einer Anwendung stellen
Komponenten die kleinste Einheit in Fasa dar, das
heißt, eine Komponente kann nicht verteilt ausgeführt
werden. Das bedeutet, dass Blöcke derselben Komponente
nicht auf unterschiedlichen Ressourcen ausgeführt
werden können. Die verschiedenen Komponenten
einer Anwendung können hingegen auf unterschiedlichen
Ressourcen zur Ausführung gebracht werden.
Blöcke können über Ports mit anderen Blöcken Daten
austauschen. Dazu werden die Ports über Kanäle verbunden.
Kanäle in Fasa sind unidirektional und 1-zu-1. Das
bedeutet, dass höchstens ein Block auf einen gegebenen
Kanal schreiben kann und höchstens ein Block davon
lesen kann. Durch diese Elemente kann jede Anwendung
in Fasa als gerichteter Graph dargestellt werden, in welchem
Knoten die Blöcke repräsentieren und Kanten die
Kanäle.
Kanäle sind lediglich für den Datentransport verantwortlich.
Sie übermitteln Daten ohne jegliche Prüfung,
jedoch muss jedes Paar von Out-Port und In-Port, die
miteinander verbunden sind, denselben Datentyp haben.
Die Prüfung der Daten auf Plausibilität und Aktualität
ist die Aufgabe des jeweiligen Blocks. Blöcke können
über das Framework zur Laufzeit feststellen, welche ihrer
Ports über einen Kanal verbunden sind. Bei miteinander
verbundenen Blöcken stellt das Framework sicher,
dass ein übertragenes Datenelement an den In-Port des
Zielblocks geschrieben worden ist, bevor es mit der Ausführung
des Zielblocks beginnt.
Bild 2 zeigt eine Beispielanwendung in Fasa. Die Anwendung
ist ein kaskadierter PID-Controller und besteht
aus sechs Komponenten (dargestellt durch grüne Rechtecke),
die mit ihrer ID (zum Beispiel I1, P1) und dem jeweiligen
Komponententyp (zum Beispiel Feldbus In, PID
Controller) beschriftet sind. Mit Ausnahme der Komponente
I1 vom Typ Feldbus In, welche zwei Blöcke (dargestellt
durch blaue Rechtecke) bereitstellt, haben alle
Komponenten nur jeweils einen Block. Kanäle sind
durch Pfeile verdeutlicht und mit ihrem Datentyp beschriftet.
In-Ports sind links von ihrem zugehörigen
Block als kleine Quadrate erkenntlich. Out-Ports sind
rechts von ihrem Block durch kleine Quadrate am Beginn
der gerichteten Verbindung dargestellt.
Eine weitere Besonderheit von Fasa ist, dass die Firmware
selbst modular aufgebaut ist. Ähnlich wie im
Microkernel-Konzept von Betriebssystemen gibt es einen
kleinen Kern, der für die Ausführung von Komponenten
zuständig ist. Die meisten Systemfunktionalitäten
(zum Beispiel Netzwerkkommunikation) sind als
Komponenten realisiert. Dadurch genießen diese Systemfunktionalitäten
die gleichen Vorteile wie normale
Applikationen, zum Beispiel dynamische Softwareupdates.
Anwendungen in Fasa werden zyklisch ausgeführt.
Hierfür kann entweder für die gesamte Anwendung oder
für jeden einzelnen Block eine Ausführungsfrequenz
(Periodizität) definiert werden.
Fasa unterstützt die lineare Ausführung von Anwendungen
mit einem statischen Schedule. Das bedeutet,
dass zur Zeit des Deployments eine lineare Ordnung
über alle Blöcke, die in den Komponenten einer Anwendung
definiert sind, berechnet wird. Grundlage für diese
Ordnung ist die Abhängigkeit zwischen den Blöcken,
die sich durch den über die Kanäle definierten Datenfluss
ergibt. Das heißt, dass ein Block A, der ein Datenelement
an einen anderen Block B sendet, auch vor diesem
ausgeführt werden muss. Diese lineare Ordnung ist
die Grundlage für die Abarbeitungssequenz der Blöcke
in jedem Zyklus. Dabei wird die Ausführung eines einzelnen
Blocks nie unterbrochen. Auf einem Fasa-System
können mehrere unterschiedliche Schedules hinterlegt
sein, die jeweils in einer Konfiguration abgelegt sind. Zu
jedem Zeitpunkt ist genau eine Konfiguration aktiv.
Zu jeder Anwendung können mehrere oder auch keine
Linearisierung existieren. Sollte keine Linearisierung
möglich sein, muss der Anwendungsumfang reduziert
werden. Bild 3 zeigt eine Linearisierung der Beispielanwendung
aus Bild 2.
Rückkopplungen sind ein häufig eingesetztes Gestaltungselement
in der Automatisierungstechnik, da sie es
erlauben, die Ausgangswerte eines Prozesses als Eingangswerte
für die nächste Iteration des Prozesses zu
verwenden. Die einfachste Art der Rückkopplung ist in
Bild 4 (a) durch einen Kanal dargestellt, der einen Out-
Port eines Blocks mit einem In-Port verbindet. Um eine
semantisch korrekte lineare Ordnung zwischen den Blöcken
zu erreichen, werden Rückkopplungen in Fasa realisiert,
wie in Bild 4 (b) gezeigt: Statt eines Kanals wird
das für die Rückkopplung benötigte Datenelement von
einem Hilfsblock (Mem) im Zustand der Komponente
abgelegt. Bei der Ausführung liest Block 1 jenes Datenelement
dann aus dem Zustand, anstatt es von seinem
In-Port zu lesen wie in Bild 4 (a). Auch kompliziertere
Rückkopplungsmechanismen lassen sich durch eine solche
Konstruktion realisieren.
Mit zunehmender Anzahl von Komponenten und Abhängigkeiten
zwischen Komponenten wird es schwieriger,
korrekte Linearisierungen zu berechnen. In verteilten
Systemen (mit Multicore-Prozessoren und/oder mehreren
Rechnerknoten) müssen zudem auch mehrere
Ausführungsressourcen synchronisiert werden, die
parallel jeweils einen linearen Schedule ausführen.
Hierbei müssen auch unterschiedliche Latenzen betrachtet
werden, da die Kommunikation zwischen zwei CPU-
Cores im Allgemeinen schneller abläuft als zwischen
zwei Hosts in einem verteilten Automatisierungssystem.
Ebenfalls muss berücksichtigt werden, dass manche
Komponenten nur auf bestimmten Ausführungsressourcen
laufen können, wenn zum Beispiel ein spezieller I/O
benötigt wird. Im nächsten Abschnitt wird beschrieben,
54
atp edition
12 / 2012
wie sich die Scheduleberechnung automatisieren lässt
und damit auch Anwendungen transparent auf einem
verteilten System ausgeführt werden können.
1.2 Verteilte Ausführung und globaler Schedule
Ausführungsressourcen werden in Fasa Hosts genannt.
Jeder Host führt eine Instanz des Fasa-Kernels aus. Ein
solcher Host ist entweder ein Single-Core-Computer oder
ein einzelner Core in einem Multicore-Computer. In beiden
Fällen wird ein Echtzeitbetriebssystem vorausgesetzt.
In einem komplexen System mit mehreren Hosts
und einer Vielzahl von Anwendungen können Komponenten
derselben Anwendungen auf mehrere Hosts verteilt
oder Komponenten unterschiedlicher Anwendungen
auf dem gleichen Host geladen werden. Hierbei wird
vorausgesetzt, dass alle Hosts zeitsynchronisiert werden,
zum Beispiel nach dem Precision-Time-Protocol (IEEE
1588, [5]), welches mit Fokus auf lokale Netze und geringem
Aufwand bezüglich Bandbreite und Rechenzeit entwickelt
wurde.
Um eine verteilte Ausführung zu erreichen, muss
beim Deployment ein System-Schedule berechnet werden.
Der System-Schedule bestimmt, welcher Block zu
welcher Zeit (Offset) im Zyklus auf welchem Host ausgeführt
wird. Bild 5 zeigt einen solchen Schedule für
die Beispielanwendung aus Bild 2 für ein System mit
zwei Hosts.
Bei der Berechnung des System-Schedules ist eine
Vielzahl von Parametern zu berücksichtigen: Die
partielle Ordnung der Blöcke, die maximale Laufzeit
jedes Blocks (worst-case execution time, WCET) auf
den verschiedenen Hosts, die Frequenz der einzelnen
Blöcke, und die Zyklenlängen auf den jeweiligen
Hosts. Darüber hinaus hängt die Zeit, die benötigt
wird, um ein Datenelement von einem Block A an
einen Block B zu schicken, von der relativen Position
von A und B ab. Blöcke auf verschiedenen Hosts
kommunizieren über IPC-Mechanismen, falls die
Hosts auf verschiedenen Cores derselben CPU laufen,
oder über Netzwerk-Proxies, falls die Hosts auf verschiedenen
Systemen laufen. Schließlich soll es am
Ende jedes Zyklus noch eine Schlupfzeit (slack time)
FASA Runtime Framework
CPU Core
CPU Core
Controller
Anwendungen
CPU Core
CPU Core
...
CPU Core
CPU Core
Echtzeit-Bus
BILD 1: Die Architektur
von Fasa im Überblick
CPU Core
Controller
CPU Core
I1:
Feldbus In
Temp
Druck
I2:
Ethernet
Track
float
float
bool
P1:
PID
Controller
PidCC
M1:
Mathematik
Bibliothek
Offset
float
float
P2:
PID
Controller
PidCC
float
O1:
Feldbus Out
Ventil
BILD 2: Eine Beispielanwendung
in Fasa
I1:Temp P1:PidCC I2:Track I1:Druck M1:Offset P2:PidCC O1:Ventil
t 0 t 1
BILD 3: Schedule für die Beispielanwendung
C1: T1
C1: T1
Zustand
Block 1 Block 1 Mem
I1:Temp I1:Druck P1:PidCC
t 0 t 1
I2:Track
M1:Offset P2:PidCC O1:Ventil
(a)
(b)
BILD 4: Beispiel für die Realisierung
von Rückkopplungen in Fasa
t 0 t 1
BILD 5: System-Schedule der Beispielanwendung auf zwei Hosts
atp edition
12 / 2012
55
HAUPTBEITRAG
geben, die es dem Betriebssystem erlaubt, andere Threads
auszuführen.
Für das Deployment von Fasa-Applikationen muss also
zunächst ein verteiltes Scheduling-Problem gelöst werden.
Dies wird offline durchgeführt, das heißt, bevor das
System startet, und resultiert in jeweils einem statischen,
linearen Schedule für jeden Fasa-Host. Ein solches Scheduling-Problem
besteht aus zwei Teilen: eine Zuweisung
jeder Komponente auf einen Host und die Berechnung
eines Zeitintervalls für die Ausführung eines jeden
Blocks. Die Zuweisung muss hierbei den Speicherbedarf
der Komponenten und den verfügbaren Speicher auf jedem
Host berücksichtigen. Die Zeitintervalle dürfen sich
für Blöcke, die auf dem gleichen Host ausgeführt werden,
nicht überlappen.
Die Länge eines Zeitintervalls entspricht für die Lösung
des Scheduling-Problems der WCET des jeweiligen
Blocks. Es wird dabei angenommen, dass Blöcke bei jeder
Ausführung ihre WCET in Anspruch nehmen. Da diese
Annahme in der Praxis selten zutrifft, führt sie zu einer
suboptimalen Ausnutzung der verfügbaren Rechenzeit.
Dadurch, dass der Dispatcher jeden Block zu der durch
die WCET bestimmten Zeit startet, wird jedoch der Jitter
zwischen Zyklen minimiert, da die Abstände zwischen
zwei Ausführungen eines jeden Blocks konstant sind.
Das verteilte Scheduling-Problem in Fasa ähnelt typischen
Job-Shop-Problemen, was dieses NP-schwer
macht. Damit ist es praktisch unmöglich, ein solches
Problem selbst für mittelgroße Systeme zu lösen [1]. Um
Fasa skalierbar zu machen, ist eine automatisierte Lösung
notwendig. Fasa benutzt einen Constraint-Programming-basierten
Ansatz, um System-Schedules automatisiert
zu berechnen [6].
1.3 Abstrahierung der Plattform
Um die Wiederverwendbarkeit des Frameworks sowie
der Anwendungen, Komponenten und Blöcke zu gewährleisten,
bietet Fasa eine Schicht, um eine Abstraktion
von der Hardware und vom verwendeten Betriebssystem
zu gewährleisten. Hierfür müssen nur für wenige plattformspezifische
Mechanismen Abstraktionen angeboten
werden:
Anwendungen
FASA Kernel
P1:
PID
Controller
Speicher
P1‘:
PID
Controller
Plattformabstraktion
PidCC
PidCC
Betriebssystem
v1
v2
BILD 6: Plattformabstrahierung
... PidCC ... ... PidCC ...
Schedule 1 Schedule 2
BILD 7: Softwareupdate zwischen zwei Versionen von PID-Controller
Host 1
Host 2
Host 3
I1:Temp
Mu
Se 1 Se 2
Se 4
P1:PidCC
Re 3 Re 4
Voter
Re 2
P1‘:PidCC
Re 1
P1‘:PidCC Se 3
BILD 8:
System-Schedule
des kritischen
Pfads der
redundanten
Beispielanwendung
auf drei Hosts
t 0
56
atp edition
12 / 2012
Timer erlauben es dem Framework, die Echtzeitanforderungen
umzusetzen. Beispiel: zyklischer Start
der Schedule-Ausführung.
Datenübertragung (beispielsweise Message Queues
oder Shared Memory) wird für die Implementierung
von Kanälen benötigt.
Synchronisierung (zum Beispiel Mutex oder Semaphoren)
werden zur Benachrichtigung innerhalb des
Frameworks verwendet.
Threads werden vom Framework benutzt, um Applikationen
mit höchster Priorität und Verwaltungsaufgaben
mit niedriger Priorität auszuführen.
In unserer Referenzimplementierung [2] wird die Plattformabstraktion
durch eine Reihe von Wrapperklassen
und Klassentemplates in C++ realisiert. Als Beispiel kapselt
eine Klasse Thread den Zugriff auf die Threadbibliotheken
des Betriebssystems, in unserer Implementierung
auf die pthread-Bibliothek des POSIX-Standards.
Diese Aufteilung ist in Bild 6 visualisiert.
2. ERWEITERTE FEATURES VON FASA
Aufbauend auf den bereits vorgestellten Grundkonzepten
bietet Fasa eine Reihe von erweiterten Features, die
die Performanz, Verfügbarkeit und Skalierbarkeit von
Automatisierungssystemen verbessern. Da diese für den
Anwendungsentwickler transparent sind, lassen sie sich
einfach und kostengünstig nutzen beziehungsweise in
die Anwendung integrieren.
2.1 Softwareupdates zur Laufzeit
Die komponentenbasierte Architektur von Fasa erlaubt
es nicht nur, zur Entwurfszeit eine Komponente durch
eine andere zu ersetzen, sondern auch zur Laufzeit. Im
Gegensatz zu existierenden Lösungen ist es in Fasa
möglich, die Applikationen (also die Verknüpfung von
Komponenten) zu verändern, und Teile der Firmware
auszutauschen. Durch die Microkernel-inspirierte Architektur
von Fasa (Systemkomponenten wie zum Beispiel
der Netzwerktransport werden genau wie Applikationskomponenten
behandelt) und durch Verwendung
von dynamischem Links kann so ein Großteil der
Firmware ausgewechselt werden. Das ist auch im laufenden
Betrieb ohne Beeinträchtigung des Systems
möglich [4].
Es gibt mehrere Gründe, weshalb solch dynamische
Softwareupdates notwendig sind. Zum einen kann selbst
durch intensives Testen nicht ausgeschlossen werden,
dass ein Bug im System verblieben ist. Durch dynamische
Updates können entdeckte Bugs im laufenden Betrieb
behoben werden. Ein weiterer Grund sind Security-
Patches, da sich über die Lebensdauer eines Systems die
Angriffsfläche eines Systems verändert. Ein Beispiel ist
der Hashing-Algorithmus MD5, der lange Zeit als sicher
galt, später aber durch zunehmende Rechenleistung und
verbesserte Angriffsvarianten gebrochen wurde [9].
Schließlich können Softwareupdates zur Laufzeit dazu
dienen, im Rahmen eines Servicevertrags die installierte
Software auf dem neuesten Stand zu halten oder zusätzliche
Software zu installieren.
Bei dynamischen Updates für kritische Systeme ist es
besonders wichtig, dass die Applikationen, die auf dem
zu aktualisierenden System laufen, nicht gestört werden.
Fasa ermöglicht es, Komponenten zur Laufzeit zu ersetzen,
ohne das System anzuhalten oder auch nur einen
Zyklus zu verpassen. Dies wird realisiert durch die Aufteilung
des Updates in zwei Phasen: Vorbereitung und
Umschaltung.
In der Vorbereitungsphase wird der Code der neuen
Komponenten zuerst auf das System kopiert (zum Beispiel
mit dem SSH-basierten Secure Copy) und die gewünschten
Komponenteninstanzen werden initialisiert.
Gleichzeitig wird eine neue Konfiguration mit einem
aktualisierten Schedule übertragen, der aber noch nicht
aktiv ist. All diese Aktivitäten sind nicht zeitkritisch
und werden als Thread parallel zu den Applikationen
ausgeführt. In unserer Referenzimplementierung werden
die auszuführenden Blöcke in jedem Zyklus in einem
Thread mit höchster Priorität ausgeführt. Zwischen dem
Ende des letzten Blocks und dem Beginn des nächsten
Zyklus – also in der Schlupfzeit – blockiert dieser Thread.
So kann das Betriebssystem Threads mit niedrigerer
Priorität ausführen und zum Beispiel neue Komponenten
laden.
Bild 7 zeigt ein Beispiel für ein dynamisches Softwareupdate.
Dabei wird eine Instanz der Komponente
PID Controller in Version 1 (v1) durch eine neuere Version
(v2) ersetzt. Das System führt vor dem Update den
Schedule von Konfiguration 1 aus. Beim Softwareupdate
wird zuerst in der Vorbereitungsphase eine Instanz P1‘
der neuen Komponentenversion instanziiert und initialisiert.
Dann wird eine neue Konfiguration 2 erzeugt,
deren Schedule statt dem PidCC-Block von P1 denjenigen
von P1‘ aufruft. Sobald P1‘ initialisiert ist und Konfiguration
2 erzeugt wurde, kann mittels API-Aufruf vom
alten auf den neuen Schedule umgeschaltet werden.
Sobald diese Vorbereitungsphase beendet ist, signalisiert
das System, dass es bereit zum Umschalten ist. Das
Umschalten erfolgt quasi-atomar zu Beginn eines neuen
Zyklus durch das Umsetzen eines einzigen Zeigers. So
wird verhindert, dass Teile des alten Schedules und Teile
des neuen Schedules im selben Zyklus ausgeführt
werden. Falls die Schedules von mehreren Hosts gleichzeitig
geändert werden müssen, zum Beispiel wenn ein
Update eine verteilt ausgeführte Anwendung betrifft,
lassen sich die Updates durch Angabe eines gemeinsamen
Zeitpunkts zum Umschalten synchronisieren.
Nach dem Umschalten auf den neuen Schedule bleibt
der alte Schedule zunächst im Speicher erhalten, ebenso
wie eventuell nicht mehr benötigte Komponenten. Dies
ist notwendig, um ein Rollback zu ermöglichen, falls das
System nach dem Update nicht wie erwartet funktioniert.
Falls das System korrekt funktioniert, können
nicht mehr benötigte Komponenten und Schedules aus
dem Speicher gelöscht werden.
Einen Sonderfall beim dynamischen Update bilden
zustandsbehaftete Komponenten. Hier muss der Zustand
der alten Komponente zur neuen Komponente transfe-
atp edition
12 / 2012
57
HAUPTBEITRAG
riert werden. Die Schwierigkeit ist einerseits, dass sich
die Struktur des Zustands ändern kann, zum Beispiel
können sich Messwerte von km/h in m/s ändern. Andererseits
kann es vor allem passieren, dass der Zustand
von einzelnen Komponenten so umfangreich ist, dass er
sich nicht innerhalb eines Zyklus übertragen lässt. Falls
mehrere Zyklen zur Übertragung notwendig sind, kommt
es vor, dass sich ein Teil des Zustands der Quellkomponente,
der bereits zur Zielkomponente übertragen wurde,
wieder ändert. Hierfür bietet Fasa einen Mechanismus
zur Zustandsübertragung, der in [4] ausführlich erklärt
ist. Im bereits genannten Beispiel des Updates der Komponente
PID Controller von Version 1 auf Version 2 wird
die Zustandsübertragung in der Vorbereitungsphase
nach dem Initialisieren der Instanz P1‘ ausgeführt. Das
System schaltet erst auf den neuen Schedule um, nachdem
der Zustand von P1 vollständig auf P1‘ übertragen
wurde.
2.2 Softwarebasierte Fehlertoleranz und Safety
Mithilfe der softwarebasierten Fehlertoleranz lässt sich
eine hohe Verfügbarkeit für die mit Fasa ausgeführten
Anwendungen erreichen. Dieses erweiterte Feature zeigt
auch, dass Fasa aufgrund seiner Modularität und Flexibilität
in der Lage ist, derartige erweiterte Features aufgrund
der einfachen Wiederverwendbarkeit von Komponenten
und der flexiblen Ausführungsumgebung
schnell und vor allem transparent für den Anwendungsentwickler
umzusetzen. Transparenz bedeutet in diesem
Kontext, dass Fehlertoleranz beziehungsweise Redundanz
in Fasa als Service für den Anwender angeboten
wird. Dieser muss lediglich auswählen, dass er
diesen Dienst nutzen möchte und einige grundlegende
Parameter konfigurieren, zum Beispiel welches Redundanzmuster
verwendet werden soll, welche Art von
Fehler toleriert werden soll oder wie viele Fehler toleriert
werden sollen. Die Berechung des Deployments,
eines dazu passenden Schedules sowie die eigentliche
Integration zusätzlich benötigter Komponenten in die
Applikation übernimmt Fasa – der Anwendungsentwickler
muss diese also weder selbst implementieren
noch in seine Applikation integrieren. Darüber hinaus
ermöglicht Fasa erfahrenen Anwendern, direkt Einfluss
auf Detailebene zu nehmen, das heißt, beispielsweise
das Deployment zu beeinflussen oder zu nutzende Algorithmen
auszuwählen.
Eine erste Design-Entscheidung, die im Kontext von
Fehlertoleranz in Fasa getroffen werden musste, war
die Frage nach der Granularität der Redundanz. Da
Fasa ein komponentenbasiertes System ist, ließe sich
Redundanz auf allen Ebenen anbieten. Redundanz auf
Block-Ebene erbringt jedoch nur einen geringen Mehrwert,
da Fehlertoleranz in diesem Fall auf einzelne
Blöcke auf demselben Host – und damit auf den vergleichsweise
unwahrscheinlichen Fall eines auf den
Block begrenzten Fehlers – eingeschränkt wäre. Fehlertoleranz
in Fasa ist daher auf Ebene der Komponenten
angesiedelt. Dies hat mehrere Vorteile: Da Komponenten
einen Zustand haben können, schließt Fehlertoleranz
auf Komponenten-Ebene neben der Verfügbarkeit
der Komponente auch deren Zustand mit ein.
Außerdem ist eine feingranulare Abstufung für Verfügbarkeit
möglich, das heißt, nur kritische Teile einer
Anwendung müssen redundant ausgelegt werden, und
somit können möglicherweise Ressourcen im Vergleich
zur heute gebräuchlichen Anwendungsredundanz eingespart
werden. Zudem können redundante Komponenten
auf verschiedenen Cores oder Hosts ausgeführt
werden. Somit werden deutlich mehr Fehlerszenarien,
beispielsweise auch der Ausfall eines Controllers oder
einer Netzwerkverbindung, abgedeckt als dies bei der
Block-Redundanz der Fall wäre. Auch die Fehlertoleranz
auf Applikations-Ebene kann realisiert werden,
da dies lediglich eine Erweiterung der Komponenten-
Redundanz darstellt.
Die im Folgenden beschriebene beispielhafte Umsetzung
des Redundanzmusters M-out-of-N [8] (die Komponente
wird N-fach redundant ausgeführt; mindestens M
dieser Instanzen müssen übereinstimmen, was mittels
eines Voters überprüft wird) dient dem besseren Verständnis
der Zusammenhänge. Stellt beispielsweise die
Komponente P1 aus Bild 2 die kritische Komponente der
Anwendung dar, und wurde das Redundanzmuster M-
out-of-N angefordert, sowie ein Fehlermodell beschrieben,
welches den Ausfall eines Hosts beziehungsweise
Links abdecken soll und annimmt, dass keine externen
Mechanismen zur Fehlererkennung zur Verfügung stehen,
könnte Fasa das in Bild 8 dargestellte Deployment
und einen dazu passenden Schedule berechnen. Hierbei
ist zu sehen, dass Fasa zum Erreichen der Fehlertoleranz
ein 2-out-of-3 Muster gewählt hat, sowie die zusätzlich
benötigten Komponenten zur Umsetzung – einen Multiplier
(Mu) für den Sensor-Input, einen Voter (Vo), mehrere
Netzwerk-Proxies (Sender Se und Empfänger Re)
und die redundanten Komponenten (P1‘) – automatisch
hinzugefügt und im Schedule berücksichtigt hat. Dass
im gezeigten Setup lediglich ein Voter genutzt wird, ist
ebenfalls eine Vereinfachung. Um den Single-Point-of-
Failure zu vermeiden, könnte auch der Voter repliziert
werden. Alternativ lässt sich auch die Flexibilität und
Anpassbarkeit von Fasa nutzen, um im Fehlerfall durch
eine schnelle, bereits im Hintergrund vorgehaltene neue
Konfiguration auf einen Standby-Voter umzuschalten.
Idealerweise sollte auch die Sensorik redundant ausgelegt
werden. Ist dies nicht möglich, kann die Verteilung
der Input-Werte mithilfe der von Fasa angebotenen Multiplier-Komponente
erfolgen, welche zur Vermeidung
eines Single-Point-of-Failure dann auch redundant ausgelegt
werden sollte.
Mithilfe der erläuterten Fehlertoleranz können verschiedene
Anwendungsfälle abgedeckt werden; unter
anderem sind dies das Hinzufügen von Redundanz, der
Austausch des verwendeten Voting-Algorithmus, der
Austausch des verwendeten Redundanzmusters, das
Wiederherstellen der Fehlertoleranz nach einem Fehler
und natürlich die eigentliche Maskierung eines Fehlers
zur Sicherstellung der Verfügbarkeit einer Applikation.
Alle diese Anwendungsfälle werden während der Ausführung
einer Applikation unterstützt, ohne die eigentliche
Funktion der Applikation zu stören und ohne dass
58
atp edition
12 / 2012
die Anwendung in spezieller Weise dafür vorbereitet
werden muss. Der für die Anwendung von Fehlertoleranz
in Kauf zu nehmende Overhead ist am Beispiel von
M-out-of-N eine zusätzliche Verzögerung bei der Ausführung
der Applikation durch die Ausführung des Voters
sowie die eventuell benötigte Wartezeit auf die N
Inputs für das Voting.
Fehlertoleranz ist nicht auf das Redundanzmuster M-
out-of-N beschränkt, sondern lässt auch andere Redundanzmuster
zu. Umgesetzt wurden beispielsweise auch
die Muster Hot Standby und Warm Standby. Auch hier
werden verschiedene Basisdienste von Fasa in Anspruch
genommen. Außerdem werden zusätzliche erweiterte
Features benötigt, die dem Benutzer von Fasa aber ebenfalls
als Service zur Verfügung gestellt und transparent
angewendet werden. Beispielsweise wird beim Redundanzmuster
Warm Standby zur Replikation des Zustands
zwischen der Primary- und der Secondary-Komponente
die Funktionalität der Zustandssynchronisierung benötigt.
Auch das erweiterte Feature des Exception Handling,
das heißt, die Benachrichtigung nachfolgender
Blöcke und Komponenten über intern erkannte Fehler,
lässt sich in die Fehlertoleranz integrieren.
Auch wenn der Fokus des erweiterten Features Fehlertoleranz
bisher auf der hohen Verfügbarkeit der Applikation
lag, ist die Anwendung desselben Features ebenso
zur Erfüllung von Safety-Anforderungen nutzbar. Hier
sind weitere Randbedingungen zu beachten, zum Beispiel
eine den Zertifizierungsrichtlinien entsprechende
Dokumentation der Entwicklung oder die Berechnung
der Fehlerwahrscheinlichkeiten. Dies war bisher nicht
im Fokus der Entwicklung.
3. VERWANDTE TECHNOLOGIEN UND SYSTEME
Das Konzept der Blöcke in Fasa ist mit den Funktionsblöcken
aus den Standards IEC 61131 und IEC 61499
[10] verwandt. Allerdings gibt es keine 1-zu-1-Beziehung:
So existieren beispielsweise in Fasa keine Execution
Control Charts wie in IEC 61499, und die in Fasa
mögliche Organisation von Blöcken in Komponenten
ist zwar verwandt mit zusammengesetzten Funktionsblöcken
(Composite Control Blocks), entspricht ihnen
aber semantisch nicht vollständig. Der Fokus von Fasa
liegt auf der transparenten Verteilung von Anwendungen
und erweiterten Features wie Fehlertoleranz. Daher
kann Fasa als eine Art Assemblersprache für Hochsprachen
wie IEC 61499 gesehen werden: In einem unserer
Arbeitspakete wird zur Zeit untersucht, wie geeignete
REFERENZEN
[1] Lombardi, M. und Milano, M.: Optimal Methods for Resource
Allocation and Scheduling: a Cross-disciplinary Survey. Constraints
17(1), S. 51-85, 2012
[2] Richter, S., Wahler, M., Kumar, A.: A Framework for Component-
Based Real-Time Control Applications. In: Proceedings 13 th Real-Time
Linux Workshop, S. 107-115, 2011
[3] Sutter, H.: A fundamental turn toward concurrency in software.
Dr. Dobb’s Journal 2005(30), S. 202-210, 2005.
(http://www.drdobbs.com/architecture-and-design/184405990)
[4] Wahler, M., Richter, S., Kumar, S., Oriol, M:. Non-disruptive Largescale
Component Updates for Real-Time Controllers. In: 3rd
Workshop on Hot Topics in Software Upgrades (HotSWUp 2011),
Proceedings IEEE 27 th International Conference on Data Engineering
Workshops (ICDEW), S. 174-178, 2011
[5] IEEE 1588: Standard for a Precision Clock Synchronization Protocol
for Networked Measurement and Control Systems. 2002
[6] Oriol, M., Wahler, M., Steiger, R., Stoeter, S., Vardar, E., Koziolek, H.,
Kumar, A.: FASA: A Scalable Software Framework for Distributed Control
Systems. In: Proceedings 3rd International ACM Sigsoft Symposium on
Architecting Critical Systems (ISARCS 2012), S. 51-60, 2012
[7] Garcia, C., Prett, D. M., Morari, M.: Model predictive control: Theory
and practice – A survey. Automatica 25(3), S. 335–348, 1989
[8] Avizienis, A. A.: The N-Version Approach to Fault-Tolerant Software.
IEEE Transactions on Software Engineering SE–11(12), S. 1491-1501, 1985
[9] Stevens, M., Lenstra, A., de Weger, B.: Chosen-prefix collisions for
MD5 and applications. Applied Cryptography 2(4), S. 322-359, 2012
[10] Vyatkin, V.: IEC 61499 Function Blocks for Embedded and Distributed
Control Systems Design. ISA, 2007
[11] Fieldbus Foundation. http://www.fieldbus.org
[12] Kopetz, H., Merker, W.: The Architecture of MARS. In: Proceedings 25 th
International Symposium on Fault-Tolerant Computing, S. 50-55, 1995
[13] Schneider, S.A., Chen, V.W., Pardo-Castellote, G.: The ControlShell
component-based real-time programming system. In: Proceedings
IEEE International Conference on Robotics and Automation,
S. 2381-2388, 1995
[14] Xu Ke, Sierszecki, K., Angelov, C.: COMDES-II: A Component-Based
Framework for Generative Development of Distributed Real-Time
Control Systems. In: Proceedings 13 th IEEE International Conference
on Embedded and Real-Time Computing Systems and Applications
(RTCSA), S. 198-208, 2007
[15] Ando, N., Suehiro, T., Kitagaki, K, Kotoku, T., Woo-Keun Yoon:
RT-Middleware: Distributed Component Middleware for RT (Robot
Technology). In: Proceedings IEEE/RSJ International Conference on
Intelligent Robots and Systems (IROS), S. 3933-3938, 2005
[16] Yau, S.S. und Bing Xia: An approach to distributed component-based
real-time application software development. In: Proceedings 1st
International Symposium on Object-Oriented Real-time Distributed
Computing (ISORC), S. 275-283, 1998
[17] Hill, J.H.: Towards Heterogeneous Composition of Distributed
Real-Time and Embedded (DRE) Systems Using the CORBA Component
Model. In: Proceedings 37 th EUROMICRO Conference on Software
Engineering and Advanced Applications (SEAA), S. 73-80, 2011
[18] Uppaal PORT. http://www.uppaal.org/port
[19] SAVE IDE: http://sourceforge.net/projects/save-ide/
[20] Kindel, O. und Friedrich, M.: Softwareentwicklung mit AUTOSAR:
Grundlagen, Engineering, Management in der Praxis. dpunkt Verlag, 2009
atp edition
12 / 2012
59
HAUPTBEITRAG
AUTOREN
Dr. MICHAEL WAHLER (geb. 1978) leitet die Gruppe
Software Systems am ABB Forschungszentrum in Baden-
Dättwil und ist aktiver Forscher. Der Schwerpunkt seiner
Arbeit liegt auf der Architektur und dem Engineering von
nachhaltiger Software für Automatisierungssysteme.
ABB Schweiz AG Corporate Research,
Industrial Software Systems,
Segelhofstr. 1K, CH-5405 Baden-Dättwil,
Tel. +41 (0) 58 58 6 81 67, E-Mail: michael.wahler@ch.abb.com
Dr. THOMAS GAMER (geb. 1979) ist Scientist am ABB
Forschungszentrum in Ladenburg. Der Schwerpunkt
seiner Arbeit liegt auf Softwarearchitekturen und Softwareengineering
für zukünftige Automatisierungssysteme,
Fehlertoleranz und Gebäudeautomation.
ABB AG Corporate Research Center Germany,
Industrial Software Systems,
Wallstadter Str. 59, D-68526 Ladenburg,
Tel. +49 (0) 6203 71 60 24, E-Mail: thomas.gamer@de.abb.com
Dr. MANUEL ORIOL (geb. 1975) ist Principal Scientist am
ABB Forschungszentrum in Baden-Dättwil. Der Schwerpunkt
seiner Arbeit liegt auf dynamischen Softwareupdates,
Middleware, Softwaretests und Echtzeitsystemen.
ABB Schweiz AG Corporate Research,
Industrial Software Systems,
Segelhofstr. 1K, CH-5405 Baden-Dättwil,
Tel. +41 (0) 58 58 6 70 38, E-Mail: manuel.oriol@ch.abb.com
Dr. ATUL KUMAR (geb. 1974) ist Principal Scientist am ABB
Forschungzentrum Indien in Bangalore. Seine Forschungsinteressen
beziehen sich auf die Bereiche verteilte Systeme,
Softwareengineering, und Internettechnologien. Der
Schwerpunkt seiner Arbeit liegt auf Softwarearchitektur
für die zukünftige Generation von industriellen Automatisierungssystemen.
ABB Corporate Research Center Bangalore,
Industrial Software Systems,
Whitefield Road, Mahadevpura PO, Bangalore 560048 INDIA,
Tel. +91 80 67 57 99 50, E-Mail: atulkumar.d@in.abb.com
Dr. MARTIN NAEDELE (geb. 1972) ist der R&D-Programm-
Manager für Industrial Software Systems in ABB
Corporate Research.
ABB Schweiz AG Corporate Research,
Industrial Software Systems,
Segelhofstr. 1K, CH-5405 Baden-Dättwil,
Tel. +41 (0) 58 58 6 83 39, E-Mail: martin.naedele@ch.abb.com
Untermengen von IEC 61499 auf die Konzepte von Fasa
abgebildet werden können.
Im Gegensatz zum Foundation Fieldbus (IEC 61804-2,
[11]) liegt die Ausrichtung von Fasa auf der Plattformabstraktion,
Flexibilität, und dem Bereitstellen von erweiterten
Features, die für den Benutzer transparent sind,
wie zum Beispiel Fehlertoleranz. Es wäre denkbar, Fasa
mit Foundation Fieldbus zu kombinieren: Fasa ließe sich
auf einer höheren Abstraktionsebene zum Erstellen von
fehlertoleranten, verteilten Anwendungen nutzen und
ein Foundation-Fieldbus-System als deren Ausführungsumgebung.
Ein Teil von Fasa ist von Komponenten-Frameworks
inspiriert, die in den letzten 20 Jahren für Echtzeit-Kontrollsysteme
entwickelt wurden, wie Mars [12], ControlShell
[13], Comdes-II [14], RT-middleware [15], Corba [16]
[17], Uppaal Port [18], und die Automotive Open System
Architecture (Autosar) [20]. Das Ziel dieser Systeme ist,
die Flexibilität der komponentenbasierten Softwareentwicklung
mit den Anforderungen von Echtzeitanwendungen
zu verbinden. In einigen Fällen bieten diese
Systeme auch Entwicklungsumgebungen (IDEs). So kann
Uppaal Port mit der Save IDE [19] als Eclipse-Plugin benutzt
werden.
Während all diese Komponentenplattformen den Programmierern
Komponenten und Kanäle als die hauptsächlichen
Designelemente anbieten, liegt der entscheidende
Unterschied zwischen diesen Systemen und Fasa
in den angebotenen erweiterten Features. Nach dem
Wissen der Autoren ist Fasa die einzige Plattform, die
Features wie dynamische Softwareupdates, transparente
Unterstützung von Multicore-CPUs und verteilter Ausführung
sowie transparente Fehlertoleranz im Kontext
von Echtzeitsystemen bietet.
FAZIT
Die aufkommende Parallelisierung von Prozessoren in
der Automatisierungstechnik stellt Softwareentwickler
vor Herausforderungen, bietet aber auch neue Möglichkeiten.
Der Schlüssel zum Bewältigen der Herausforderungen
und zum Ausnutzen der Möglichkeiten paralleler
Systeme liegt in der Softwarearchitektur. Fasa ist ein
Beispiel für eine Architektur, die es erlaubt, Anwendungen
flexibel verteilt auf mehreren Ressourcen (zum Beispiel
CPU-Cores) auszuführen und dabei dem Anwendungsentwickler
vollständige Ausführungstransparenz
zu bieten. Basierend auf einigen Basiskonzepten, wie
Modularität durch Komponenten und deterministische
Ausführung durch statische Schedules, ermöglicht Fasa
fortgeschrittene Features wie werkzeuggestützte Berechnung
komplexer, verteilter Schedules, softwarebasierte
Fehlertoleranz oder unterbrechungsfreie Softwareupdates
zur Laufzeit. Dadurch erzielt Fasa ein hohes Maß
an Flexibilität mit zuverlässiger deterministischer Ausführung
von Anwendungen.
MANUSKRIPTEINGANG
26.07.2012
Im Peer-Review-Verfahren begutachtet
60
atp edition
12 / 2012
HAUPTBEITRAG
Effizienz durch ergonomische
Benutzungsschnittstelle
Industrielle Mensch-Prozess-Kommunikation gestalten
Wie sich die industrielle Mensch-Prozess-Kommunikation für die operative Prozessführung
gestalten lässt, wird in diesem Beitrag anhand eines Konzepts vorgestellt. Hintergrund
ist die stetig steigende Komplexität der zu überwachenden Produktionsprozesse
und der Arbeitsumgebung in Warten aus der Sicht der Anlagenfahrer. Moderne Anlagenleitstände
und Bedienkonzepte können den Anlagenfahrer über eine leistungsfähige Benutzungsschnittstelle
bei der Ausübung seiner Aufgaben unterstützen und entlasten.
SCHLAGWÖRTER Mensch-Maschine-Schnittstelle / Benutzungsschnittstelle / Mensch-
Prozess-Kommunikation / benutzerzentriertes Visualisierungskonzept /
Leitstandskonzept / Ergonomie
Efficient Plant Operation using ergonomic User Interface –
User-centric design of industrial human-machine-communication
This article presents an operator control concept for designing industrial human-machine-interface
of operational process control. The background of this concept is the constantly
increasing complexity of the processes to be monitored and the working environment
in control rooms from the operator’s perspective. The use of modern plant control
centers and operator control concepts can support and unburden operators in the execution
of their tasks by means of a powerful human-machine-interface.
KEYWORDS human-machine-interface / human-machine-communication / user-centered
concept of visualization / supervisory control / ergonomics
62
atp edition
12 / 2012
LUTZ GLATHE, SVEN KEMPF, Siemens
D
ie primäre Aufgabe des Anlagenfahrers ist die
operative Prozessführung auf der Basis von Prozess-
und Anlageninformationen der verfahrenstechnischen
Produktion und deren Logistik- und
Hilfsprozessen [1]. Die operative Prozessführung
hat zum Ziel, den bestimmungsgemäßen, sicheren Betrieb
der Produktionsanlage einzuhalten, die Verfügbarkeit der
Produktion trotz einzelner Störungen zu maximieren und
die Produktqualität trotz schwankender Qualität der eingesetzten
Rohstoffe und Störungen in der Anlage sowie unterschiedlichem
Durchsatz zu gewährleisten [2]. Schließlich
soll der Prozessablauf im Sinne von Kosten, Qualität und
Sicherheit optimiert werden. Insbesondere der hohe Kostendruck
erweitert die primäre Aufgabenstellung des Anlagenfahrers
zum Beispiel durch dispositive Aufgaben, erweiterte
Qualitätssicherung und bedarfsgerechtes Betreiben der
Anlage nach Key-Performance-Indikatoren, wie maximalem
Durchsatz oder optimalem Energieeinsatz. Diese erweiterten
Aufgaben sind traditionell im Bereich der Anlagen- und Betriebsleitebene
angesiedelt. Die dafür notwendigen Informationen
werden dem Anlagenfahrer in zentralen Leitstrukturen,
hauptsächlich über die Anzeige- und Bedienkomponenten
des Prozessleitsystems in der Messwarte präsentiert.
Darüber hinaus müssen dem Anlagenfahrer zur Ausübung
seiner zusätzlichen Aufgaben ergänzende Informationen aus
einer heterogenen Systemwelt, zum Beispiel Process Information
and Management System (PIMS), Enterprise Resource
Planning System (ERP), Laboratory and Information Management
System (LIMS), zur Verfügung gestellt und aufgabenbezogen
präsentiert werden.
Diese gewachsene heterogene Automatisierungslandschaft
erzeugt eine stetig ansteigende Komplexität der
Arbeitsumgebung von Leitwartenmitarbeitern. Zusätzlich
führt der zunehmende Automatisierungsgrad von
heutigen industriellen Produktionsprozessen zur Einsparung
an Leitwartenpersonal und parallel zu einer starken
Zunahme der pro Anlagenfahrer zu überwachenden Prozessinformationen,
beispielsweise durch die Zusammenlegung
von Leitwarten in Produktionsclustern. Abweichungen
von Prozesswerten müssen auch dann schnell
und zuverlässig erkannt werden, wenn hoch automatisierte
Prozesse lange Zeit störungsfrei laufen; das erfordert
vom Anlagenfahrer ständig hohe Konzentration.
Diese steigende Komplexität der Produktionsprozesse
und der Arbeitsumgebung in Warten erschwert es dem
Anlagenfahrer, ein ganzheitliches mentales Modell der zu
überwachenden Anlage und Prozesse zu bilden. Dabei ist
gerade die Generierung eines mentalen Modells enorm
wichtig. „Laut der statistischen Berichte der ICAO oder der
Versicherungsgesellschaften wie Lloyd werden über 70
Prozent aller registrierten Unfälle, Katastrophen und Havarien
durch den menschlichen Faktor verursacht.“ [15]
Jedoch ist die primäre Ursache für das menschliche Versagen
oft nicht die Fehlbedienung beziehungsweise fehlerhafte
Reaktion des Anlagenfahrers, sondern eine unzureichende
technische Gestaltung der Bediensicherheit
unter Berücksichtigung des menschlichen Faktors. Der
menschliche Faktor ist auch aus Sicht des demografischen
Wandels und der damit einhergehenden zunehmenden
Zahl älterer Mitarbeiter in industriellen Bereichen bei der
Gestaltung von Mensch-Maschine-Schnittstellen (Human-
Machine-Interface, abgekürzt HMI) zu berücksichtigen.
Eine Lösung bietet der Einsatz nutzer- und aufgabenorientierter
Konzepte. Diese zielen darauf ab, Arbeitssysteme
ganzheitlich zu gestalten, das heißt den Einsatz von
Technik, Organisation und Qualifikation der Nutzer gemeinsam
zu optimieren. Anstatt die Anpassung des Menschen
an die Technik zu fordern, muss sich die Technik
an den Menschen anpassen [3]. Bereits in der frühen Planungsphase
von verfahrenstechnischen Anlagen sind
diese Aspekte der ergonomischen Prozessvisualisierung
beim Design und der konzeptionellen Festlegung von
Anlagenleitständen und Bedienkonzepten ausreichend
zu berücksichtigen. Diese ergonomische Benutzungsschnittstelle,
leistet dazu einen wesentlichen Beitrag.
Der Beitrag stellt zunächst den Status quo der Prozessvisualisierung
in der Prozessindustrie vor, wie er den
Anforderungen an die Arbeitsbelastung der Anlagenfahrer
und den zugehörigen Standards und Regelwerken
entspricht. Weiterhin wird auf konzeptionelle Ansätze
der Gestaltung von Leitplätzen sowie deren Elemente
und Strukturen eingegangen. Besonders hervorgehoben
atp edition
12 / 2012
63
HAUPTBEITRAG
wird die Implementierung von innovativen Visualisierungskonzepten
in Prozessleitsystem-(PLS)-Projekten.
Zur Illustration des diskutierten Konzepts wird eine
Implementierung einer Destillationskolonne mithilfe des
Prozessleitsystems Simatic PCS 7 vorgestellt.
1. STATUS QUO DER PROZESSVISUALISIERUNG
Das Anzeige- und Bedienkonzept für Anlagenfahrer hat
sich in den vergangenen Jahren deutlich verändert. Früher
wurden Anlagen mithilfe einer großflächigen Mosaiktafel
zur zeitgleichen Anzeige aller Instrumente in der
zentralen Messwarte bedient und beobachtet. Heute sitzt
der Anlagenfahrer an einem PC-Bedienplatz mit bis zu
vier Bildschirmen. Die Übersichtlichkeit in der Darstellung
des Anlagenstatus und Prozesszustandes ist im Vergleich
zur Mosaiktafel flächenbedingt eingeschränkt,
allerdings sind viele zusätzliche Informationen verfügbar,
zum Beispiel über Diagnosefunktionen. Um trotz
begrenzter Bildfläche (vier Bildschirme) aussagekräftige
Grafikbilder darzustellen und die Orientierung sowie
Bildanwahl zu ermöglichen, wird die Gesamteinheit an
Informationen einer verfahrenstechnischen Anlage hierarchisch
in verfahrens- und leittechnische Darstellungen
gegliedert, wobei die Übergänge fließend sind. Entsprechend
ihrer Lage in der Hierarchie unterscheidet die
VDI 3699-3 [6] Grafikbilder für die Ebenen Anlage, Bereich,
Teilanlage und Anlagenteile (siehe Bild 1).
In der Praxis überwiegen an der Instrumentierung ausgerichtete
Level-3-Grafikbilder auf der Ebene Teilanlage,
die auf der Basis von Rohrleitungs- und Instrumentenfließbildern
entstanden sind. Der Anlagenfahrer benötigt
jedoch zusätzliche informationsorientierte Übersichtsund
Gruppendarstellungen, die seiner Prozessführungsaufgabe
angemessen sind; was gleichzeitig benötigt wird,
ist auch gleichzeitig anzuzeigen. Anderenfalls sind zusätzliche,
zeitaufwendige Anwahlbedienungen sowie
Belastungen des Kurzzeitgedächtnisses durch Merken
notwendig. Des Weiteren werden Prozesswerte numerisch
angezeigt, wodurch eine Bewertung, ob sich der Prozesswert
im Zielbereich bewegt, individuell durch den Anlagenfahrer
erfolgen muss. Ein weiterer Schwerpunkt liegt
im Bereich von Grafikeffekten, wie dreidimensionale
Darstellungen oder der zusätzlichen Anzeige von Gerätestatusinformationen,
die allerdings für die primäre Aufgabe
des Anlagenfahrers keinen Vorteil liefern. Heutige
Visualisierungssysteme und -verfahren erzielen nur in
Teilbereichen gute Ergebnisse; beispielsweise können einzelne
Teilanlagen oder Teilprozesse durch Grafikbilder
entsprechend übersichtlich abgebildet werden. Die eingesetzten
Systemlösungen sind gekennzeichnet durch:
Heterogene Systemwelt unterschiedlicher Geräte
und Softwareprodukte mit inhomogenen Bedienoberflächen
(PIMS, ERP, LIMS, Asset-Management-Systeme)
Mehrere Ein- und Ausgabegeräte pro Rechner am
Operator-Arbeitsplatz
Standard-Konfiguration von Operator-Arbeitsplätzen
(beispielsweise grundsätzlich vier Bildschirme pro
Client)
Kostengetriebene Arbeitsplatzgestaltung
Diese Verfahren zur Darstellung von Prozesswerten zeigen
jedoch Schwächen hinsichtlich:
Darstellung des Gesamtzustandes des Prozesses beziehungsweise
der Anlage „Big Picture“
Informationsaufnahme des Bedieners durch den
überwiegenden Einsatz von alphanumerischen Anzeigen
anstatt von Analogdarstellungen mit Mustererkennung
Aufmerksamkeitssteuerung des Anlagenfahrers infolge
der Form- und Farbkodierungen
Aufgaben- und tätigkeitsbezogener Visualisierung
Darstellung von Informationen
Des Weiteren wird die Konzept- und Designphase von
konzeptionellen Schwächen begleitet:
Prozessbilder werden auf der Basis eingekreister
Rohrleitungs- und Instrumentenfließbilder mit einem
anderen Darstellungszweck erstellt
Gerade in Neuanlagen kann das Bedienpersonal
nicht frühzeitig in den Designprozess eingebunden
werden
Fehlender geräteübergreifender Standard der Prozessvisualisierung
Fehlendes Prozess-Know-how im Design-Prozess
Prozesswissen erfahrener Anlagenfahrer wird unzureichend
in das Design der Prozessvisualisierung
übernommen
2. ERGONOMISCHE PROZESSVISUALISIERUNG
Nachfolgend wird das Konzept einer ergonomischen Benutzungsschnittstelle
zur industriellen Prozessführung
nach EEMUA 201 [10] vorgestellt (siehe Bild 2).
Dieses Konzept vereint bekannte Elemente und Strukturen
von Bedieneinheiten, wie Bedienoberflächen und
deren Bedienverfahren, die Gestaltung von Leitplätzen
und Messwarten und organisatorische Maßnahmen in einem
ganzheitlichen Lösungsansatz. Ausgangspunkt aller
Betrachtungen ist die detaillierte Analyse der Anlagenfahrer-Tätigkeiten
Überwachen, Eingreifen und Diagnose
(siehe Bild 3) hinsichtlich der Prozessführung und zusätzlicher
Aufgaben im Umfeld der Messwarte, siehe Beispiele
in Tabelle 1. Diese Analyse der Anlagenfahrer-Tätigkeiten
wird projektbezogen unter Einbeziehung der Bedienmannschaft
für jede Anlage spezifisch durchgeführt.
Aus der Priorisierung der Anforderungen an die Prozessvisualisierung
(Tabelle 1) lassen sich folgende Themen
zu deren Verbesserung ableiten:
Maßnahmen in der Konzept- und Designphase:
Konzept der Prozessvisualisierung im Design Guide
der Prozessvisualisierung spezifizieren
Bedienpersonal frühzeitig in den Designprozess einbinden,
in der Regel nach Freigabe des Design Guides
der Prozessvisualisierung. Falls nicht möglich, sind
die übergeordneten, abstrakten Gruppendarstellungen
nachträglich in der Optimierungsphase zu erstellen
Experten mit Prozess-Know-how (zum Beispiel erfahrene
Anlagenfahrer) einbinden und deren Wissen
(beispielsweise Referenzwerte für Prozessparameter)
in die Prozessbilddarstellungen übernehmen
64
atp edition
12 / 2012
Bild 1
Verfahrenstechnik
Anlage
Bereich
Teilanlage
Anlagenteil
Level 4
L1-Übersichtsgrafik
Hierarchie L. 1
Level 3
L2-Übersichtsgrafik
Level 2
L3-Detailgrafik
L4-Detailgrafik
BILD 1: Hierarchieebenen von Grafikbildern
nach VDI 3699-3 [6]
Bild 3
Leittechnik
Anlage
Bereich
Gruppe
Kreis
Aufgabe
Tätigkeit
Prozessführung
Eingreifen Überwachen Diagnose
Handlungsfolge
Operator-Rundgang
Absuchen
Entdecken
Entdecken
Suchen
Erkennen
Zählen Vergleichen
Interpretieren
Entscheiden
Routine-Überwachung
durch System
Signalort
Was ist es?
Wo?
Was bedeutet es?
Gegenmaßnahmen
Messwarte
Suchen
Stellteil
Bild 2
Ausführen
Betätigen Stellteil
Überprüfen
Gewünschte Wirkung
Ergonomische Benutzungsschnittstelle
Bedien- und
Beobachtungssystem
Bedienoberfläche
Operator
Leitplatz
(Operator-
Arbeitsplatz)
Console
Messwarte Organisation /
VT-Anlage
BILD 3: Tätigkeiten und Handlungen des Anlagenfahrers
in der Prozessführungsaufgabe nach VDI/VDE 3699 [5]
Design Implementierung Betrieb
BILD 2: Konzept einer ergonomischen
Benutzungsschnittstelle zur industriellen
Prozessführung nach EEMUA 201 [10]
No. Aufgabe Tätigkeit Handlung Anforderung an die Prozessvisualisierung
1 Prozess führung Überwachen einer
automatisierten Anlage
2 Prozess führung Überwachen einer
automatisierten Anlage
3 Prozess führung Überwachen einer
automatisierten Anlage
4 Materialdisposition
5 Dokumentation
der Prozessführung
6 Erweiterte
Qualitätssicherung
Einsatzstoffe
disponieren
Schichtbuch führen
Überwachen der
qualitätsrelevanten
Prozessparameter
Beobachten von
wesentlichen
Fahrparametern
(verfahrens technische
KPIs)
Erkennen/Wahrnehmen
von Störungen
Suchen/Identifizieren
der Störungsursache
Eingabe von
Rezeptparametern
Relevante Prozesswerte
in Schichtbuch
eintragen
Beobachten von
Qualitäts– KPIs
– Level-2-Übersichtsdarstellungen mit wesentlichen Fahrparametern
der zu überwachenden Anlage
– Anzeige der zulässigen Toleranzen
– Anzeige von Grenzwertverletzungen
– Anzeige von Alarmen und deren Prioritäten
– Analoganzeigen zur „Muster-Unterstützung“
– Trendanzeigen zur Situationseinschätzung und Entscheidung
über Fahrstrategie
– Aufmerksamkeitssteuerung durch Farbschema mit speziellen
Alarmfarben
– Vermeidung einer kognitiven Überforderung
– Sprungfunktion von Alarmseite zur Messstelle im Prozessbild
TABELLE 1: Anforderungen an die Prozessvisualisierung aufgrund der Aufgaben von Anlagenfahrern
– Einheitliche und geräteneutrale Präsentation der Bedienmasken
– Verwendung der gleichen Ein- und Ausgabegeräte wie zur
Prozessführung
– Präsentation aller relevanten Prozesswerte in einer Darstellung
(Protokoll)
– Visualisierung von Qualitäts-KPIs in Übersichtsdarstellungen
der Prozessführung
– Geräteunabhängige homogene Präsentation der Qualitäts-KPIs
atp edition
12 / 2012
65
HAUPTBEITRAG
Bild 4
BILD 4: Serviceschritte zur
Implementierung von
ergonomischen
Visualisierungskonzepten
in PLS-Projekten
PLS HMI
Evaluierung
Konzept
Operator
Workshop
PLS-Projekt
Analyse
Design
BILD 5: Level-2-Übersichtsdarstellung
für die
Destillationskolonne
TABELLE 2: Anforderungen an
die Prozessvisualisierung einer
Destillationskolonne (Auszug)
No. Aufgabe Tätigkeit Handlung Anforderung an die Prozessvisualisierung
1 Prozessführung
2 Prozessführung
3 Prozessführung
4 Prozessführung
5 Prozessführung
6 Prozessführung
Eingreifen
Überwachen
Überwachen
Diagnose
Eingreifen
Überwachen
An- und Abfahren der
Destillations kolonne
Kontinuierliche
Überwachung der
Qualität
Überwachen
der Prozessund
Anlagenverfügbarkeit
Reagieren auf
Prozess abweichungen
Schnelles und
sicheres Reagieren in
kritischen Situationen
Kontinuierliche
Überwachung
der Kolonne im
Kontext weiterer
Teilanlagen
– Detaildarstellung aller Prozessgrößen in Anlagen-topologisch strukturierten
Level-3-Prozessgrafiken
– Bedienbarkeit der Prozessparameter
– Bediendarstellungen für das An- und Abfahren, beispielsweise Ablaufsteuerungen
– Anzahl der Bildschirme ist der Bedienaufgabe angemessen
– Übersichtsdarstellungen aller qualitätsrelevanter Fahrparameter der Kolonne in
aufgabenangemessenen Level-2-Prozessgrafiken
– Anzeige der zulässigen Toleranzen
– Analoganzeigen zur Muster-Unterstützung
– Trendanzeigen zur Situationseinschätzung und Entscheidung über Fahrstrategie
– Übersichtsdarstellungen mit wesentlichen Fahrparametern der Kolonne in
aufgabenangemessenen Level-2-Prozessgrafiken
– Anzeige von Grenzwertverletzungen
– Anzeige von Alarmen und deren Priorität
– Trendanzeigen zur Situationseinschätzung und Entscheidung über Fahrstrategie
– Aufmerksamkeitssteuerung durch Farbschema mit speziellen Alarmfarben
– Vermeidung einer kognitiven Überforderung
– Sprungfunktion von Alarmseite beziehungsweise Übersichtsdarstellung zur Messstelle
im Detail-Prozessbild
– Detaildarstellung aller Prozessgrößen in Anlagen-topologisch strukturierten
Level-3– Prozessgrafiken
– Bedienbarkeit der Prozessparameter
– Anzahl der Bildschirme ist der Gleichzeitigkeit der Bedienaufgabe angemessen
– Komprimierte Übersichtsdarstellungen wesentlicher Fahrparameter der Kolonne
in aufgabenangemessenen Level-1-Prozessgrafiken
– Komprimierte Übersichtsdarstellung wesentlicher Fahrparameter anderer
Teilanlagen
– Anzeige von Anlagen-KPIs
– Navigation in Bildhierarchie durch Sprungfunktionen
66
atp edition
12 / 2012
Systemlösungen:
Multifunktionaler integrierter Operator-Arbeitsplatz
mit homogener Bedienoberfläche, Bedienung mit
gleichen Ein-Ausgabegeräten
Applikationen aller Einzelgeräte nach einem systemweiten
Design Guide der Prozessvisualisierung
Konfiguration des Operatorarbeitsplatzes als Teil der
Leitplatzorganisation
Ergonomische Gestaltung des Operatorarbeitsplatzes
Gestaltung der Warte nach ergonomischen Kriterien
und Anforderungen an Arbeitsstätten
Verfahren zur Darstellung von Prozesswerten:
Zusätzlicher Einsatz von abstrakten Bedienverfahren,
bei denen die Prozesstopologie eine untergeordnete
Rolle spielt, zum Beispiel prozessbezogene
und aufgabenangemessene Übersichts- und Gruppendarstellungen
auf dem Level-1/2 mit wesentlichen
Fahrparametern der zu überwachenden Anlage,
in einer Anordnung von Hybridanzeigen mit
Zielbereich- und Grenzwertvisualisierung, die die
Mustererkennung unterstützt. Die darzustellenden
Fahrparameter werden in Interaktion mit dem Bedienpersonal
anhand von Kriterien ausgewählt.
Aufgrund der Gebrauchstauglichkeit dieser Übersichtsdarstellungen
für den Operator erfolgen daraus
erfahrungsgemäß etwa 80 % der Bedienung und
Beobachtung im Normalbetrieb der Anlage.
Teilweiser Ersatz alphanumerischer Anzeigen durch
Analog- und Hybridanzeigen sowie Kurvendarstellungen
Reduktion der Komplexität von Prozessfließbildern
durch aufgaben- und prozesszustandsorientierte
Auswahl der darzustellenden Prozesswerte (dezidierte
Darstellungen für das An- und Abfahren, den
Normalbetrieb, Lastwechsel und Diagnose)
Einsatz eines Farbschemas inklusive Alarmfarben
Prozessbilddarstellungen als Bestandteil der Leitplatzorganisation
Darstellung von Informationen statt Daten, beispielsweise
neuartige Darstellungsobjekte für Temperaturverteilungen,
Trenddarstellungen zur Situationseinschätzung
und Entscheidungsfindung
über Fahrstrategien oder Kiviat-Diagramme zur
komprimierten Darstellung von drei bis zehn Prozesswerten
zwecks Evaluierung für zuvor festgelegte
Kriterien
Das Konzept basiert auf den in der VDI/VDE 3699 „Prozessführung
mit Bildschirmen“ [4-9] genannten Regeln
und Empfehlungen für die Gestaltung von Darstellungen
bei Verwendung von Bildschirmsystemen zur Prozessführung.
Die dort getroffenen Empfehlungen werden im
vorliegenden Konzept weitergeführt und in den Kontext
einer ergonomischen Prozessvisualisierung gestellt.
3. IMPLEMENTIERUNG IN PLS-PROJEKTEN
In diesem Abschnitt wird die Implementierung des Konzepts
in PLS-Projekten beschrieben (siehe Bild 4). Übliche
PLS-Projekte sind Automatisierungslösungen für
Neuanlagen, Migrationen von Altsystemen, Optimierungsprojekte
oder die Kombination aus Migrationsund
Optimierungsprojekt. Voraussetzungen für eine
umfassende Implementierung sind eine existierende
beziehungsweise bekannte Basisautomatisierung (HMI
zur Evaluierung) und Betriebserfahrungen zur Analyse
der Operator-Aufgaben. Teilimplementierungen, insbesondere
der Messwarten-, Leitstands-, Farb-, Darstellungs-
und Alarmmanagement-Konzepte sind auch für
Neuanlagenprojekte notwendig.
Wie in Bild 4 dargestellt, werden die Implementierungsphasen
Evaluierung, Konzept, Operator Workshop,
Analyse und Design durch einen Service mit umfangreichen
prozesstechnischen Kenntnissen erbracht. Die
HMI-Projektierung erfolgt dann im PLS-Projekt. Der Gestaltungsprozess
orientiert sich an den Grundsätzen der
menschzentrierten Gestaltung nach DIN EN ISO 9241-
210 [16] und ist auf die industrielle Praxis der Prozessvisualisierung
ausgerichtet.
Das Visualisierungskonzept sollte gezielt auf die Arbeitsabläufe
der Nutzer abgestimmt sein (siehe Abschnitt
2). Daher ist zu empfehlen, die Anlagenfahrer
aktiv in den Entwicklungsprozess einzubeziehen. Nur
so lassen sich deren oftmals über viele Jahre angesammelte
Erfahrung und das damit verbundene kostbare
Know-how in das Design des Leitstandes einbeziehen
und damit sichern.
Evaluierung
Ein leistungsfähiges Bedien- und Beobachtungskonzept
muss auf den neuesten wissenschaftlichen Erkenntnissen
hinsichtlich Ergonomie und Usability
beruhen. Dazu wird der vorhandene Leitstand im Zuge
eines Evaluierungsprozesses, zum Beispiel nach Kriterien
der EN ISO 11064-5 [14] bewertet:
System-Befugnis
Informationsanforderungen
Effiziente Mensch-System-Schnittstelle
Benutzerorientierte Gestaltung
Erzeugen von Aufmerksamkeit
Anwendung ergonomischer Grundsätze und so weiter
Konzept
Das im Evaluierungsprozess gefundene Potenzial
wird in der Konzeptphase bewertet und ein Maßnahmenkatalog
zur Optimierung des Leitstandes erarbeitet.
Der Umfang dieser Maßnahmen wird in einem
Design Guide verabschiedet und beschreibt folgende
Inhalte:
Umfang der HMI-Maßnahmen
Bildinhalte/-Aussehen/-Navigation
Darstellungsstandards
Design der Bedienkonsolen und Leitstände
Leitwartendesign
Beschreibung des HMI-Design-Prozesses
Operator Workshop
Der verabschiedete Maßnahmenkatalog wird in einem Operator
Workshop erklärt und den Nutzern vertraut gemacht.
Dabei geht es unter anderem um das verwendete Farbkonzept,
die neuartigen informationsorientierten Anzeigen
sowie die aufgaben- und topologieorientierte Darstellung
der Ebene von Prozessgruppen (Level-2-Grafikbilder).
atp edition
12 / 2012
67
HAUPTBEITRAG
Analyse
In der Analysephase werden die vorhandenen Prozessbilder
mit allen Beteiligten – idealerweise in der Messwarte
am Livesystem – durchgesprochen, um zu erkennen,
inwiefern sie die tatsächlichen Prozesse repräsentieren
und die erforderlichen Bedienabläufe unterstützen.
Design
Aus den in der Analyse gewonnenen Erkenntnissen
werden übergeordnete Prozessgruppendarstellungen
erstellt und die jeweils am besten geeigneten Darstellungsformen
– digital, analog und/oder Kurvendarstellung
– bestimmt. Im Ergebnis entstehen die Level-
2-Prozessbilder, über die künftig 80 Prozent aller Bedienvorgänge
vorgenommen werden sollen. In einer
anschließenden Optimierungsphase haben die Anlagenfahrer
Gelegenheit, diese neuartigen Level-2-Prozessbilder
aus Anwendersicht zu beurteilen und ergänzende
Verbesserungsvorschläge einzubringen.
Implementierung in PLS-Projekt
Nach der Genehmigung durch den Betreiber werden
die Bildentwürfe im Rahmen des PLS-Projektes in die
Visualisierungssoftware umgesetzt.
Eine parallele Bearbeitung des Service und des PLS-
Projektes (siehe Bild 4) ist möglich und bietet folgende
Vorteile:
PLS-Projekte, wie Migrationsprojekte, sind in der Regel
kosten-, termin- und risikogetrieben und lassen
kaum Spielraum für funktionale Erweiterungen
System-Upgrades sind ideale Zeitpunkte für funktionale
Optimierungen und Erweiterungen, weil sich
die Anlagenbediener auf neue Systemmerkmale einstellen
müssen
Optimierungsprojekte können weitestgehend mit der
Bedienmannschaft als Ansprechpartner durchgeführt
werden; die knappen Ressourcen, insbesondere
auf der Betreiberseite werden damit berücksichtigt
Für die Bearbeitung von PLS-Projekten und HMI-
Optimierungsprojekten sind unterschiedliche Kompetenzen
erforderlich. Während für PLS-Projekte
eher System- und Automatisierungskenntnisse erforderlich
sind, werden für die ergonomische Gestaltung
des HMI sowohl umfangreiche verfahrenstechnische
Kenntnisse als auch Kenntnisse im Usability
Engineering benötigt
In vielen Fällen werden im Zuge von Migrationen
auch Messwarten zusammengelegt; die damit einhergehende
höhere Arbeitslast muss durch ein leistungsfähigeres
HMI-Design kompensiert werden
4. IMPLEMENTIERUNG EINER DESTILLATIONSKOLONNE
Das in den vorigen Abschnitten beschriebene Konzept
wird nachfolgend am Beispiel einer Zweistoff-Destillationskolonne
erläutert. Die Destillation, genauer als Rektifikation
bezeichnet, ist ein in der chemischen und petrochemischen
Industrie häufig angewandtes Verfahren
zur thermischen Trennung von Mehrstoffgemischen. Die
Anforderungen an die Destillation steigen ständig im
Hinblick auf Reinheit und Wirtschaftlichkeit.
Im ersten Schritt wurde die Aufgabenanalyse unter
Einbeziehung der Bedienmannschaft durchgeführt. Wesentliche
Aufgaben des Anlagenfahrers einer Destillationskolonne
sind in der Tabelle 2 aufgeführt (Auszug).
Diese Aufgaben werden im Anzeige- und Bedienkonzept
berücksichtigt, um eine optimale Arbeitsumgebung
für den Operator zu gewährleisten.
Für das An- und Abfahren der Destillationskolonne
(Aufgabe 1 der Tabelle 2) werden die üblichen Level-
3-Detaildarstellungen verwendet, diese sind nicht Gegenstand
der Betrachtung in diesem Beispiel.
Für die Überwachung der relevanten prozesstechnischen
Kenngrößen (Aufgaben 2/3 der Tabelle 2) wird eine
gemeinsame Level-2-Übersichtsdarstellung gewählt (siehe
Bild 4).
Diese beinhaltet die wichtigsten Prozesswerte und Regelungen
der Destillationskolonne. Diese Darstellung hat
den Vorteil, dass viele Daten zu einer komprimierten Informationsdarstellung
zusammengefasst werden können.
Die Aufgabe 2 der Tabelle 2 „Kontinuierliche Überwachung
der Prozessqualität“ wird einerseits durch die
Darstellung des Temperaturprofils und andererseits
durch die Kurvendarstellung des Model Predictive Controller
(MPC, Modell-prädiktiver Regler) im Level-2-Bedienbild
wirksam unterstützt. Wegen des Zusammenhangs
zwischen Temperaturen (hier TI 3113 und TI
3111) und Konzentrationen im Phasengleichgewicht
(von Dampf und Flüssigkeit) wird durch eine Temperaturregelung
indirekt eine Konzentrationsregelung, das
heißt die Qualitätsregelung für den Prozess der Stofftrennung
bei der Destillation erreicht. Der entscheidende
wirtschaftliche Nutzen ergibt sich durch die bedarfsgerechte
Fahrweise der Kolonne, indem die Sollwerte
für die Qualitätsregelung zielgerichtet modifiziert
werden können. Es wird also nicht die bestmögliche
Qualität produziert, sondern die am wirtschaftlichsten
herstellbare zulässige Qualität. In anderen Anlagenkonstellationen
kann es andere Optimierungsziele geben.
Beispielsweise kann der Durchsatz maximiert werden,
indem bei laufender Qualitätsregelung der Zulauf
schrittweise erhöht wird, bis die Heizdampfmenge sich
in der Nähe der Obergrenze einpendelt.
Die Beurteilung des Prozesszustands – hier der Prozessqualität
– anhand der Temperaturen als Analogwertanzeigen
kann nur aus Erfahrung getätigt werden. Visualisiert
man die Temperaturen stattdessen als Temperaturverlauf
des optimalen Arbeitsbereichs, kann die Beurteilung
direkt aus dem Bild abgelesen werden (siehe
Bild 5: Die untere Temperatur TI 3111 weicht um vier
Kelvin vom Arbeitspunkt ab).
Ähnlich verhält es sich mit der Beurteilung des Prozessverlaufs.
Die Kurvendarstellung von Soll-, Ist- und
Stellwerten des MPC untertützt die Situationseinschätzung
und die Wahl der geeigneten Fahrstrategie.
Weitere wichtige Kenngrößen, die in der Level-2-Übersichtsdarstellung
der Kolonne dargestellt werden, sind
der Energieverbrauch der Anlage, der Ausstoß, die Betriebszeit,
die Rücklaufparameter, der Kopfdruck, der
Zulauf und deren Temperatur sowie der Dampfstrom.
Das Gros dieser Kenngrößen wird in Form von informationsorientierten
Hybridanzeigen im Prozessbild repräsentiert.
Diese visualisieren den Gutbereich und Grenzwerte
für den Prozesswert (siehe Bild 6). Eine Beurtei-
68
atp edition
12 / 2012
lung anhand eines Analogwertes könnte ansonsten nur
mit Erfahrung gemacht werden.
Auch das Farbschema, mit der restriktiven Verwendung
der gesättigten Farben Rot und Gelb für die Visualisierung
von Grenzwerten, erfüllt die Anforderungen
an die Prozessvisualisierung hinsichtlich Aufmerksamkeitssteuerung
der Anlagenfahrer. Für die Überwachung
der relevanten prozesstechnischen Kenngrößen der Gesamtanlage
(Aufgaben 6 der Tabelle 2) wird eine gemeinsame
Level-1-Übersichtsdarstellung mit einer komprimierten
Darstellung der wesentlichen Fahrparameter
gewählt (siehe Bild 7). So werden die Kenngrößen der
Reaktoren mit Kiviat-Diagrammen visualisiert.
Die Optimierung eines HMI hin zu einer ergonomischen
Benutzungsschnittstelle erzielt messbaren Nutzen (siehe
Bild 8). Einheitliche Produktqualität, höhere Verfügbarkeit,
weniger Ausschuss oder schnellere Anfahr- und
Produktwechselzeiten können messbar schichtübergreifend
verbessert und gemessen werden. Weiterhin werden
Fehlbedienungen der Anlagenfahrer durch rasches Erkennen
von Abweichungen vermieden und zielgerichtetes
Reagieren ermöglicht. Die Komplexität wird durch
einheitliche und vereinfachte Benutzungsschnittstellen,
effektives Alarmmanagement und einheitliche Datenschnittstellen
reduziert. Die aktive Einbeziehung der
Anlagenfahrer in die Gestaltung des Bedienkonzepts
trägt zur hohen Akzeptanz und zur kontinuierlichen
Verbesserung des Gesamtprozesses bei und steigert die
Operational Excellence.
Bild 6
5. ERWARTETER NUTZEN
ZUSAMMENFASSUNG UND AUSBLICK
Mit dem vorgeschlagenen ergonomischen Visualisierungskonzept
soll ein ganzheitlicher Lösungsansatz gefunden
werden, um der steigenden Komplexität der zu
Bild 8
Warnung oben
Alarm oben
Produktivität
und
Wirtschaftlichkeit
Produktivität, typisch 5-12%
Quelle: ASM Consortium 2009 [13]
Gutbereich
Prozesswert
unterhalb des
Gutbereichs
Prozesswert mit
Einheit
Zustand
Simulation
Prozesswert im
Zustand Warnung
Warnung oben
Prozesswert im Zustand
Alarm
Alarm oben
Qualität
Operabilität
und
Verfügbarkeit
Reproduzierbarkeit der
Anlagenfahrweise durch Design
Schwankungsbreite von Qualitäts-
Parametern
Toleranz geg. Rohstoffschwankungen
Störungsempfindlichkeit
HMI-Komplexität
BILD 6: Neuartige Hybridanzeigen ermöglichen die Anzeige von
Gutbereich und Grenzwerten
Qualität der Prozessführung
Arbeitslast des Bedienpersonals
Beherrschung des Bedienerwechsels
Bedienbarkeit
Aufmerksamkeitssteuerung durch
Farbkonzept
Bediensicherheit
Trainingszeiten
Umweltschutz
Gefahr / Risiko durch Fehlbedienung
BILD 8: Nutzen von Konzepten ergonomischer
Benutzungsschnittstellen
BILD 7: Level-1-Übersichtsdarstellung für die Gesamtanlage
atp edition
12 / 2012
69
HAUPTBEITRAG
überwachenden Prozesse und der Arbeitsumgebung in
Warten aus der Sicht der Anlagenfahrer wirksam zu begegnen
[11]. Aspekte, wie der sichere Betrieb der Produktionsanlagen
durch die Vermeidung von Bedienfehlern,
die erweiterte Aufgabenstellung der Operatoren, der
Verlust an Betriebs-Know-how durch Mitarbeiterfluktation
und nicht zuletzt die erhöhte Arbeitslast durch Zusammenlegen
von Messwarten, rechtfertigen die Investitionen
in moderne Benutzungsschnittstellen beziehungsweise
erfordern die Umgestaltung traditioneller
Bedienkonzepte. Die Erhöhung der Bediensicherheit von
Prozessanlagen durch eine sichere Ausführung der Bedienkonzeption
wird darüber hinaus durch eine Reihe
von Vorschriften und Richtlinien gefordert. Erste Erfahrungen
bedeutender Anwender sprechen für den Einsatz
dieses Konzeptes [12].
Zukünftige Weiterentwicklungen des Konzeptes im
Rahmen nachhaltiger Visualisierungslösungen für mehr
Effizienz und Rentabilität berücksichtigen unter anderem
folgende Anforderungen:
Effiziente Implementierungskonzepte
Die Benutzungsschnittstelle im demografischen
Wandel
Adaption von Benutzungsschnittstellen, das heißt
Anpassung an die zur Laufzeit vorherrschenden
Randbedingungen, zum Beispiel Benutzerrolle oder
Anlagenzustand.
MANUSKRIPTEINGANG
20.07.2012
Im Peer-Review-Verfahren begutachtet
REFERENZEN
AUTOREN
[1] NA 120: Operator-Arbeitsplatz aus Sicht der Mensch-
Prozess-Kommunikation. Namur, 2008
[2] Charwat, H.J.: Lexikon der Mensch-Maschine
Kommunikation. Oldenbourg Industrieverlag,
München 1994
[3] Wickens, C.D. und Holland, J.G. (2000). Engineering
psychology and human performance. Prentice Hall,
New Jersey, 2000.
[4] VDI/VDE 3699-1: Prozessführung mit Bildschirmen,
Blatt 1 Begriffe. Beuth, 2005
[5] VDI/VDE 3699-2: Prozessführung mit Bildschirmen,
Blatt 2 Grundlagen. Beuth, 2005
[6] VDI/VDE 3699-3: Prozessführung mit Bildschirmen,
Blatt 3 Fließbilder. Beuth, 1999
[7] VDI/VDE 3699-4: Prozessführung mit Bildschirmen,
Blatt 4 Kurven. Beuth, 1997
[6] VDI/VDE 3699-5: Prozessführung mit Bildschirmen,
Blatt 5 Meldungen. Beuth, 1998
[9] VDI/VDE 3699-6: Prozessführung mit Bildschirmen,
Blatt 6 Bedienverfahren und Bediengeräte. Beuth, 2002
[10] EEMUA 201: Process Plant Control Desk utilising
Human-Computer-Interfaces - A Guide to Design,
Operational and Human-Computer Interface Issues“. 2002
[11] Kempf, S. und Glathe, L.: Moderne Anlagenleitstände
und Bedienkonzepte. In: Tagungsband Automation
2011, S.173–176. VDI, 2011
[12] Glathe, L.: Innovatives Bedienkonzept. process news
2012(2), 22 23, 2012
[13] Abnormal Situation Management Consortium. Benefits
- http://mycontrolroom.com/site/content/view/16/29/
[14] EN ISO 11064-5: Ergonomische Gestaltung von Leitzentralen
– Teil 5: Anzeigen und Stellteile. 2008
[15] Galabov, V.: Bediendiagnose - eine Beitrag zur
Steigerung der Mensch-Maschine-Systemverfügbarkeit.
atp - Automatisierungstechnische Praxis atp
42(6), 58 63, 2000
[16] DIN EN ISO 9241-210: Ergonomie der Mensch-System-
Interaktion - Teil 210: Prozess zur Gestaltung
gebrauchstauglicher interaktiver Systeme. 2011
Dipl.-Ing. LUTZ GLATHE
(geb. 1962) beschäftigt sich
seit 1990 bei der Siemens AG
(und Vorgängerunternehmen)
in Frankfurt am Main mit
Automatisierungslösungen
und Konzepten. Derzeit ist er
Projektleiter für das HMI-
Consulting und war maßgeblich
an der Entwicklung des Konzeptes beteiligt.
Er ist Mitglied im FA 5.32 „Nutzergerechte
Gestaltung von Prozessleitsystemen (3699)“ des
VDI/VDE-GMA und Gast im Namur-Arbeitskreis
2.9 „Mensch-Prozess-Kommunikation“.
Siemens AG,
Industriepark Höchst, Geb. B598,
D-65926 Frankfurt am Main,
Tel. +49 (0) 69 79 78 46 12,
E-Mail: lutz.glathe@siemens.com
Dipl.-Ing. SVEN KEMPF
(geb. 1972) beschäftigt sich
seit 2000 bei der Siemens
AG in Karlsruhe mit dem
Schwerpunkt Leittechnik.
Er arbeitet seit 2004 im
technischen Vertrieb als
Manager für technologische
Konzepte. Seine
Schwerpunkte sind Verfügbarkeitsthemen,
IT-Security und die Optimierung der verfahrenstechnischen
Prozessführung.
Siemens AG,
G. Braun Str. 18, D-76187 Karlsruhe,
Tel. +49 (0) 721 595 60 42,
E-Mail: sven.kempf@siemens.com
70
atp edition
12 / 2012
Die Referenzklasse für die
Automatisierungstechnik
Erfahren Sie auf höchstem inhaltlichen Niveau, was die
Automatisierungsbranche bewegt. Alle Hauptbeiträge
werden in einem Peer-Review-Verfahren begutachtet,
um Ihnen maximale inhaltliche Qualität zu garantieren.
Sichern Sie sich jetzt dieses erstklassige Lektüreerlebnis.
Als exklusiv ausgestattetes Heft sowie als praktisches
e-Paper – ideal für unterwegs, auf mobilen Endgeräten
oder zum Archivieren.
Gratis für Sie: Der Tagungsband AALE 2012 als e-Paper
Das Kompendium bietet eine Zusammenstellung der Fachreferate des 9. Fachkolloquiums
für angewandte Automatisierungstechnik in Lehre und Entwicklung an Fachhochschulen.
Die Veranstaltung versteht sich als Forum für Fachleute der Automatisierungstechnik aus
Hochschulen und Wirtschaft. Sie wird von der Fakultät Mechatronik und Elektrotechnik der
Hochschule Esslingen mit Unterstützung des VFAALE und dem Kompetenzzentrum
Mechatronik BW e.V. organisiert und ausgerichtet.
1. Aufl age 2012, 399 Seiten, Broschur
atp edition erscheint in : DIV Deutscher Industrieverlag GmbH, Arnulfstraße 124, 80636 München
www.atp-online.de
Vorteilsanforderung per Fax: +49 (0) 931 / 4170 - 492 oder im Fensterumschlag einsenden
Ja, ich möchte atp edition im Abo-plus-Paket lesen.
Bitte schicken Sie mir die Fachpublikation für zunächst ein Jahr (12 Ausgaben) als gedrucktes Heft
+ digital als e-Paper (PDF-Datei als Einzellizenz) für € 638,40 (Deutschland) / € 643,40 (Ausland).
Als Dankeschön erhalte ich den Tagungsband AALE 2012 gratis als e-Book.
Nur wenn ich nicht bis von 8 Wochen vor Bezugsjahresende kündige, verlängert sich der Bezug um
ein Jahr.
Die sichere, pünktliche und bequeme Bezahlung per Bankabbuchung wird mit einer Gutschrift von
€ 20,- auf die erste Jahresrechung belohnt.
Firma/Institution
Vorname/Name des Empfängers
Straße/Postfach, Nr.
Land, PLZ, Ort
Telefon
Telefax
Antwort
Leserservice atp
Postfach 91 61
97091 Würzburg
E-Mail
Branche/Wirtschaftszweig
Bevorzugte Zahlungsweise □ Bankabbuchung □ Rechnung
Bank, Ort
Bankleitzahl
✘
Kontonummer
Widerrufsrecht: Sie können Ihre Vertragserklärung innerhalb von 14 Tagen ohne Angabe von Gründen in Textform (Brief, Fax, E-Mail) oder durch
Rücksendung der Sache widerrufen. Die Frist beginnt nach Erhalt dieser Belehrung in Textform. Zur Wahrung der Widerrufsfrist genügt die rechtzeitige
Datum, Unterschrift
PAATPE0312
Absendung des Widerrufs oder der Sache an den Leserservice atp, Franz-Horn-Str. 2, 97082 Würzburg.
Nutzung personenbezogener Daten: Für die Auftragsabwicklung und zur Pfl ege der laufenden Kommunikation werden personenbezogene Daten erfasst, gespeichert und verarbeitet. Mit dieser Anforderung er kläre ich mich damit einverstanden, dass ich von
DIV Deutscher Industrieverlag oder vom Vulkan-Verlag □ per Post, □ per Telefon, □ per Telefax, □ per E-Mail, □ nicht über interessante, fachspezifi sche Medien- und Informationsangebote informiert und beworben werde. Diese Erklärung kann ich mit Wirkung für
die Zukunft jederzeit widerrufen.
HAUPTBEITRAG
Semantikvielfalt mit
AutomationML beherrschen
Vorgehensmodell für die Standardisierung von Datenmodellen
Mit der Einführung eines Konzeptes zur Beherrschung heterogener Datenmodelle im
Austausch von Engineering-Daten hat AutomationML in 2011 und 2012 einen erheblichen
Fortschritt erzielt. Dieser Beitrag beschreibt, warum ein gemeinsames und neutrales
Standard-Datenmodell im Engineering bisher nicht gelungen ist und wie AutomationML
den Umgang mit Semantikvielfalt ermöglicht. Daraus entwickeln die Autoren ein evolutionäres
Standardisierungs-Reifegradmodell. Das Konzept ist reif für die industrielle
Einführung und bietet Vorteile für Industrie, Gremien und Akademia.
SCHLAGWÖRTER AutomationML / Datenaustausch / CAEX / Reifegradmodell
Handling semantic heterogeneity with AutomationML –
An approach for the standardization of data models
In 2011, the AutomationML consortium has achieved significant technical progress – the
introduction of a concept that masters different semantics in the data exchange process
of a heterogeneous engineering tool landscape. This contribution gives an overview about
the current technical developement state of the data exchange format AutomationML.
KEYWORDS AutomationML / data exchange / CAEX / COLLADA / PLCopen XML
72
atp edition
12 / 2012
RAINER DRATH, MIKE BARTH, ABB Forschungszentrum
Für Ingenieure ist AutomationML ein Hilfsmittel
zum Austausch von Engineering-Daten in einer
heterogenen Werkzeuglandschaft. SPS-Programmierer
tauschen Ablaufsequenzen, Hardwarehierarchien
oder Signaldaten untereinander oder
mit Ingenieuren der HMI- oder Elektroplanung aus. Roboterprogrammierer
speichern Bahnverläufe oder importieren
3D-Geometrien und Kinematiken.
Diese unterschiedlichen Sichtweisen lassen die dahinterstehende
Problemstellung erahnen: In der Anlagenplanung
sind viele Personen mit jeweils individuellen Planungswerkzeugen
beteiligt. Alle diese Gewerke sind in
einer unsichtbaren Wertschöpfungskette miteinander
verbunden: In einem Werkzeug werden Daten erzeugt,
welche in mehreren weiteren Werkzeugen benötigt werden.
Durch fortwährende Anreicherung, durch wiederholtes
Kopieren und Verteilen von Engineering-Daten in
einem solchen Werkzeugnetzwerk entstehen zwangsläufig
Redundanzen und Inkonsistenzen. Deren Identifizierung
und Behebung verursacht erheblichen manuellen
Aufwand [1]. Mit Hinblick auf die Inbetriebnahme (virtuell
oder real) ist die konsistente Zusammenführung
aller Engineering-Daten dabei von besonderer Bedeutung.
Gerade in der Fertigungsautomatisierung werden Antriebe,
SPSn, Roboter oder Sicherheitseinrichtungen verschiedener
Hersteller miteinander kombiniert. Jeder
Gerätehersteller stellt dabei seine eigene Engineering-
Software bereit mit ihren langjährig gereiften, sinnvollen
und berechtigten Datenmodellen. Im Ergebnis entstehen
eine heterogene Werkzeuglandschaft sowie eine erhebliche
Semantikvielfalt.
1. GRUNDPROBLEM DER SEMANTIKVIELFALT
Warum ist Semantikvielfalt ein Problem? Dies lässt sich
anhand menschlicher Kommunikation darstellen: Menschen
können einen Text verstehen, wenn sie über ein gemeinsam
vereinbartes Modell des Alphabets (die Syntax)
sowie der Bedeutung ihrer Elemente (Semantik) verfügen.
Schrift ist ein selbstverständliches Mittel der Kommunikation.
Dennoch sind Fehler bei der Übertragung mittels
Sprache allgegenwärtig: Kommunikation wird erschwert,
wenn Verfasser und Leser über ein unterschiedliches Alphabet
verfügen, unterschiedliche Syntax verwenden oder
über unterschiedliche Semantikmodelle derselben Sprache
verfügen, zum Beispiel Doppeldeutigkeiten. Gleiche Begriffe
unterschiedlicher Bedeutung oder unterschiedliche Begriffe
gleicher Bedeutungen führen regelmäßig zu Missverständnissen.
Semantische Vielfalt ist keine Spezialität der
Automatisierungstechnik, sondern allgegenwärtig.
Der Datenaustausch zwischen Engineering-Werkzeugen
in einer heterogenenen Werkzeuglandschaft leidet an denselben
Problemen: Es fehlt ein vereinbartes gemeinsames
Datenmodell, syntaktisch und semantisch. Um dies zu
beheben, beschreibt die Literatur zwei grundsätzliche
Konzepte: Entweder werden die Werkzeuge miteinander
in einer gemeinsamen Datenbank auf einem gemeinsamen
Datenmodell integriert (und somit voneinander abhängig),
oder sie gehen eine lose Kopplung mit einem dateibasierten
Datenaustausch ein und bleiben unabhängig. Beide
Ansätze haben ihre Existenzberechtigung (siehe [2], [4]).
Dem dateibasierten Datenaustausch kommt in der Praxis
eine besondere Bedeutung zu, denn die Mehrzahl der
am Markt befindlichen Werkzeuge stammt nicht von
einem Hersteller, ist nicht aufeinander abgestimmt und
besitzt aufgrund ihrer langjährigen Reifung ein eigenes,
bewährtes und berechtigtes Datenmodell. Ihre Werkzeugintegration
ist aufgrund wirtschaftlicher Eigentumsverhältnisse
und Marktbedingungen nicht zu erwarten:
Die Werkzeuge und ihre Datenmodelle liegen in
der Hoheit des jeweiligen Werkzeugherstellers und unterliegen
ständiger Veränderung. Folglich wird ein übergreifendes
gemeinsames Datenaustauschformat benötigt.
1.1 Motivation für AutomationML
Aufgrund fehlender Datenaustauschformate existieren zwischen
den Gewerkegrenzen nach wie vor erhebliche Brüche
im Engineeringworkflow – eine Hauptursache für die von
der AIDA in 2005 bezifferten Engineeringkosten von 50 %
atp edition
12 / 2012
73
HAUPTBEITRAG
Bild 1
der Gesamtautomatisierungslösung im Automobilbau [3]. Bild verdeutlicht die Architektur von AutomationML.
Vor diesem Hintergrund initiierte die Daimler AG 2006 unter
anderem gemeinsam mit ABB, Siemens und Kuka einen 62424 [5] standardisierte Format CAEX (Computer Aided
Das Rückgrat von AutomationML bildet das in der IEC
Arbeitskreis mit dem Ziel, erstmalig ein Datenformat zu Engineering eXchange). Dieses ermöglicht das Modellieren
und Speichern von Objektnetzwerken mitsamt deren
entwickeln, das möglichst alle Engineering-Disziplinen
und -Phasen abdeckt. Im Ergebnis entstand ein schlankes Attributen, Schnittstellen, Relationen sowie Bibliotheken.
AutomationML definiert darüber hinaus einen Re-
Datenformat, das bestehende Datenformate kombiniert und
lediglich deren Verwendung und Interaktion definiert. ferenzmechanismus, mit dem sich Geometrie- und Ki-
Bild 2
CAEX IEC 62424
Dachformat
Anlagentopologie -
information
• Anlage
• Zelle
• Komponente
• Attribute
• Schnittstellen
• Relationen
• Referenzen
Object A
AutomationML
Engineeringdaten
Object A 1
Object A 2
Bild 3
BILD 1: AutomationML-Architektur
COLLADA
Geometrie
Kinematik
PLCopen XML
Verhalten
Abfolgen
a
h
Standardisierung
Praktischer Einsatz
BILD 2: Standardisierungs-
Deadlock
g
DB
Quell-
Tool
1
Exporter
2
3
Ziel-
Tool
Importer
DB
4
BILD 3:
Idealer Datenaustausch
mit CAEX
Mapping
Quell – Neutral
Bild 4
AutomationML
Mapping
Neutral – Ziel
Quell-
Tool
Daten liegen gemischt
neutral/privat vor
DB
1
Exporter 2
3
Mapping
1. Quell – neutral
AutomationML
Ziel-
Tool
Importer
DB
4
Mapping
1. neutral – Ziel
2. Quell CAEX – Ziel
BILD 4:
Realer Datenaustausch
mit CAEX
74
atp edition
12 / 2012
nematikdaten eines Objektes referenzieren lassen. Diese
werden in einer separaten Collada-Datei gespeichert.
Darüber hinaus kann diskretes Verhalten in separaten
PLCopen XML-Dateien beschrieben werden. Einen vertiefenden
Einblick in AutomationML gibt [4].
Bezüglich Geometrie, Kinematik und diskreter Logik
besitzt AutomationML bereits eine definierte Syntax und
Semantik. AutomationML ist aber mehr als nur Geometrie
oder Logik: Auch Objektmodelle sind mit CAEX modellierbar,
beispielsweise eine Hardwarehierarchie. CAEX liefert
jedoch keine fertigen Objekt-Bibliotheken, keine Ontologien
oder gar ein Engineering-Weltmodell. Stattdessen trennen
die Entwickler von CAEX bewusst Syntax und Semantik.
CAEX schreibt kein Objektmodell vor, sonden bietet
Mechanismen zur Modellierung beliebiger nutzerdefinierter
Datenmodelle. Diese werden syntaktisch neutralisiert,
die Semantik hingegen bleibt nutzerdefiniert. Auf diese
Weise kann CAEX von Anbeginn unterschiedliche Objektmodelle
abbilden und so Semantikvielfalt aufnehmen.
Damit ist es für zukünftige Standard-Datenmodelle gerüstet.
Doch die Standardisierungs-Community hat bis heute
kein Engineering-Weltmodell etabliert – die Beherrschung
der Semantikvielfalt ist bisher nicht gelungen. Warum?
1.2 Das Grundproblem der Semantik-Standardisierung
Die Ur-Idee eines neutralen Datenformates besteht darin,
Daten herstellerneutral und verlustlos zu speichern. Es
liegt daher der Gedanke nahe, die Semantikvielfalt durch
ein Super-Datenmodell zu beherrschen, das sämtliche
Konzepte aller verwendeten Datenmodelle vereint und
eine eindeutige und verlustlose Abbildung aller Daten
ermöglicht. Dies ist die treibende Kraft aller Standardisierungsaktivitäten.
Damit eine solche Standardisierung
gelingt, müssen folgende Schritte absolviert werden:
1.2.1 Schrittfolge einer Semantik-Standardisierung
a | Eine Gruppe von Experten trägt für jedes beteiligte
Gewerk beziehungsweise Engineeringwerkzeug
alle benötigten Datenmodelle und Konzepte bei.
b | Experten einigen sich auf die gemeinsamen Grundkonzepte.
c | Experten einigen sich auf ein neutrales semantisches
Datenmodell, das alle Grundkonzepte berücksichtigt,
zum Beispiel UML.
d | Experten einigen sich auf eine neutrale Syntax,
beispielsweise basierend auf XML.
e | Die gemeinsamen Grundkonzepte, das semantische
Datenmodell und die Umsetzung in einer gemeinsamen
Syntax werden in einem Dokument niedergeschrieben,
beispielsweise in einem Normtext
oder White Paper.
f | Die Industrie und Akademia schaffen die Voraussetzungen
dafür, dass genügend Experten zur Verfügung
stehen, die den Standard beurteilen und
implementieren können.
g | Anwender und Werkzeughersteller implementieren
und nutzen den Standardentwurf in ihren
Werkzeugen.
h | Erfahrungen aus der praktischen Nutzung des Standards
fließen in (a) zurück und tragen zur Standard-Reifung
bei.
1.2.2 Der Standardisierungs-Deadlock
Die Entwicklung neutraler Datenmodelle wurde und wird
in unterschiedlichen Aktivitäten versucht, zum Beispiel
NE100 [6], Plant-XML [7], STEP [8], Engineering Service
Bus [9], mit wissensbasierten Systemen [10] oder ISO 15926
[11]. Ein Engineering-Weltmodell ist dennoch nicht in
Sicht und unter globalen Randbedingungen vermutlich
nicht erreichbar. Während die Standardisierung nur reifen
kann, wenn Erfahrungen aus der praktischen Nutzung
einfließen, warten Werkzeughersteller typischerweise auf
einen gereiften Standard, bevor sie ihre Software mit Exund
Importern ausstatten. Daraus resultiert der in Bild 2
veranschaulichte Standardisierungs-Deadlock: die Rückführungen
(g) und (h) sind gestört.
Ein bekanntes Beispiel für dieses Paradoxon ist die STEP-
Initiative. In diesem Ansatz beschreiben tausende Textseiten
vielfältige Aspekte der Anlagenplanung und deren Life-
Cycle. Diese Aktivität hat unter jahrelangen Bemühungen
(a) bis (e) erfolgreich durchlaufen, scheitert in der Praxis
jedoch aufgrund seiner Komplexität an (f), (g) und (h).
Ein anderes Beispiel ist PlantXML. Innerhalb eines
Unternehmens wurden über mehrere Jahre für eine Auswahl
von Werkzeugen hunderte Attribute und Objekttypen
standardisiert. PlantXML hat erfolgreich (a) bis (h)
durchlaufen und ist produktiv. Leider ist es für andere
Unternehmen oder Gewerke nicht wiederverwendbar,
da es an seine Werkzeuge gebunden ist. Folglich besitzt
es Schwächen in (f), (g) und (h) – es ist keine Anwendung
außerhalb ihrer Entstehungsquelle bekannt.
Fazit: Die Erfahrung zeigt, dass das Engineering-Weltmodell
aufgrund der Vielzahl von Werksnormen, regionalen
und nationalen Standards nicht in einem Schritt
erreichbar ist. Es wird daher ein Konzept benötigt, welches
bereits heute den Umgang mit der Semantik-Vielfalt
ermöglicht, statt auf ein künftiges übergreifendes Semantik-Modell
zu warten.
2. UMGANG MIT HETEROGENEN DATENMODELLEN
2.1 Grundlagen und Herleitung
Die ursprüngliche Idee eines neutralen Datenformates
beruht darauf, Daten herstellerunabhängig und verlustfrei
zu modellieren und zu speichern. Das vorgestellte
Konzept leitet sich direkt aus den in Bild 3 dargestellten
Aufgaben idealer CAEX-Exporter und -Importer der teilnehmenden
Werkzeuge ab.
Schritt 1: Ein CAEX-Exporter exportiert Daten aus
einer proprietären Datenbank eines Quell-Engineering-Werkzeugs.
Dazu benötigt er Zugriff auf die
Quelldaten.
Schritt 2: Der CAEX-Exporter transformiert die proprietären
Daten verlustfrei in das vereinbarte neutrale
CAEX-Datenmodell und speichert dies als Au-
atp edition
12 / 2012
75
HAUPTBEITRAG
tomationML-Dokument ab. Dazu benötigt er Wissen
über das proprietäre Datenmodell sowie das neutrale
Datenmodell und zugleich über zugehörige Transformationsregeln.
Schritt 3: Der CAEX-Importer liest das AutomationML-
Dokument und transformiert die Daten aus dem
neutralen Datenmodell in das proprietäre Datenmodell
des Zielwerkzeugs. Dazu benötigt er Wissen
über das neutrale und das proprietäre Datenmodell
des Zielwerkzeugs sowie über die zugehörigen
Transformationsregeln.
Schritt 4: Der CAEX-Importer importiert die transformierten
Daten in das proprietäre Datenmodell des
Zielwerkzeugs. Dazu benötigt er Zugriff auf die Daten
des Zielwerkzeugs.
Leider fehlt das neutrale Datenmodell. Für eine Vielzahl
vereinzelter Objekte finden sich zwar aus aktuellen Standardisierungsergebnissen
Daten-Teilmodelle, beispielsweise
für ein Signal (NE 100) oder einen Sensor (ISO
15926). Für viele Daten lassen sich in Schritt 2 jedoch keine
oder wenige Transformationsregeln implementieren.
2.2 Die Idee eines gemischten Datenmodells
Was passiert, wenn man private Datenmodelle zuließe,
statt sie zu vermeiden? Fehlende neutrale Datenmodelle
sind für AutomationML kein Hindernis: CAEX erlaubt
explizit das Speichern gemischt proprietär/neutraler
Daten-Teilmodelle. Proprietäre Daten werden immerhin
syntaktisch neutralisiert, semantisch bleiben sie proprietär.
Auch wenn das Zielwerkzeug diese Daten nicht
interpretieren kann (zu Beginn ein sehr wahrscheinlicher
Fall), stellt dies bereits einen erheblichen Gewinn
dar: Erstmalig werden proprietäre Datenmodelle außerhalb
ihres Werkzeugs syntaktisch neutralisiert und explizit
sichtbar. Dies erleichtert die Schritte (a) und (b) der
beschriebenen Standardisierungskette. Dies ändert die
Aufgabe des Exporters (Bild 4):
Schritt 2: Der Exporter transformiert nur diejenigen
proprietären Daten, für die ein neutrales Datenmodell
vorliegt. Die privaten Daten lässt er unverändert
und überträgt sie 1:1 nach CAEX. Das resultierende
CAEX-Dokument enthält in diesem Fall
eine Mischung aus neutralen und privaten Daten-
Teilmodellen.
Andere Engineering-Werkzeuge können diese Datei zumindest
öffnen, Inhalte untersuchen, Änderungsberechnungen
durchführen und Versionsmanagement betreiben. Während
neutrale Datenmodelle identifiziert und importiert
werden können, gelingen die Interpretation und der Import
proprietärer Daten nicht unmittelbar. Dazu muss ein Zielwerkzeug
den Absender wissen und dessen Datenmodelle
kennen, um geeignete Transformationsroutinen aufrufen
zu können. Dies ändert die Aufgabe des Importers:
Bild 5
Schritt 3: Der Importer transformiert die neutralen
Daten in das proprietäre Datenmodell des Zielwerkzeugs.
Private Daten müssen jedoch mithilfe zuge-
Reifegrad 1
Reifegrad 2
Reifegrad 3
Reifegrad 3 3
Reifegrad 4
Standardisierungsgrad = 0%
Standardisierungsgrad > 0%
lokaler
Standardisierungsgrad = 100%
übergreifender Standard
Praktischer
Einsatz
Praktischer
Einsatz
Praktischer
Einsatz
Praktischer
Einsatz
Unbek. priv. Datenmodelle
Kandidaten für das
Lastenheft?
Unbek. priv. Datenmodelle
Kandidaten für das
Lastenheft?
Neutrale Datenmodelle
NeutraleTransformationen
Standard Datenmodelle
Standard Transformationen
SW-Entwicklung
SW-Entwicklung
Bekannte priv. Datenmodelle
Private Transformationen
Kandidaten für lokale
Standardisierung?
Bekannte priv. Datenmodelle
Priv.Transformationen
Neutrale Datenmodelle
Neutrale Transformationen
Standardisierung
Lokale Standardisierung
von Mini-Datenmodellen
BILD 5: Reifegrade der
semantischen Standardisierung
76
atp edition
12 / 2012
schnittener privater Transformationsregeln interpretiert
werden, oder sie werden ignoriert.
2.3 Identifikation des Quellwerkzeugs
Doch wie kann ein Importer erkennen, welche privaten
Transformationsroutinen angewendet werden müssen?
AutomationML führt dazu erstmalig einen standardisierten
Etikettiermechanismus ein. Die CAEX-Datei bekommt
ein Etikett, dieses wird während des Exports in Schritt 2
eingebettet und enthält Informationen über das Quellwerkzeug
(siehe Abschnitt 1). Ein Importer kann dieses
Etikett auswerten und private Transformationsroutinen
anstoßen. Dies führt für den Praktiker zu schnellen Lösungen
ohne Warten auf das Engineering-Weltmodell.
Doch ist das nicht ein Rückfall in die Situation, in der
jedes Werkzeug seine Daten in seinem eigenen proprietären
Datenformat exportiert? Nein! Folgende Aspekte verdeutlichen
das:
Das Etikettierkonzept erlaubt die automatische Absendererkennung.
Excel-Sheets und andere bekannte
Austauschmechanismen verfügen über keine
standardisierte Methodik dafür.
Das neutrale Datenformat ermöglicht die Neutralisierung
proprietärer Datenmodelle auf Syntax-
Ebene. Dies ermöglicht datenmodellunabhängige
Operationen wie Versionsmanagement oder Änderungsberechnungen
([2], [9]). Derartige Funktionalität
müsste für jedes proprietäre Datenformat erneut
entwickelt werden. Basierend auf einem neutralen
Datenformat genügt eine einzige Implementierung.
Ein Großteil des Importers kann daher
unabhängig vom Quellwerkzeug wiederverwendet
werden.
2.4 Praktische Relevanz
Der vorgeschlagene Ansatz ändert den Weg zu einem
neutralen Datenmodell erheblich: Eine AutomationML-
Datei wird nach dem Datenexport teilweise proprietär.
Dies verletzt die Ur-Idee eines neutralen Datenformates
und verlässt scheinbar bewährte Pfade. Zu Recht: Der
hier vorgeschlagene Ansatz nutzt die Heterogenität bewusst,
anstatt sie überwinden zu wollen.
Entwickler von Exportern und Importern müssen
nicht mehr auf einen gereiften Standard warten.
Dies überwindet den beschriebenen Deadlock
(Bild 2) und beschleunigt die Entwicklung von Datenaustauschlösungen.
Für die Gremien ist die Mischung von privaten und
neutralen Daten-Teilmodellen ein fruchtbarer Boden
für eine erfolgreiche schrittweise Evolution der
Standardisierung. Sie erlaubt, gänzlich ohne Standardisierung
mit ausschließlich privaten Daten zu
beginnen, um schrittweise eine vollständige Standardisierung
zu erreichen. Dabei werden Zwischenschritte
durchlaufen, aus denen die Autoren ein
Reifegradmodell ableiten.
3. REIFEGRADE DER STANDARDISIERUNG
3.1 Überblick
Aus der Idee eines gemischt privat/neutralen Datenmodells
entwickeln die Autoren ein Reifegradmodell der
semantischen Standardisierung, dessen Stufen in Bild 5
abgebildet sind. Das Ziel dieses Reifegradmodells besteht
darin, den erläuterten Standardisierungs-Deadlock zu
durchbrechen und den Datenaustausch in einem heterogenen
Werkzeugumfeld auch ohne beziehungsweise
nur mit teilweiser Standardisierung durchführen zu
können. Im Vordergrund jedes Reifegrades steht immer
dessen praktischer Einsatz. Die Entwicklung neutraler
Daten-Teilmodelle erfolgt schrittweise und ist nicht
mehr Voraussetzung für den praktischen Einsatz. Dies
bedeutet, dass die Standardisierung der Nutzung folgt,
nicht umgekehrt wie bisher.
3.2 Reifegrad 1 – das vollständig private Datenmodell
Reifegrad 1 beginnt mit einem Standardisierungsgrad
von 0 % (das heißt mit 100 % privaten Daten). Betrachten
wir den Exporter und Importer eines Quell- und Ziel-
Engineering-Werkzeugs nach Reifegrad 1: Beide verwenden
keinerlei lokale/globale Vereinbarungen oder Standards,
die Werkzeuge sind völlig unabhängig. Der Exporter
exportiert die Daten in Schritt 2 nach CAEX unter
Verwendung der CAEX-Syntax, aber unter Verwendung
des privaten Datenmodells des Quellwerkzeugs.
Die Entwicklung des quellwerkzeugspezifischen Exporters
ist wegen des fehlenden Standards besonders einfach,
der Aufwand wird maßgeblich durch die Offenheit des
Quellwerkzeugs bestimmt [12]. Den Erfahrungen der Autoren
zufolge ist ein Exporter, je nach angestrebter Produktreife,
in wenigen Tagen zu implementieren [15].
Die Entwicklung des quellwerkzeugspezifischen Importers
erfordert mehr Aufwand, wird durch das beschriebene
Konzept aber erheblich unterstützt. Aufgrund
der standardisierten CAEX-Syntax kann der Importer
(selbst ohne Wissen über das Quell-Datenmodell)
die Datei öffnen, durchsuchen und darstellen. Doch das
ist nicht alles: Darüber hinaus sind wesentliche Funktionen
eines Importers wie Navigation, Änderungsberechnungen
sowie Versions-Managementfunktionen unabhängig
vom Datenmodell und lassen sich generisch entwickeln
und wiederverwenden – nicht denkbar mit einem
syntaktisch unstandardisierten Datenformat wie
beispielsweise einer Excel-Liste.
Das Etikettierkonzept ermöglicht dem Importer, das
Quellwerkzeug festzustellen. Dies ist der Schlüssel zum
„Erkennen“ von privaten Datenmodellen. Zu Beginn
wird der Importer keine bekannten Datenmodelle (Klassen)
finden (siehe Bild 5), dafür müssen zuerst geeignete
private quellwerkzeugspezifische Subroutinen für die
Interpretation und den Import entwickelt werden. Dies
wird ebenfalls unterstützt: Der Importer kann konzeptbedingt
unbekannte private Datenmodelle explizit erkennen
und in einer CAEX-Bibliothek speichern. Aus
dieser lässt sich der Standardisierungsbedarf automatisch
ableiten und anhand von Häufigkeitsuntersuchun-
atp edition
12 / 2012
77
HAUPTBEITRAG
gen sogar priorisieren. Private Transformationsroutinen
können mit diesem Wissen schnell und in lokaler Verantwortung,
das heißt ohne Abhängigkeiten zu höheren/
öffentlichen Standardisierungsaktivitäten, entwickelt
werden. Dies könnte auch eine Quick–and-dirty-Lösung
sein, das Konzept ist nicht an ein kommerzielles Produkt
eines Werkherstellers gebunden. Das Ziel ist der Einsatz
und die Reifung unter realen Bedingungen.
Im Ergebnis werden aus unbekannten somit bekannte
Datenmodelle. Die entwickelten privaten Transformationsroutinen
lassen sich für jeden weiteren Datenaustausch
mit demselben Quellwerkzeug wiederverwenden.
Die Vorteile von Reifegrad 1 liegen in seiner unmittelbaren
Einsetzbarkeit: Da ein Standard nicht abgewartet
werden muss, können zwei Werkzeughersteller oder
-nutzer unmittelbare Export-Import-Partnerschaften eingehen.
Ein dritter Teilnehmer kann sich (auch später)
einbinden, je mehr Teilnehmer, desto geringer der Gesamtaufwand.
Lediglich die werkzeugpaarspezifischen
Transformationsroutinen sind unterschiedlich.
Reifegrad 1 kombiniert die Kosteneffizienz eines
leichtgewichtigen Excel-basierten Datenaustausches mit
den Vorteilen höherwertiger Funktionen wie Änderungsmanagement.
Kosteneinsparungen werden zeitnah erzielt.
Zudem bietet Reifegrad 1 einen weiteren neuartigen
Vorteil: Ein Importer kann alle Objekttypen feststellen,
die ihm unbekannt sind. Auf diese Weise werden nicht
nur alle bekannten, sondern auch alle unbekannten Daten
explizit sichtbar. Diese Sichtbarkeit ist ein Schlüssel
für die Identifizierung von Standardisierungsbedarf und
eröffnet den Weg zu einer automatischen Erzeugung von
Lastenheften. Der Wissensaufbau im Umgang mit CAEX
erfolgt schrittweise. Der Datenaustausch kann so bedacht
eingeführt und praktiziert werden und reifen.
Reifegrad 1 ist somit ein wichtiger Meilenstein in der
Evolution eines Standardisierungsprozesses. Er erleichtert
die Schritte (a) und (b) und belebt die Rückführung
von Erfahrungen (h) aus Bild 2. Dies löst den Standardisierungs-Deadlock.
Dieser Reifegrad ist für Werkzeuge mit wenigen Datenaustauschpartnern
geeignet und möglicherweise sogar
ausreichend. Die Entwicklung privater Transformationsroutinen
benötigt deutlich weniger Aufwand als eine
Standardisierung. Reifegrad 1 ist weiterhin ideal für
Werkzeuge, die lediglich ihre eigenen Daten archivieren
beziehungsweise extern manipulieren und anschließend
wieder einlesen möchten.
Mit der Zeit und wachsender Zahl von Teilnehmern
wird eine Bibliothek aus Transformationsroutinen entstehen.
Dies ist ein geeigneter Indikator für den Start
einer Konsolidierung des Entwicklungsaufwandes und
somit ein guter Übergangspunkt zu Reifegrad 2, denn
ähnliche Datenmodelle sind Kandidaten für eine erste
Standardisierung.
3.3 Reifegrad 2 –
das gemischt standardisierte/private Datenmodell
Reifegrad 2 entsteht aus der Konsolidierung der Standardisierungskandidaten
aus Reifegrad 1 (siehe Bild 5). Für
ähnliche private Datenmodelle entwickelt sich im Kreise
der Teilnehmer der Wunsch nach lokaler Standardisierung
im Zuge einer kosteneffizienten Softwareentwicklung.
Dies erhöht die Standardisierungsbereitschaft
und führt zu ersten neutralen Mini-Datenmodellen.
Jede solche Standardisierung wird belohnt: Für jedes
neutralisierte Mini-Datenmodell kann in jedem Importer
die Zahl (n) der privaten Transformationsroutinen für n
Quellwerkzeuge auf eine einzige Transformationsroutine
reduziert werden. Auf diese Weise entsteht ein Pool
an neutralen Datenmodellen, während der Pool privater
Transformationsroutinen schrumpft.
Wichtig dabei ist das Verständnis für den Evolutionsprozess
hin zu Reifegrad 2, welcher ausschließlich aus
praktischen Projektbedürfnissen getrieben wird. Dies
stellt einen natürlichen und evolutionären Prozess dar.
Unter Verwendung erster neutraler Daten-Teilmodelle
erzeugt ein Exporter in Reifegrad 2 ein gemischt standardisiert/privates
CAEX-Datenmodell. Ein Importer
kann alle bekannten Datenmodelle anhand ihres Klassennamens
sowie des Etiketts erkennen, interpretieren
und importieren. Hierbei können dieselben Transformationsroutinen
wiederverwendet werden, die in Reifegrad
1 entstanden sind. Aus erkannten unbekannten Datenmodellen
lässt sich auch hier automatisiert Standardisierungsbedarf
ableiten. Bild 6 illustriert anhand privater
oder unbekannter Objekttypen Kandidaten, die als
Standardisierungs- beziehungsweise Entwicklungskandidaten
in Frage kommen. Reifegrad 2 ist für überschaubare
und feststehende Datenaustauschszenarien geeignet
und in vielen Fällen sogar ausreichend.
3.4 Reifegrad 3 – das neutrale Datenmodell
Reifegrad 3 wird erreicht, wenn alle benötigten Daten-
Teilmodelle durch neutrale Datenmodelle abgebildet
werden – er ist das Gegenstück zu Reifegrad 1 – der Anteil
an privaten Datenmodellen beträgt 0 Prozent. Seine
Reife erlangt er durch Erfahrungen im praktischen Einsatz.
Reifegrad 3 ist nicht an internationale Standards
gebunden – es könnte ebenso ein Standard eines einzelnen
Projektes oder eines Konsortiums sein. Dieser Reifegrad
kommt der eigentlichen Idee eines neutralen Datenaustauschformates
bereits nahe: private Transformationsroutinen
sind nicht mehr notwendig – das Datenmodell
ist aus Erfahrungen der Reifegrade 1–2 gewachsen
und gereift. Als Beispiel könnte das für das Engineering
von Automatisierungssystemen zentrale Element „Signal“
international standardisiert werden, wohingegen
ein anderes Datenmodell „Safety IO Module“ zunächst
proprietär oder lokal standardisiert bliebe.
3.5 Reifegrad 4 –
das standardisierte neutrale Datenmodell
Reifegrad 4 wird erreicht, wenn mehrere Reifegrad 3
Standards zu einem übergeordneten Standard kombiniert
werden (siehe Bild 5). Die Datenmodelle aus Reifegrad
3 bilden aufgrund praktischer Erfahrungen eine
belastbare Basis für die Schritte (a) und (b) eines übergreifenden
Standardisierungsvorhabens, zum Beispiel
78
atp edition
12 / 2012
für einen internationalen Standard. Dieser Reifegrad ist
als langfristiges Ziel zu verstehen und ein evolutionäres
Ergebnis des Durchlaufens der vorigen Reifegrade.
4. DISKUSSION DES KONZEPTES
4.1 Vorteile
Das vorgestellte Reifegradmodell der Semantik-Standardisierung
ist ein neuer Ansatz und eröffnet eine Vielzahl
neuer Möglichkeiten und Vorteile.
Vorteil 1: Schnellstart mit hoher
Wiederverwendungsquote
Werkzeughersteller oder Anwender können unmittelbar
starten. Sobald ein Datenaustauschbedarf identifiziert
ist, kann der Projektleiter eine individuelle Entwicklung
der wichtigsten Subroutinen für den automatischen Import
privater Daten aus einem Quell-Engineering-Werkzeug
in das von ihm gewünschte Zielwerkzeug initiieren.
Die privaten Transformationsroutinen eines Importers
können später von Projekt zu Projekt wiederverwendet
werden. Der Aufwand zur CAEX-Programmierung
wird mit [15] abschätzbar.
Vorteil 2: Datenmodelle werden explizit sichtbar
Normalerweise sind Datenmodelle in ihren Werkzeugen
verborgen und sind nur Experten zugänglich. Das von
AutomationML verfolgte Konzept macht proprietäre und
unbekannte Datenmodelle jedoch explizit sichtbar. Dies
Bild 6
vereinfacht die Entwicklung im Projekt, befördert die
Diskussion über Datenmodelle und beschleunigt die
Standardisierungsschritte (a)–(c).
Vorteil 3: Automatische Ableitung von Entwicklungsund
Standardisierungsbedarf
Konzeptbedingt können unbekannte Datenmodelle erkannt
und in Bibliotheken gespeichert werden. Diese
Bibliotheken lassen sich als Lastenheft für eine Importer-
Softwareentwicklung einsetzen, da sie die privaten Datenmodelle
möglicher Datenaustauschkandidaten explizit
spezifizieren. Mithilfe von Häufigkeitsuntersuchungen
lassen sich sogar Prioritäten ableiten.
Statistische Analysen beflügeln wiederum den Standardisierungsprozess,
da sie die Schritte (a) und (b) vereinfachen.
Der vorgestelle evolutionäre Ansatz optimiert
das Verhältnis zwischen dem Aufwand zur Entwicklung
privater Transformationsroutinen und der Standardisierung.
Durch das explizite Wissen über unbekannte oder
ähnliche Datenmodelle können Standardisierungsaktivitäten
fokussiert werden. Dies wird durch einen impliziten
Regelkreis erreicht: Die Entwicklung privater
Transformationsroutinen für jedes Quellwerkzeug ermöglicht
schnelle Ergebnisse, führt aber mit der Zeit zu
redundanter Entwicklung pro Quellwerkzeug. Diese
Kosten sind Treiber für eine vernünftige und zielgerichtete
Standardisierung, die mittelfristig die Entwicklungskosten
senkt. Seltene private Datenmodelle können
in privaten Transformationsroutinen verbleiben. Aus
diesen Gründen behindert das Etikettierkonzept nicht
die Standardisierung, sondern fördert sie.
Neutrale Objekt-Typen
Neutral_Signal
Neutral_Master_Controller
Neutral_Fieldbus_Device
Neutral_IO_Module
Private Objekt-Typen
Force_Torque_Sensor
Unbekannte Objekt-Typen
HMI_Panel
IPC_Socket
BILD 6: Automatisch ermittelter Entwicklungs- und Standardisierungsbedarf
Bereits
standardisiert
Standardisierungskandidat
Kandidat für das
Entwicklungslastenheft
Bild 8
Private Klassen-Bibliothek
Standard Klassen-Bibliothek
Private Interface Class library
Standard Interface Class library
BILD 8: CAEX-Modelle mit privaten
und standardisierten Daten
BILD 7: AutomationML-Beispiel-Etikett
atp edition
12 / 2012
79
HAUPTBEITRAG
Vorteil 4: Speed-Standardisierung von
Mini-Datenmodellen
Das Etikettierkonzept sowie die Mischung privater und
neutraler Daten eliminiert den Bedarf nach einem umfassenden
und gereiften Engineering-Weltmodell: Der
Schwerpunkt verlagert sich stattdessen auf kleine und
flexible Mini-Datenmodelle, wie beispielsweise das „Signal“.
Signallisten werden vielfältig ausgetauscht, die Standardisierung
eines Signalobjektes ist im Fertigungsumfeld
realisierbar und bereits aus rein praktischen Erwägungen
ein lohnenswertes und erreichbares Ziel. Eine solche
Speed-Standardisierung kann von erfahrenen Projektleitern
oder Lead-Ingenieuren in kurzer Zeit erfolgen. Das
Ergebnis dieser Arbeit ist ein lokaler Standard und lässt
sich umgehend in Importer und Exporter implementieren
und im Praxisgebrauch prüfen. Kostenersparnisse könnten
vor Ort unmittelbar von den Beteiligten im Initialprojekt
realisiert und in Nachfolgeprojekten vervielfacht werden.
Diese Mikro-Standardisierung zwischen zwei Werkzeugen
ist ein agiler, pragmatischer Weg auch für kleinere
Ingenieurbüros, ohne jede Abhängigkeit von Standards.
Die Standardisierungsschritte (a) bis (c) können
sogar automatisiert werden, (f) wird innerhalb des Teams
gelöst und (h) wird durch die unmittelbare praktische
Anwendung erreicht.
Vorteil 5: Zeitliche Entkopplung von
Standardisierung und Projektarbeit
Die Behandlung privater Transformationsroutinen erfolgt
in der Verantwortung und Zeitleiste des Projektes und
kann schnell umgesetzt und lokal priorisiert werden. Die
Standardisierung hingegen erfolgt außerhalb in einem
übergeordneten Regelkreis und fließt erst mit seiner Finalisierung
in das Projekt ein. Diese Entkopplung ermöglicht
das gleichzeitige Agieren in kurzfristigen Projekterfordernissen
und in langfristigen Standardisierungsaktivitäten.
Vorteil 6: Einführung von Standard-Etiketten
Das Etikettierkonzept ist nicht nur geeignet, um Quellwerkzeuge
zu identifizieren, es kann ebenso auf einen
oder mehrere zugrundeliegende Standards verweisen.
Eine AutomationML-Datei teilt erstmalig aktiv mit, welche
Semantik-Standards sie verwendet.
4.2 Diskussion und Potenziale
Natürlich wäre es einfacher, wenn ein Engineering-Weltmodell
zur Verfügung stünde. Die Standardisierungsgremien
und Softwarehersteller haben frühzeitig den Wert
eines gemeinsamen Datenmodells erkannt und verfolgen
beziehungsweise benötigen mehrheitlich Reifegrad 3 oder
4. Dieser Beitrag zeigt, dass das Ziel sinnvoll, der Weg jedoch
fraglich ist – ein reifer Standard benötigt Erfahrungen
aus der industriellen Anwendung. Für die Praxis
macht es keinen Sinn, sogleich mit dem Reifegrad 3 oder
4 zu beginnen, zumindest – bei einem so weiten Kontext
wie der Automatisierungsplanung – nicht in einem Schritt.
Die Evolution beginnt mit Reifegrad 1. Die Reifegrade 1-4
wachsen aneinander, ein Merkmal der Evolution.
REFERENZEN
[1] Drath R. und Barth M.: Concept for interoperability
between independent engineering tools of heterogeneous
disciplines. In: Proceedings IEEE Conference on Emerging
Technologies and Factory Automation (ETFA), 2011.
[2] Drath R., Fay A., Barth M.: Interoperabilität von Engineering-
Werkzeugen. at – Automatisierungstechnik 59(9), 598-607,
2011
[3] AIDA (2005): Garcia, A. und Drath, R.: AutomationML
verbindet Werkzeuge der Fertigungsplanung.
http://www.automationml.org – Whitepaper_Automation-
ML_2007-11-20_v05.pdf.
[4] Drath, R.: Datenaustausch in der Anlagenplanung mit
AutomationML: Integration von CAEX, PLCopen XML und
COLLADA. Springer, Berlin Heidelberg, 2009
[5] IEC 62424:2008: Representation of process control
engineering - Requests in P&I diagrams and data exchange
between P&ID tools and PCE-CAE tools
[6] NE 100: Merkmalleisten zur Erstellung von PLT-Gerätespezifikationen.
Namur, 2003
[7] Anhäuser, F., Richert, H., Temmen, H.: Degussa Plant-XML
- integrierter Planungsprozess mit flexiblen Bau-steinen.
atp – Automatisierungstechnische Praxis 46(4), 63-72, 2004
[8] ISO10303: Automation systems and integration - Product
data representation and exchange
[9] Moser, T. und Biffl, S.: Semantic Tool Interoperability for
Engineering Manufacturing Systems, In: Proceedings IEEE
Conference on Emerging Technologies and Factory
Automation (ETFA’10), S. 1-8, 2010
[10] Wiesner A., Wiedau M., Marquardt W., Temmen H.,
Richert H., Anhäuser F.: Wissensbasierte Integration und
Konsolidierung von heterogenen Anlagenplanungsdaten.
atp edition – Automatisierungstechnische Praxis, 52(4),
48-58, 2010
[11] ISO 15926: Industrial automation systems and integration
- Integration of life-cycle data for process plants including
oil and gas production facilities
[12] Fay, A., Drath, R., Barth, M., Zimmer,F., Eckert K.:
Bewertung der Fähigkeit von Engineering-Werkzeugen
zur Interoperabilität mithilfe einer Offenheitsmetrik.
In: Tagungsband Automation 2012, S. 37-40. VDI, 2012
[13] IEC 62714-1 CD: AutomationML Architecture, 2011
[14] www.automationml.org
[15] Drath R.: Let’s talk AutomationML: What is the effort for
AutomationML programming? In: Proceedings IEEE
Conference on Emerging Technologies and Factory
Automation (ETFA’12), 2012
80
atp edition
12 / 2012
Solange die beteiligten Werkzeuge offen genug sind
[12], wird die semantische Vielfalt mit dem vorgestellten
Konzept beherrschbar. Hersteller und Anwender können
leicht Exporter für ihre Werkzeuge erstellen, ohne sich
auf einen Standard beziehen zu müssen.
Generische Importer sind erst mit Reifegrad 3–4 sinnvoll
und deshalb heute für weite Bereiche der Anlagenplanung
nicht anzutreffen. Um die semantische Vielfalt
zu beherrschen, sind für die Reifegrade 1–2 quellwerkzeugspezifische
Importer erforderlich.
Das vorgestellte Konzept vereinfacht deren Entwicklung
maßgeblich, weil große Teile typischer Importfunktionalitäten
generisch angelegt werden können. Anwender
können diese in Eigenregie deutlich leichter und
schneller als bisher entwickeln. Gerade für das Umsetzen
abzählbarer Datenaustauschpartner ist der Entwicklungsaufwand
für solche Importer deutlich geringer als
das Standardisieren eines Weltmodells. Zudem können
Werkzeughersteller im Sinne des Know-how-Schutzes
mit kommerziellen Importern gezielter als bisher beeinflussen,
welche Quellwerkzeuge sie mit welchem Detaillierungsgrad
unterstützen.
5. UMSETZUNG MIT AUTOMATIONML
5.1 Etikettierung einer AutomationML-Datei
Zur Etikettierung einer CAEX-Datei schreibt der AutomationML-Standard
[13] eine Reihe von Parametern vor.
Bild 7 zeigt eine vollständige Liste der vorgeschriebenen
Etikett-Bestandteile im CAEX-XML-Code. Mithilfe der
frei verfügbaren AutomationML-Engine [14] lassen sich
diese Parameter mit vertretbarem Aufwand einfügen
oder auslesen, eine Einführung hierfür gibt [15].
5.2 Speicherung gemischt privater/neutraler Daten
Die Speicherung privater Datenmodelle ist eine der Kernfunktionalitäten
von CAEX. Bild 7 zeigt einen CAEX-
Export, der sowohl private als auch standardisierte Klassen
und Schnittstellen enthält. Ein gemischt privat/neutraler
Objektbaum wird aus Instanzen dieser Klassen
erstellt. Analog zu einem veredelten Obstbaum, an dem
Früchte unterschiedlicher Arten hängen, entsteht in
CAEX ein Objektbaum, der mehrere Datenmodelle zugleich
verwaltet, deren Elemente jedoch identifizierbar
und somit beherrschbar sind.
ZUSAMMENFASSUNG UND AUSBLICK
In diesem Beitrag wurde die Deadlock-Situation vieler semantischer
Standardisierungsbemühungen diskutiert und
ein neues Konzept zur Lösung dieser Probleme vorgestellt.
Hierin wird nicht wie bisher versucht, die bestehende Heterogenität
von Engineering-Werkzeugen und Datenmodellen
durch Vereinheitlichung zu überwinden; das Konzept
verfolgt vielmehr das Anliegen, den Datenaustausch
in einem heterogenen Werkzeugumfeld auch ohne beziehungsweise
nur mit teilweiser Standardisierung durch-
führen zu können. Die Ur-Idee eines neutralen Datenformates
wird hierbei bewusst verletzt – aber Innovationen
werden oft dann erreicht, wenn bekannte Pfade verlassen
oder zuvor gesetze Einschränkungen hinterfragt werden.
Das Konzept zur Speicherung gemischt privat/neutraler
standardisierter Daten in einem AutomationML-Dokument
führt zu sinnvollen und neuartigen Vorteilen
und ist unmittelbar anwendbar. Das Warten auf einen
Standard ist nicht mehr nötig. Der praktische Einsatz
steht in jedem Reifegrad im Vordergrund, die Standardisierung
folgt der Nutzung, nicht umgekehrt. Der Praktiker
erhält über die Erkennung unbekannter Datenmodelle
automatisch ein Lastenheft für die Softwareentwicklung.
Proprietäre Datenmodelle werden explizit
sichtbar. Industrie, Akademia und Gremien können
aufgrund der expliziten Sichtbarkeit proprietärer Daten-
Teilmodelle Ähnlichkeitsanalysen durchführen und
erstmalig Standardisierungsbedarf inklusive Priorisierung
automatisch ableiten.
Die für eine Standardisierung von Datenmodellen notwendigen
Schritte werden deutlich vereinfacht. Kurzfristiger
Projektdruck und langfristige Standardisierungsvorhaben
werden zeitlich entkoppelt und somit
harmonisierbar. Das Konzept eliminiert den Standardisierungs-Deadlock,
ist sofort einsetzbar und ebnet zugleich
einen erfolgversprechenden evolutionären Weg
zur Standardisierung.
MANUSKRIPTEINGANG
29.06.2012
AUTOREN
Im Peer-Review-Verfahren begutachtet
Dr.-Ing. RAINER DRATH (geb. 1970) ist Senior
Principal Scientist im ABB Forschungszentrum
in Ladenburg. Er beschäftigt sich mit
der Entwicklung neuer Konzepte und
Methoden zur Verbesserung des Engineerings
von Automatisierungssystemen.
ABB Forschungszentrum,
Wallstadter Str 59, D-68526 Ladenburg,
Tel. +49 (0) 6203 71 64 71,
E-Mail: rainer.drath@de.abb.com
Dr.-Ing. MIKE BARTH (geb. 1981) ist
Scientist am ABB Forschungszentrum in
Ladenburg. Seine Forschungsschwerpunkte
umfassen Methoden und Werkzeuge
für ein effizientes Engineering von Automatisierungssystemen.
ABB Forschungszentrum
Wallstadter Straße 59, D-68526 Ladenburg,
Tel. +49 (0) 6203 71 64 61,
E-Mail: mike.barth@de.abb.com
atp edition
12 / 2012
81
IMPRESSUM / VORSCHAU
IMPRESSUM
VORSCHAU
Verlag:
DIV Deutscher Industrieverlag GmbH
Arnulfstraße 124, 80636 München
Telefon + 49 89 203 53 66-0
Telefax + 49 89 203 53 66-99
www.di-verlag.de
Geschäftsführer:
Carsten Augsburger, Jürgen Franke
Spartenleiter:
Jürgen Franke
Herausgeber:
Dr. T. Albers
Dr. G. Kegel
Dipl.-Ing. G. Kumpfmüller
Dr. N. Kuschnerus
Beirat:
Dr.-Ing. K. D. Bettenhausen
Prof. Dr.-Ing. Ch. Diedrich
Prof. Dr.-Ing. U. Epple
Prof. Dr.-Ing. A. Fay
Prof. Dr.-Ing. M. Felleisen
Prof. Dr.-Ing. G. Frey
Prof. Dr.-Ing. P. Göhner
Dipl.-Ing. Th. Grein
Prof. Dr.-Ing. H. Haehnel
Dr.-Ing. J. Kiesbauer
Dipl.-Ing. R. Marten
Dipl.-Ing. G. Mayr
Dr. J. Nothdurft
Dr.-Ing. J. Papenfort
Dr. A. Wernsdörfer
Dipl.-Ing. D. Westerkamp
Dr. Ch. Zeidler
Organschaft:
Organ der GMA
(VDI/VDE-Gesell schaft Messund
Automatisierungs technik)
und der NAMUR
(Interessen gemeinschaft
Automatisierungs technik der
Prozessindustrie).
Redaktion:
Anne Hütter (ahü)
(verantwortlich)
Telefon + 49 89 203 53 66-58
Telefax + 49 89 203 53 66-99
E-Mail: huetter@di-verlag.de
Gerd Scholz (gz)
Einreichung von Hauptbeiträgen:
Prof. Dr.-Ing. Leon Urbas
(Chefredakteur, verantwortlich
für die Hauptbeiträge)
Technische Universität Dresden
Fakultät Elektrotechnik
und Informationstechnik
Professur für Prozessleittechnik
01062 Dresden
Telefon +49 351 46 33 96 14
E-Mail: urbas@di-verlag.de
Fachredaktion:
Dr.-Ing. M. Blum
Prof. Dr.-Ing. J. Jasperneite
Dr.-Ing. B. Kausler
Dr.-Ing. N. Kiupel
Dr. rer. nat. W. Morr
Dr.-Ing. J. Neidig
Dipl.-Ing. I. Rolle
Dr.-Ing. S. Runde
Prof. Dr.-Ing. F. Schiller
Bezugsbedingungen:
„atp edition – Automatisierungstechnische
Praxis“ erscheint
monatlich mit Doppelausgaben im
Januar/Februar und Juli/August.
Bezugspreise:
Abonnement jährlich: € 468,– + € 30,–/
€ 35,- Versand (Deutschland/Ausland);
Heft-Abbonnement + Online-Archiv:
€ 638,40; ePaper (PDF): € 468,–;
ePaper + Online-Archiv: € 608,40;
Einzelheft: € 55,– + Versand;
Die Preise enthalten bei Lieferung
in EU-Staaten die Mehrwertsteuer,
für alle übrigen Länder sind es
Nettopreise. Mitglieder der GMA: 30%
Ermäßigung auf den Heftbezugspreis.
Bestellungen sind jederzeit über den
Leserservice oder jede Buchhandlung
möglich.
Die Kündigungsfrist für Abonnementaufträge
beträgt 8 Wochen zum Bezugsjahresende.
Abonnement-/
Einzelheftbestellung:
Leserservice atp
Postfach 91 61, 97091 Würzburg
Telefon + 49 931 41 70-4 94
Telefax + 49 931 41 70-4 92
E-Mail: leserservice@di-verlag.de
Verantwortlich für
den Anzeigenteil:
Inge Matos Feliz
Telefon + 49 89 203 53 66-22
Telefax + 49 89 203 53 66-99
E-Mail: matos.feliz@di-verlag.de
Es gelten die Preise der Mediadaten 2012
Anzeigenverwaltung:
Brigitte Krawczyk
Telefon + 49 89 2 03 53 66-12
Telefax + 49 89 2 03 53 66-99
E-Mail: krawczyk@di-verlag.de
Art Direction / Layout:
deivis aronaitis design | dad |
Druck:
Druckerei Chmielorz GmbH
Ostring 13,
65205 Wiesbaden-Nordenstadt
Gedruckt auf chlor- und
säurefreiem Papier.
Die atp wurde 1959 als „Regelungstechnische
Praxis – rtp“ gegründet.
DIV Deutscher Industrieverlag
GmbH München
Die Zeitschrift und alle in ihr enthaltenen
Beiträge und Abbildungen sind urheberrechtlich
geschützt. Mit Ausnahme der
gesetzlich zugelassenen Fälle ist eine
Verwertung ohne Ein willigung des Verlages
strafbar.
Gemäß unserer Verpflichtung nach § 8
Abs. 3 PresseG i. V. m. Art. 2 Abs. 1c DVO
zum BayPresseG geben wir die Inhaber
und Beteiligungsverhältnisse am Verlag
wie folgt an:
DIV Deutscher Industrieverlag GmbH,
Arnulfstraße 124, 80636 München.
Alleiniger Gesellschafter des Verlages
ist die ACM-Unternehmensgruppe,
Ostring 13,
65205 Wiesbaden-Nordenstadt.
ISSN 2190-4111
DIE AUSGABE 1-2 / 2013 DER
ERSCHEINT AM 18.02.2013
MIT AUSGEWÄHLTEN BEITRÄGEN DER
NAMUR-HAUPTSITZUNG 2012:
Erfahrungen zum Einsatz
WEB-basierter „As-Built“-
Dokumentation
IT im Kontext der Architektur
eines Prozessleitsystem. Teil 2:
Cloud Computing
Versagenseigenschaften
von Software mit bekannter
Betriebserfahrung bei
wechselndem
Anforderungsprofil
Integriertes Engineering
Interview mit
Dr. Jörg Kiesbauer
...und vielen weiteren Themen.
Aus aktuellem Anlass können sich die Themen
kurzfristig verändern.
LESERSERVICE
E-MAIL:
leserservice@di-verlag.de
TELEFON:
+ 49 931 41 70-4 94
82
atp edition
12 / 2012
Erreichen Sie die Top-Entscheider
der Automatisierungstechnik.
Sprechen Sie uns an wegen Anzeigenbuchungen
und Fragen zu Ihrer Planung.
Inge Matos Feliz: Tel. +49 89 203 53 66-22
E-Mail: matos.feliz@di-verlag.de